محو الأمية في الذكاء الاصطناعي
تاريخ النشر: 5th, March 2024 GMT
دائما ما كانت هناك أمية يعاني منها البشر لفترات قد تطول أو تقصر مع كل وسيلة من وسائل التواصل والمعرفة. ودائما ما كانت التكنولوجيا الجديدة تترك الملايين من الناس في الخلف، نتيجة عدم قدرتهم على استيعابها وحرمانهم من تعلم مهارات التعامل معها والاستفادة منها لأسباب اقتصادية أو سياسية أو اجتماعية. من هنا ظهرت برامج محو الأمية التي بدأت بمحو الأمية الهجائية (تعلم القراءة والكتابة)، التي ما زالت قائمة في العديد من دول العالم بنسب تتراوح بين 2 إلى 90 بالمائة من السكان، وبعدد يصل إلى 763 مليونا، منهم نحو 70 مليون أمي في العالم العربي، وفقا لإحصاءات المنظمة العربية للتربية والثقافة والعلوم «الكسو».
بعد ظهور الإنترنت وانتشارها في العالم بدأ الحديث عن الأمية الرقمية، التي أحدثت فجوة داخل الدولة الواحدة، وبين الدول بعضها البعض، في تبني واستخدام التكنولوجيا الجديدة والاستفادة من ثمارها المعرفية والاقتصادية والاجتماعية. وتعرف اليونسكو الأمية الرقمية بأنها «عدم القدرة على الوصول والإدارة والفهم والتكامل والتواصل وتقييم وإنشاء المعلومات بشكل آمن ومناسب من خلال استخدام التكنولوجيا والتقنيات الرقمية». وقد صممت الدول والمنظمات الدولية المعنية برامج لمحو الأمية الرقمية تستهدف تأمين وصول أكبر عدد ممكن من الناس إلى شبكة الإنترنت، واستخدام منصات الإعلام الرقمي ومصادر المعرفة الرقمية. ولم تنجح تلك البرامج في تضييق الفجوة الرقمية، سواء على مستوى الدولة أو على مستوى دول ومناطق العالم، فمازالت الفجوة قائمة بل وتتسع بين العواصم والمدن الكبرى وبين الأقاليم البعيدة داخل الدولة الواحدة، وما زالت قائمة أيضا وتتسع بين الدول الغنية وبين الدول الفقيرة وبشكل عام بين الدول المتقدمة وبين الدول النامية.
ومع ظهور برامج وتطبيقات الذكاء الاصطناعي ظهر الضلع الثالث من أضلاع مثلث الأمية، وهو أمية الذكاء الاصطناعي والتي تبدو أكثر تعقيدا من سابقيها. والواقع أنه منذ أن أصبح ما يعرف بالذكاء الاصطناعي التوليدي سائدًا مع مولدات النصوص والصور والفيديو، شعر المستخدمون أو المتبنيون الأوائل لتلك التكنولوجيا بالقلق من الإجابات الخاطئة أو غير المترابطة وغير الموثقة والمتلاعب بها التي تقدمها برامج الذكاء الاصطناعي، بينما كان من المفترض أن تُحدث روبوتات الدردشة ثورة في حياتنا من خلال كتابة رسائل البريد الإلكتروني، وكتابة بطاقات عيد الميلاد، ورسائل التهنئة وعبارات التأبين، إلى جانب تبسيط نتائج البحث، وإبقائنا على اتصال مستمر بالمعارف الصحيحة والموثوق بها في مختلف مجالات الحياة.
ومن المسلم به، وكما يقول خبراء الذكاء الاصطناعي، فإن ظهور تقنية الذكاء الاصطناعي في السنوات الأخيرة مثل نقلة نوعية كبيرة في الاتصال الرقمي، وثبت من خلال برامجها العديدة أنها تقنية قوية ذات استخدامات مفيدة للبشرية. في المقابل فإن إمكانات الذكاء الاصطناعي الكبيرة والمثيرة للجدل، جاءت مصحوبة بجدل واسع حوله نتيجة الاختراقات الأخلاقية الضخمة التي تسبب فيها، والتي دفعت الكثير من المراقبين إلي التعبير عن مخاوفهم منه ويطالبون بوقف تطوير برامجه لمدة تصل إلي خمس سنوات يقوم خلالها العالم بوضع قوانين وعهود دولية ملزمة لحدود التعامل معه سواء على مستوى التطوير أو على مستوى الاستخدام، بعد أن ثبت أنه يتم استخدامه على نطاق واسع في تزييف الحقائق والدعاية السوداء كما حدث في التلاعب الذي تم كشفه في فيديوهات حرب غزة، والتي ثبت أنها تندرج ضمن التزييف العميق الذي توفره برامج الذكاء الاصطناعي.
لا يزال محو الأمية في مجال الذكاء الاصطناعي في بداياته، على أساس أنه ما زال يمر بفترة انتقالية تتطلب دائمًا فترة من التكيف البشري معه، وتعليم استخدامها الرشيد للناس. ولذلك أصبح تعليم مهارات التعامل مع برامج وآليات الذكاء الاصطناعي ضرورة عالمية ووطنية خاصة في ظل الخطر الوجودي الذي تمثله تلك البرامج والآليات على البشر، إذا استمر في مساره الحالي المتسارع، الذي قد ينتهي بخروجه عن سيطرة البشر. ويتوقع بعض الخبراء أن يطغى عالم الذكاء الاصطناعي على قدرة البشر خلال عام واحد أو عامين أو خمس سنوات على اكثر تقدير.
وفي تقديري أن نقطة البدء في محو أمية الذكاء الاصطناعي يمكن أن تبدأ بالتركيز على تعلم الكشف عن الصور المزيفة أو لقطات الفيديو التي يتم التلاعب بها باستخدام الذكاء الاصطناعي لنسبة أفعال إباحية لبعض الأشخاص وابتزازهم وهو ما يتفق الجميع على كونها أمرا سيئا يجب إيقافه. وإذا تمكن العالم من التعامل الصارم مع التزييف العميق، فقد تتاح له الفرصة للتصدي للمخاطر التي يفرضها الذكاء الاصطناعي. والواقع أن المدخل المناسب للتعامل مع هذا التزييف الذي تضيع بسببه الحقيقة، ليس ملاحقة المستخدمين النهائيين فقط، وهو ما يحاول الأشخاص الذين يستفيدون ماليًا من وجود التزييف العميق الترويج له، وهم من يجب استهدافهم مع غيرهم ممن يشاركون في صناعة وبناء هذه التكنولوجيا. لا يكفي إذن معاقبة الأشخاص الذين يستخدمون التكنولوجيا الضارة، ويجب أن يشمل العقاب الأشخاص الذين ينتجونها، والذين يوزعونها، والذين يستضيفونها على مواقعهم وتطبيقاتهم.
في مارس من العام الماضي، انتشر مقطع فيديو يظهر الرئيس الأوكراني فلاديمير زيلينسكي، وهو يطلب من شعب أوكرانيا إلقاء أسلحتهم والاستسلام لروسيا. لقد كان التزييف العميق واضحا جدا في مقطع الفيديو الذي استخدم فيه الذكاء الاصطناعي لتبديل الوجوه أو إنتاج نسخة رقمية لصورة شخص ما. ولكن لأن تطورات الذكاء الاصطناعي تجعل من إنتاج فيديوهات التزييف العميق أمرا سهلا، فقد بات اكتشافها بشكل سريع أمرا أكثر أهمية وإلحاحا.
خلاصة القول إن العالم أمام مفترق طرق وخيارات محدودة للغاية في التعامل مع ثورة الذكاء الاصطناعي وخفض خطورتها الواضحة على الدول والمجتمعات، إما أن ينظم هذا المجال بحيث يرشد تطويره ونتائجه أو أن يترك الأمور على ما هي عليه مما قد يؤدي على المدى المتوسط إلي فوضى أخلاقية وطغيان الآلة على البشر. وحتى تصبح برامج محو الأمية في مجال الذكاء الاصطناعي متاحة على المستوى الوطني فإن ما ننصح به هو ألا تثق أبدًا في أن النموذج الذي تستخدمه للإجابة عن أسئلتك والحصول على المعلومات سوف يقدم إجابة صحيحة. فكل ما تقدمه لك حتى الآن كما يقول بعض الخبراء هو «هراء متماسك» يقدمها في لغة تبدو موثوقة ولكنها في الواقع ليست سوى «ثرثرة»، إذا مررت نتائجها إلى الآخرين دون التحقق من صحتها، فقد ينتهي بك الأمر إلى مشاركة أشياء غير صحيحة أو مسيئة.
أ.د. حسني محمد نصر كاتب وأكاديمي مصري
المصدر: لجريدة عمان
كلمات دلالية: الذکاء الاصطناعی التزییف العمیق محو الأمیة التعامل مع على مستوى بین الدول
إقرأ أيضاً:
ميتا: مستخدمو وسائل التواصل الاجتماعي تم إنشاؤهم بواسطة الذكاء الاصطناعي
تراهن شركة Meta على أن الشخصيات التي يتم إنشاؤها بواسطة الذكاء الاصطناعي سوف تملأ منصات التواصل الاجتماعي الخاصة بها في السنوات القليلة المقبلة حيث تتطلع إلى التكنولوجيا سريعة التطور لدفع المشاركة مع مستخدميها البالغ عددهم 3 مليارات مستخدم.
تطرح مجموعة وادي السليكون مجموعة من منتجات الذكاء الاصطناعي، بما في ذلك منتج يساعد المستخدمين على إنشاء شخصيات الذكاء الاصطناعي على Instagram وFacebook، حيث تتنافس مع مجموعات التكنولوجيا المنافسة لجذب جمهور أصغر سنًا والاحتفاظ به.