محمد بن زاهر العبري

 

لا شك أنَّ البشرية بشتى قطاعاتها عن قريب مُقبلة على تغيير هائل في أنماط تعاطي المعارف المتنوعة من خلال استخدام الذكاء الاصطناعي الذي يعد بثورة كُبرى في النمو المعرفي البشري، فمن إعداد الدراسات البحثية إلى فرز محتوى المؤتمرات العالمية والمنتديات الثقافية إلى رفد سيناريوهات جيوسياسية وأفلام وثائقية، مرورًا بتغيير أنماط خُطب الجمعة وأساليب الإلقاء وتقديم المحادثات المقنعة القائمة على البرهنة والتفكير الناقد، إلى ابتكار قصص للأطفال وتبسيط المعارف الفلسفية والفيزيائية لمرحلة ما قبل المدرسة، إلى عرض النظريات في الكوانتا والانطولوجيا لأطفال الابتدائية، وهكذا لن يبقى حقل معرفي إلا وسيجري عليه الذكاء الاصطناعي قلمه، الأمر الذي لا محيص عن قبوله.

لكن الهاجس المقلق هو كيف يمكن الانتقال الآمن إلى هذا العالم والاستفادة القصوى منه، وتنظيم التعامل معه خصوصا على مستوى الأطفال بحيث يتم استخدامه طبق الإرشاد التربوي لتعزيز النمو الثقافي والمعرفي؟

يقترح الخبراء النقاط التالية:

ستظل الأسرة المسؤول الأول والأخير عن كيفية ارتياد الطفل لعوالم الذكاء الاصطناعي، ويلعب حوار الأم والأب مع الأطفال حول مواقع التواصل الاجتماعي والذكاء الاصطناعي الدور الأكبر في تأسيس منطلقات ودوافع اقتحام هذه العوالم لدى الأطفال. ومن الجيد أن تكون بين الأم وعيالها جلسة لارتياد أحد برامج الذكاء الاصطناعي لأجل تصميم حديقة مثلا أو منزل الأحلام، أو إعداد موضوع قد يكون مطلوبا معرفته خلال الفصول الدراسية. وهذا يؤسس في الأطفال "توجهًا ذكيًا" لاستخدام برامج الذكاء الاصطناعي. المدارس من جانبها- مستقبلًا- من المتوقع أن يشهد الذكاء الاصطناعي حضورًا في أنشطتها وبرامجها بشكل مكثف، وهذا يتطلب من طواقم التدريس الاستعداد للانتقال إلى مرحلة ما بعد الكتاب المدرسي، ومن المُفارقات أن نرى أن كتاب "المهارات الحياتية" الصادر عن وزارة التربية والتعليم في بعض المراحل الدراسية يتناول كيفية الاستحمام بالماء والصابون، في حين أن ذات المادة في بعض البلدان تطلب من الطلبة إعداد جدوى الموانئ في اقتصاديات البلدان عبر استخدام نطاق الذكاء الاصطناعي. الحديث عن المخاطر التي قد تنشأ من استخدام الذكاء الاصطناعي والتحديات التي تحف بهذا الاستخدام لا ينبغي أن يخلو منه بيت أو مدرسة. وقد يجد الأطفال في ذلك تحديًا لثقافتهم وتراثهم ودينهم، كل ذلك يتطلب تدخل الخبراء في مرحلة مبكرة من إقبال الأطفال على هذه البرمجيات.   سوف تلعب هذه البرمجيات خلال المرحلة المقبلة دورًا في تقديم الدعم النفسي والذهني للصغار، وسيكون بالإمكان استخدامها في معالجة التنمُّر، والتحرش الجنسي، وفرط الحركة، وحب الانزواء، وعدم القدرة على التفاعل مع الآخرين، لذا من الضروري معرفة كيف يمكن استخدام برمجيات الذكاء الاصطناعي لدعم فئات من هذا النمط من الأطفال.

قد يتطلب الانخراط في هذه المساقات تنشيط البؤر الثقافية الاجتماعية بالتعاون الوثيق مع وزارة التربية والتعليم للتواجد في المرحلة العصرية؛ إذ لا زلنا لا نشهد ندوات ثقافية تتناول مستقبل التعليم والتربية على ضوء التقدم العلمي الهائل في تبسيط المعرفة، كما لا زلنا في توقٍ لمعرفة مناهجها وخططها لتدشين عملية التعليم التفاعلي مع هذه البرمجيات.

المصدر: جريدة الرؤية العمانية

إقرأ أيضاً:

كيف أدى مشروع قانون الذكاء الاصطناعي بكاليفورنيا إلى الانقسام في وادي السيليكون؟

الاقتصاد نيوز - متابعة

أحدثت محاولة ولاية كاليفورنيا الأميركية من خلال مشروع قانون جديد لتنظيم الذكاء الاصطناعي انقساماً في وادي السيليكون، حيث حذر المعارضون من أن الإطار القانوني قد يقوض المنافسة ومكانة أميركا كرائدة عالمية في التكنولوجيا.

بعد خوض معركة شرسة لتعديل أو تخفيف مشروع القانون أثناء مروره عبر الهيئة التشريعية في كاليفورنيا، ينتظر المسؤولون التنفيذيون في شركات، بما في ذلك OpenAI وMeta، بفارغ الصبر لمعرفة ما إذا كان حاكم الولاية الديمقراطي، جافين نيوسوم، سيوقع عليه ليصبح قانوناً، مع  فرصة لديه حتى 30 أيلول لاتخاذ القرار.

تعد كاليفورنيا قلب صناعة الذكاء الاصطناعي الناشئة، وفي غياب قانون فدرالي لتنظيم التكنولوجيا في جميع أنحاء الولايات المتحدة - بالإضافة إلى عدم وجود معيار عالمي موحد - فإن عواقب ما يحدث ستمتد إلى ما هو أبعد من الولاية، بحسب صحيفة فايننشال تايمز البريطانية.

قال الأستاذ في جامعة مونتريال والمعروف بـ "عراب" الذكاء الاصطناعي، يوشوا بينغيو، للصحيفة: "من المؤكد أن بقية العالم يولي اهتماماً وثيقاً لما يحدث في كاليفورنيا والولايات المتحدة على نطاق أوسع الآن، ومن المرجح أن تكون للنتيجة هناك تداعيات على الجهود التنظيمية للدول الأخرى". 

لماذا تريد كاليفورنيا تنظيم الذكاء الاصطناعي؟

أدى التطور السريع لأدوات الذكاء الاصطناعي التي يمكنها توليد ردود شبيهة بالإجابات البشرية عن للأسئلة إلى تضخيم المخاطر المتصورة حول التكنولوجيا، بدءاً من النزاعات القانونية مثل انتهاك حقوق النشر إلى المعلومات المضللة وانتشار التزييف العميق. يعتقد البعض حتى أن الذكاء الاصطناعي قد يشكل تهديداً للإنسانية.

 

أصدر الرئيس الأميركي جو بايدن أمراً تنفيذياً العام الماضي يهدف إلى وضع معايير وطنية لسلامة الذكاء الاصطناعي، لكن الكونغرس الأميركي لم يحرز أي تقدم في تمرير القوانين على مستوى البلاد.

غالباً ما سبقت كاليفورنيا الليبرالية إلى تنظيم القضايا التي تأخرت فيها الحكومة الفدرالية. أصبح الذكاء الاصطناعي الآن في بؤرة الاهتمام مع "قانون كاليفورنيا للابتكار الآمن والمضمون لأنظمة الذكاء الاصطناعي الرائدة"، والذي طرحه السناتور سكوت وينر. 

من بين مشروعات القوانين المختلفة المقدمة في ولايات مختلفة، فإن مشروع القانون في كاليفورنيا هو الأكثر احتمالاً لإحداث تأثير حقيقي، حيث تقع الولاية في قلب طفرة الذكاء الاصطناعي، وهي موطن لشركات كبرى بما في ذلك OpenAI، وAnthropic، وMeta، وGoogle.

ماذا يقول مشروع القانون؟

قال سكوت وينر إن مشروع القانون الخاص به "يتطلب فقط من أكبر مطوري الذكاء الاصطناعي القيام بما تعهد به كل واحد منهم مراراً وتكراراً: إجراء اختبارات السلامة الأساسية على نماذج الذكاء الاصطناعي القوية للغاية".

سيتطلب مشروع القانون من المطورين الذين يقومون ببناء نماذج كبيرة تقييم ما إذا كانوا "قادرين بشكل معقول على التسبب في ضرر بالغ أو تمكينه (الضرر)"، بدءاً من الاستخدام الخبيث أو السرقة إلى إنشاء سلاح بيولوجي. ومن المتوقع بعد ذلك أن تتخذ الشركات ضمانات معقولة ضد تلك المخاطر المحددة.

سيتعين على المطورين بناء "مفتاح لإيقاف التشغيل" في أي نماذج جديدة تزيد عن حجم معين في حالة إساءة استخدامها أو خروجها عن السيطرة. كما سيُلزمون بصياغة تقرير السلامة قبل تدريب نموذج جديد، وأن يكونوا أكثر شفافية، حيث سيتعين عليهم "الإبلاغ عن كل حادثة تتعلق بسلامة الذكاء الاصطناعي" إلى المدعي العام للولاية وإجراء تدقيق من طرف ثالث لضمان الامتثال كل عام.

مشروع القانون موجه إلى النماذج التي تكلف أكثر من 100 مليون دولار للتدريب، وهو المبلغ المطلوب تقريباً لتدريب أفضل النماذج اليوم. لكن هذا هدف سريع الحركة حيث توقع الرئيس التنفيذي لشركة Anthropic، داريو أمودي، أن المجموعة التالية من النماذج المتطورة ستكلف مليار دولار للتدريب، و10 مليارات دولار بحلول عام 2026.

قال بينغيو إن مشروع القانون سينطبق على جميع الشركات التي تعمل في كاليفورنيا، بغض النظر عن مكان وجودها، وهو ما سيغطي فعلياً كل شركة قادرة حالياً على تطوير أفضل نماذج الذكاء الاصطناعي.

من شأن مشروع القانون أن يقدم عقوبات مدنية تصل إلى 10% من تكلفة تدريب النموذج، ضد المطورين الذين تسبب أدواتهم في الوفاة أو السرقة أو الإضرار بالممتلكات. كما سيخلق التزامات على الشركات التي تقدم موارد الحوسبة لتدريب تلك النماذج وشركات التدقيق، مما يجعلها مسؤولة عن جمع المعلومات التفصيلية حول هويات العملاء ونواياهم والاحتفاظ بها. وقد يؤدي الفشل في القيام بذلك إلى غرامات تصل إلى 10 ملايين دولار.

من يؤيد مشروع القانون ومن يعارضه؟

يقول وينر وزملاؤه إن هناك دعماً عاماً قوياً لقواعد الذكاء الاصطناعي الجديدة. كما حصل على دعم مؤهل من شركة الذكاء الاصطناعي الرائدة Anthropic، وإيلون ماسك، بالإضافة إلى نقابة ممثلي الشاشة "SAG-AFTRA"، ومجموعتين نسائيتين. يوم الاثنين التاسع من سبتمبر/ أيلول، وقع 100 موظف في شركات الذكاء الاصطناعي الكبرى بما في ذلك OpenAI، وxAI، وGoogle DeepMind على خطاب يدعو نيوسوم إلى التوقيع على مشروع القانون.

وكتبوا: "من الممكن والمناسب لشركات الذكاء الاصطناعي الرائدة أن تختبر ما إذا كانت أقوى نماذج الذكاء الاصطناعي قادرة على التسبب في أضرار جسيمة، وأن تنفذ هذه الشركات ضمانات معقولة ضد مثل هذه المخاطر".

 

يزعم المنتقدون - بما في ذلك الأكاديميون مثل أستاذ الذكاء الاصطناعي في جامعة ستانفورد، فاي فاي لي، وشركة رأس المال الاستثماري Andreessen Horowitz، ومسرع الشركات الناشئة Y Combinator - أن مشروع القانون من شأنه أن يعيق الشركات في المراحل المبكرة، ومطوري البرامج مفتوحة المصدر الذين يتشاركون علناً الكود الأساسي لنماذجهم.

حذر كبير مسؤولي الاستراتيجية في شركة OpenAI، جيسون كوون، في رسالة إلى وينر الشهر الماضي، من أن مشروع القانون من شأنه أن "يبطئ وتيرة الابتكار، ويدفع المهندسين ورجال الأعمال من الطراز العالمي في كاليفورنيا إلى مغادرة الولاية بحثاً عن فرص أكبر في أماكن أخرى". وردد إحدى الشكاوى الأكثر شيوعاً: "أن وينر يتدخل في مجال يجب التعامل معه على المستوى الفدرالي".

ويقول المعارضون أيضاً إنه سيخنق الابتكار من خلال تكديس المتطلبات الشاقة على المطورين وجعلهم مسؤولين عن استخدام الجهات الفاعلة السيئة لنماذج الذكاء الاصطناعي الخاصة بهم. ويضيفون أنه يشرع للمخاطر التي لا وجود لها بعد.

قال مدير الأبحاث في IBM، داريو غيل: "من الناحية الفلسفية، فإن توقع عواقب كيفية استخدام الناس لكودك في البرنامج يمثل مشكلة صعبة للغاية. كيف سيستخدمه الناس، وكيف تتوقع أن يتسبب شخص ما في ضرر؟ إنه مثبط كبير".

وقال مدير مركز سلامة الذكاء الاصطناعي، الذي لعب دوراً حاسماً في صياغة مشروع القانون، دان هندريكس: إن المعارضين "يريدون من الحكومات أن تمنحهم شيكاً مفتوحاً لبناء ونشر أي تقنيات يريدونها، بغض النظر عن المخاطر أو الأذى الذي قد يلحق بالمجتمع".

تعرض هندريكس، الذي يعمل أيضاً كمستشار لشركة xAI التابعة لإيلون ماسك، لانتقادات من المعارضين للقانون الذين وصفوا مركزه بأنها منظمة هامشية مهتمة بشكل مفرط بالمخاطر الوجودية من الذكاء الاصطناعي. 

كما أعرب المعارضون عن مخاوفهم من ممارسة هذا المركز ضغوطاً من أجل التأثير على "مجلس نماذج الحدود" الذي سينشئه مشروع القانون، والذي يضم تسعة مديرين من الصناعة والأوساط الأكاديمية ومكلفين بتحديث اللوائح حول نماذج الذكاء الاصطناعي وضمان الامتثال.

رفض وينر هذه الحجج باعتبارها "نظرية مؤامرة". وقال: "حاولت المعارضة تصوير أي شخص يدعم مشروع القانون على أنه متشائم. قالوا إن هذه مخاطر خيال علمي؛ وأننا نركز على فيلم Terminator. نحن لسنا كذلك، نحن نركز على مخاطر حقيقية للغاية مثل إغلاق الشبكة الكهربائية، أو النظام المصرفي، أو إنشاء سلاح كيميائي أو بيولوجي".

كيف حاول مؤلفو مشروع القانون معالجة المخاوف؟

قال وينر إنه وفريقه أمضوا الأشهر الثمانية عشر الماضية في التواصل مع أي شخص يرغب في الاجتماع معهم لمناقشة مشروع القانون، بما في ذلك فاي فاي لي، والشركاء في Andreessen وY Combinator.

كان أحد مخاوفهم هو أن مطالبة النماذج مفتوحة المصدر بمفتاح إيقاف التشغيل من شأنه أن يمنع المطورين الآخرين من تعديلها أو البناء عليها خوفاً من إيقاف تشغيلها في أي لحظة. قد يكون هذا قاتلاً للشركات الناشئة والأوساط الأكاديمية، التي تعتمد على نماذج مفتوحة المصدر أرخص أو مجانية الوصول.

تم تعديل مشروع قانون وينر لاستبعاد النماذج مفتوحة المصدر التي تم ضبطها بدقة تتجاوز مستوى معيناً من قبل أطراف ثالثة. فلن يُطلب منها توفير مفتاح إيقاف التشغيل.

كما تم تعديل بعض القيود الأصلية لمشروع القانون، بما في ذلك تضييق نطاق العقوبات المدنية، والحد من عدد النماذج التي تغطيها القواعد الجديدة.

هل يصبح مشروع القانون تشريعاً رسمياً؟

مر مشروع القانون بسهولة في الهيئة التشريعية للولاية. الآن يتعين على نيوسوم أن يقرر ما إذا كان سيوقع على مشروع القانون، أو يسمح له بأن يصبح قانوناً بدون توقيعه أو يعترض عليه. إذا اعترض، يمكن للهيئة التشريعية في كاليفورنيا تجاوز ذلك بتصويت أغلبية الثلثين. ولكن وفقاً لمتحدث باسم وينر، لا توجد فرصة تقريباً لحدوث ذلك. كانت آخر مرة تم فيها إبطال حق النقض لحاكم كاليفورنيا في عام 1980.

يواجه الحاكم موقفاً صعباً، نظراً لأهمية صناعة التكنولوجيا بالنسبة لولايته. لكن السماح للذكاء الاصطناعي بالنمو دون رادع قد يكون أكثر إشكالية.

قال وينر: "أود أن يصبح هذا تشريعاً فدرالياً: إذا تحرك الكونغرس في هذا المجال وأقر مشروع قانون قوي لسلامة الذكاء الاصطناعي، فسأكون سعيداً بحزم أمتعتي والعودة إلى المنزل". 

وأضاف: "لكن الحقيقة المحزنة هي أنه في حين حقق الكونغرس نجاحاً كبيراً في الرعاية الصحية والبنية الأساسية والمناخ، إلا أنه واجه صعوبة كبيرة في تنظيم التكنولوجيا... حتى يتحرك الكونغرس، فإن كاليفورنيا ملزمة بالقيادة لأننا قلب صناعة التكنولوجيا".

مقالات مشابهة

  • الذكاء الاصطناعي.. أداة يحبها ترامب وتتجنبها هاريس
  • مسلسل «برغم القانون».. الـذكاء الاصطناعي يسيطر على تتر العمل
  • بعد نجاح ألبومها.. أنغام تهاجم الذكاء الاصطناعي
  • كيف تستفيد الخدمات المالية من الذكاء الاصطناعي؟
  • جوجل تطلق ميزة جديدة: بودكاستات الذكاء الاصطناعي من ملاحظاتك البحثية!
  • كيف أدى مشروع قانون الذكاء الاصطناعي بكاليفورنيا إلى الانقسام في وادي السيليكون؟
  • هل ينجح الذكاء الاصطناعي في توقّع الزلازل؟
  • في عصر الذكاء الاصطناعي .. أهمية الحلول المحلية لحماية البيانات
  • استخدام الذكاء الاصطناعي من جوجل لمعالجة البطالة
  • كومبيوترات محمولة للطلاب تدعم تقنيات الذكاء الاصطناعي وهذه أسعارها ومواصفاتها بالسعودية