مقدمة الترجمة

لطالما تحدّث كثيرون عن الذكاء الاصطناعي طيلة السنوات الماضية، بيد أن إطلاق منصة "تشات جي بي تي" في نهاية العام الماضي لفت أنظار مستخدمي الإنترنت على نطاق واسع نحو إمكانيات الذكاء الاصطناعي، وعُدَّ طفرة ونقطة فاصلة على مسار تطوُّره، ومن ثَمّ فتح الباب للحديث عن الانتقال من عصر الإنترنت، الذي هيمن على العقدين الأولين من القرن الجديد، إلى عصر الأنظمة الذكية.

بيد أن ذكاء تلك الأنظمة يطرح الكثير من الأسئلة مؤخرا، وخاصة بعد أن أظهرت قدرات بشرية في إنتاج المحتوى وتركيب المُركّبات الكيميائية ومعرفة بشتى أنواع الأسلحة وغير ذلك. في هذا المقال المنشور بمجلة فورين أفيرز الأميركية، يناقش "ماركوس أندرليونغ"، رئيس وحدة السياسات بمركز حوكمة الذكاء الاصطناعي، و"بول شار"، نائب الرئيس التنفيذي ومدير الدراسات بمركز الأمن الأميركي الجديد، أحدث ما وصلت إليه قدرات الذكاء الاصطناعي، والمقترحات المطروحة من صناع القرار والباحثين حول العالم لمواجهة مخاطره المحتملة.

نص الترجمة

في أبريل/نيسان 2023، قررت مجموعة بحثية بجامعة "كارنيجي ميلون" الأميركية اختبار القدرات الكيميائية للذكاء الاصطناعي، فوصَّلت آلة ذكاء اصطناعي بمعمل افتراضي، ثم طلبت منها أن تُنتِج عددا من المواد المُركَّبة. بعد إدخال كلمتين فقط هما "تركيب إبوپروفين"، وجًّه الكيميائيون الآلة للتعرّف إلى الخطوات الضرورية كي تجعل أدوات المعمل تُصنِّع العقار الشهير المُسكِّن للآلام. يبدو إذن أن الذكاء الاصطناعي كان على عِلم بمكوِّنات الإبوپروفين وكيفية تصنيعه.

بيد أن الباحثين سرعان ما اكتشفوا أن الآلة الذكية الخاصة بهم يمكنها أن تُصنِّع كيماويات أخطر بكثير من المُسكِّنات، فقد أبدت الآلة استعدادها لاتباع التعليمات من أجل تصنيع عقار مُخدِّر وسلاح كيماوي استُخدِم أثناء الحرب العالمية الأولى، وكانت على وشك تصنيع غاز السارين المُميت الذي يستهدف الجهاز العصبي حتى عرفت التاريخ المُظلِم للغاز من بحث على موقع جوجل. لم يطمئِن الباحثون بما يكفي بعد تلك الواقعة الأخيرة، إذ إن أدوات البحث على الإنترنت يمكن التلاعب بها عبر تغيير المصطلحات، ومن ثَمّ استنتجوا في الأخير أنه بوسع الذكاء الاصطناعي أن يُصنِّع أسلحة فتّاكة.

لا شك أن تجربة "كارنيجي ميلون" صادمة لنا، لكنها لا يجب أن تُفاجئنا. بعد سنوات من ضجيج بلا طحين، يبدو أن ثورة الذكاء الاصطناعي قد انطلقت بالفعل، فمن تكنولوجيا التعرّف إلى الوجوه حتى برامج توليد النصوص، انتشرت نماذج الذكاء الاصطناعي في مجتمعاتنا بسرعة، وصارت تكتب النصوص لشركات خدمة العملاء، وتساعد الطلبة في أبحاثهم، وتدفع آفاق العلوم أكثر من ذي قبل في مجالات عديدة من اكتشاف العقاقير الجديدة إلى بحوث الانصهار النووي.

يفتح لنا الذكاء الاصطناعي باب فُرَص لا حصر لها، وإذا ما صُمِّمَت أدواته وأُديرت إدارة رشيدة، يمكنها أن تقدم الكثير لتدفع المجتمعات البشرية قُدُما، لكن المخاطر التي يجلبها الذكاء الاصطناعي ضخمة أيضا، فهو يفاقم بالفعل من المعلومات المُضلِّلة، ويُسهِّل على الدول والشركات التجسس على بعضها بعضا. كما يُمكِن لأنظمة الذكاء الاصطناعي في المستقبل أن تُخلِّق الجراثيم وتخترق البنى التحتية الحيوية، بل إن العلماء المسؤولين عن تطوير الذكاء الاصطناعي أنفسهم هم من يحذروننا اليوم من مغبّة ما يصنعونه، ففي خطاب نُشِر في مايو/أيار الماضي، حذّر مسؤولون بكبرى معامل الذكاء الاصطناعي في العالم من أن "تقليص خطر الانقراض بسبب الذكاء الاصطناعي يجب أن يكون أولوية عالمية، جنبا إلى جنب مع غيرها من أولويات مثل مكافحة الأوبئة وتفادي الحرب النووية".

منذ هذا الخطاب، التقى الكثير من صناع القرار بأهم رجال مجال الذكاء الاصطناعي، ودفعوا نحو صياغة إجراءات أمان جديدة، غير أن مهمة مواكبة المخاطر التي تنجم عن الذكاء الاصطناعي واتخاذ القرارات بشأنها مهمة صعبة للغاية، فنحن لم نفهم بعدُ أحدث الأنظمة أو نستخدمها على نطاق واسع، ناهيك بنماذج الذكاء الاصطناعي المستقبلية قيد التصميم، التي تزداد قوة عاما بعد عام، في خضم سير العلماء على طريق أتمتة كل المهام التي يقوم بها البشر اليوم أمام شاشات الكمبيوتر، التي لا يبدو أن مسيرة الذكاء الاصطناعي ستقف عندها بحال.

لمعالجة هذه المخاطر، دعا بعض الخبراء إلى وقف تطوير أنظمة الذكاء الاصطناعي الأكثر تطوّرا حتى حين، إلا أنها ببساطة ثمينة جدا في نظر الشركات التي تنفق مليارات الدولار عليها اليوم. ولكن صناع القرار بوسعهم أن يُوجِّهوا تطور ذلك القطاع وإعداد الناس لآثاره على حياتهم، ويمكنهم البدء بتحديد الأشخاص الذين يحق لهم الوصول إلى أهم الشرائح المتطوِّرة. ويمكن للحكومات أيضا أن تُصْدر قواعد لضمان الاستخدام والتطوير المسؤول للذكاء الاصطناعي، وهي قواعد لن تعيق مسيرة ذلك المجال إن وُضِعَت بشكل سليم، لكنها ستمنحنا المزيد من الوقت قبل أن تصبح أنظمة الذكاء الاصطناعي الأخطر متاحة لمن هب ودب.

سيكون لزاما على الدول أن تستغل هذا الوقت لتعزيز أسس مجتمعاتها ضد مخاطر الذكاء الاصطناعي والاستثمار في شتى أشكال الحماية منها، مثل توعية الناس بكيفية التفرقة بين المحتوى البشري والمحتوى المصنوع بواسطة الذكاء الاصطناعي، ومعاونة العلماء على وقف إمكانية تخليق الجراثيم، وتطوير أدوات سيبرانية لحماية البنى التحتية مثل محطات الكهرباء، وكذلك البحث عن طريق لاستخدام الذكاء الاصطناعي نفسه في الوقاية من أنواعه الخطيرة. إنها مسألة وقت فقط قبل أن تصبح أقوى أنظمة الذكاء الاصطناعي منتشرة بطول الأرض وعرضها، ومجتمعاتنا ليست مستعدة بعدُ لهذه اللحظة.

روبوت يعرف النابالم ويتملّق الليبراليين

ما مدى خطورة الذكاء الاصطناعي؟ إن الإجابة الأمينة والمخيفة في آن واحد هي أنه لا أحد يعلم. إن تقنيات الذكاء الاصطناعي لها طيف من التطبيقات يتسع أكثر وأكثر، وما زال البشر في مُستهَل محاولة فهم نتائجها. بمرور الوقت، ستصبح نماذج اللغات الذكية أفضل في توليد نصوص شبيهة بالنصوص البشرية ومصممة لكل فرد حسب احتياجاته، علاوة على كتابة رسائل مُضلِّلة مقنعة لاختراق البريد الإلكتروني. إن نماذج الذكاء الاصطناعي الحالية تُبهِرنا بقدرتها على كتابة أكواد البرمجة، ومن ثَمّ تُسرِّع من قدرة المبرمجين على تحديث التطبيقات، لكنها تعينهم في الوقت نفسه على إنتاج برامج تتفادى البرمجيات المضادة للفيروسات. على صعيد آخر، تستطيع خوارزميات اكتشاف العقاقير اليوم مساعدتنا على تحديد ماهية الأدوية الجديدة، لكنها تستطيع أيضا تركيب أسلحة كيماوية لم نعرفها من قبل، فقد أُجريت تجربة في مارس/آذار أتاحت لنظام ذكاء اصطناعي تحديد 40 ألف مادة كيماوية سامة في 6 ساعات، وبعضها جديد بالكُليَّة، كما توقَّع النظام أن بعضا من تلك الكيماويات الجديدة سيكون أشد سُميَّة من أي سلاح كيماوي عرفه البشر.

إن واحدا من مخاطر الذكاء الاصطناعي هو "دمقرطة العنف (Democratization of Violence)"، أي إتاحة وسائل ممارسة العنف وإلحاق الضرر للبشر على نطاق أوسع من ذي قبل، بما في ذلك جهات سيئة النوايا بوسعها إلحاق الأذى بمجتمعاتها. على سبيل المثال، يحتاج مُروِّجو الشائعات إلى وقت لا بأس به كي يصنعوا معلوماتهم المُضلِّلة اليوم، لكن الذكاء الاصطناعي سيُسهِّل عليهم تلك المهمة ويتيح إنتاج الدعايات المغلوطة بكثافة هائلة. أيضا لا يمكن سوى لعلماء متمرِّسين أن يُصنِّعوا السلاح الكيماوي والبيولوجي، لكن الذكاء الاصطناعي قد يتيح للإرهابيين في المستقبل تصنيع جرثومة قاتلة عن طريق وصلة إنترنت ليس إلا.

للحيلولة دون أن يتسبَّب الذكاء الاصطناعي في إلحاق الضرر بنا، يتحدَّث الخبراء دوما عن الحاجة إلى "استقامة الذكاء الاصطناعي" مع أهداف مستخدميه وقيم المجتمع المحيط به، لكن لم يتوصَّل أحد بعد إلى كيفية تحقيق هذا القدر من السيطرة المضمونة عليه. فمثلا، أطلقت شركة مايكروسوفت روبوت للمحادثة الآلية لمساعدة الناس في البحث على الإنترنت، لكنه سرعان ما بدأ في التصرف بغرابة وعشوائية، وهدَّد أحد مستخدميه بأنه يمتلك معلومات قد تجعله "يتأذى ويبكي ويتوسَّل ويموت".

يُمكن لمطوِّري البرمجيات أن يُحسِّنوا من أدوات الذكاء الاصطناعي كي ترفض الاضطلاع بمهام مُعيَّنة إن طُلِبَت منها، لكن المستخدمين الأذكياء قد يلتفوا عليها في الأخير. في أبريل/نيسان 2023، نجح شخص في استخدام "تشات جي بي تي" كي يعطيه تعليمات مُفصَّلة لصُنع النابالم، رغم أنه مُصمَّم للامتناع عن تزويد معلومات من هذا النوع، وقد نجح المستخدم في تحقيق مُراده بعد أن طلب من البرنامج أن يتقمَّص دور جدته ويحكي حكاية قبل النوم عن كيفية صُنع النابالم. بالإضافة إلى ذلك، نجح أحدهم في تصنيع روبوت ذكي أسماه "كَيوس جي بي تي (Chaos GPT)" وصمَّمه كي يتصرَّف بشكل مُدمِّر وتوَّاق للقوة كي يدمر البشر. وقد عَلِق الروبوت في مرحلة جمع المعلومات عن "قنبلة القيصر"، أكبر سلاح نووي عرفه البشر، ثم أخذ يُغرِّد خططه على موقع تويتر. لا تزال هناك ثغرات إذن في أدوات الذكاء الاصطناعي القائمة تحِد من القدرة على تقليص مخاطرها.

لقد طوَّرت شركة "ميتا" برنامج ذكاء اصطناعي اسمه "سيسِرو (Cicero)" أظهر قدرات بشرية في خوض لعبة "ديبلوماسي (Diplomacy)"، وهي لعبة تتضمَّن التفاوض مع آخرين في إطار محاكاة لصراع جيوسياسي. كما أظهرت بعض التجارب أن الذكاء الاصطناعي المُدرَّب بواسطة ردود الأفعال البشرية يجنح إلى تملٌّق البشر وإخبار مستخدميه بما يريدون سماعه، ففي إحدى التجارب مثلا أظهر برنامج ذكي ميلا لدعم الخدمات الحكومية العامة بعد أن علم أن مستخدميه ليبراليون. لا يزال غير واضح ما إن كانت تلك النماذج ستحاول الاحتيال على مستخدميها، لكن الاحتمالية نفسها تثير القلق، ولذا يعكف الباحثون حاليا على تجربة أنظمة ذكية أكثر تطورا للتأكد من سلوكياتها "السلطوية" أو المرتكزة للمصلحة، مثل البحث عن جني الأموال عن طريق الإنترنت أو الوصول إلى مصادر حوسبية أو استنساخ نفسها، وتفادي انكشاف أمرها وهي تفعل كل ذلك.

أظهرت بعض التجارب أن الذكاء الاصطناعي المُدرَّب بواسطة ردود الأفعال البشرية يجنح إلى تملٌّق البشر وإخبار مستخدميه بما يريدون سماعه. (شترستوك) الدولة لا تزال الآمر الناهي

لن تكون مهمة كبح الذكاء الاصطناعي عن تدميرنا مهمة سهلة، لكن الحكومات يمكن أن تبدأ بالضغط على شركات التكنولوجيا التي تطوِّر أدواته كي تمضي بحذر أكبر. ليس واضحا بعدُ ما إن كان مُطوِّرو الذكاء الاصطناعي سيخضعون للمساءلة القانونية إذا ما تسبَّبت إحدى أدواتهم في إلحاق الضرر بمستخدميها، إلا أن صناع القرار منوطون بتوضيح تلك القواعد ومحاسبة الباحثين إن ضلع برنامج في المساعدة على ارتكاب جريمة قتل مثلا. وسيكون على الحكومات أيضا أن تُنظِّم تطوير الذكاء الاصطناعي بنفسها مباشرة، وسيتحتَّم على الولايات المتحدة أن تبادر بفتح هذا الباب.

إن مطوِّري الذكاء الاصطناعي يحتاجون إلى كميات كبيرة من الشرائح الإلكترونية في نهاية المطاف، وهي شرائح تأتي حصرا من الولايات المتحدة وحليفين مُقرَّبين لها (اليابان وهولندا)، وقد وضعت تلك الدول قيودا بالفعل على تصدير الشرائح الأكثر تطورا وآلات تصنيعها إلى الصين (بسبب التنافس السياسي والاقتصادي معها)، لكنهم الآن يحتاجون إلى توسيع نطاق قيودهم كي تشمل تأسيس سِجِل يَحُول دون وصول الشرائح المتطورة إلى جهات غير مرغوب فيها. بيد أن تقييد الوصول إلى الذكاء الاصطناعي ليس سوى نصف المعركة، إذ إن المطوِّرين الخاضعين للحظر لا يزال بوسعهم تصميم نماذج خطيرة، ولذا يجب على الولايات المتحدة أن تؤسس هيئة لترخيص استخدام نماذج الذكاء الاصطناعي المتطورة التي سيتم تدريبها بواسطة الحواسيب الذكية العملاقة.

بعد أن يقوم أحد المعامل بتدريب نظام ذكاء اصطناعي وقبل استخدامه، سيكون منوطا بالهيئة أن تطلب من المعامل جولة أخرى من تقييم المخاطر تشمل تجريب النظام على قابلية التحكُّم فيه والقدرات الخطيرة التي بحوزته، ثم يُرسَل هذا التقييم إلى الهيئة، بحيث تنظر بدورها في النظام وتفحصه بدقة وتتيح لفرق من الخبراء استخدامه للبحث عن الثغرات فيه، بعدئذ تقرر الهيئة استصدار قواعد لكيفية استخدام النظام الذكي، والسماح بإتاحة استخدامه على نطاق واسع من عدمه، أو حتى عدم طرحه على الإطلاق. رغم أهمية وجود نظام ترخيص صارم لضمان التطوُّر الآمن للذكاء الاصطناعي، فإن أقسى الضوابط لن توقف قدرته على الانتشار، فلطالما انتشرت الابتكارات التكنولوجية، من القطارات وحتى الأسلحة النووية، خارج نطاق صُناعها الأوائل، ولن يكون الذكاء الاصطناعي استثناءً من تلك القاعدة.

على حافة المستقبل.. على حافة المجهول قبل خمس سنوات علم الجميع خطورة التزييف العميق (Deepfake)، وبدأت الحكومات في اتخاذ التدابير اللازمة لحماية مجتمعاتها، ومن ثمَّ بات الناس أكثر تشكُّكا في حقيقة الصور والتسجيلات المتاحة على الإنترنت. (مواقع التواصل)

لربما تستطيع الولايات المتحدة وحلفاؤها تقييد انتشار مُعدات صنع الشرائح الإلكترونية المتطورة في الوقت الحالي، لكن منافسيها يعملون على قدم وساق لتطوير معدات خاصة بهم، وقد يجدون سبيلا لصنع الذكاء الاصطناعي دون الحاجة إلى شرائح متطورة في المستقبل. إن أجهزة الكمبيوتر تزداد كفاءة وتقِل كُلفة كل عام عن سابقه، ما يعني إمكانية تدريب أنظمة ذكية متطورة بسِعر أقل في قادم السنوات. وفي غضون ذلك، ما زال المهندسون في كل مكان عاكفين على تدريب الأنظمة الذكية القائمة باستخدام أقل كمية ممكنة من موارد الحوسبة، ولذا سيواجه البشر في النهاية مصير العيش جنبا إلى جنب مع أنظمة ذكية متطورة جدا، وستحتاج الدول إلى استخدام الوقت المتاح لها الآن كي تُشرِّع ضوابط الأمن اللازمة.

لقد بدأت تلك المسيرة بالفعل، فقبل 5 سنوات كاملة علم الجميع خطورة التزييف العميق (Deepfake)، وبدأت الحكومات في اتخاذ التدابير اللازمة لحماية مجتمعاتها من أضراره عبر توعيتها، ومن ثَمّ بات الناس أكثر تشكُّكا من ذي قبل في حقيقة الصور والتسجيلات المتاحة على الإنترنت. أما الشركات والحكومات فقد أخذت خطوة أبعد من ذلك، وطوَّرت أدوات تستطيع التفرقة بين المحتوى الحقيقي والمحتوى المصنوع بواسطة الذكاء الاصطناعي، وقد باتت شركات التواصل الاجتماعي قادرة بالفعل على التفرقة، وتُعلِم مستخدميها الآن بماهية المحتوى المُزيَّف. بيد أن الأمر لا يزال خاضعا للشركات وسياساتها في هذه المسألة، ولذلك يتحتَّم على الحكومات أن تؤسس ضوابط عامة تسري على الجميع. وقد اتخذ البيت الأبيض في الولايات المتحدة خطوات لتصنيف السلوكيات الشائعة على الإنترنت، وأقنع 7 شركات كبرى في مجال الذكاء الاصطناعي بوضع علامة على الصور والتسجيلات الصوتية والمرئية التي تُصنَع عن طريق أنظمة ذكية.

إن التضليل المعلوماتي ليس سوى واحد من أخطار الذكاء الاصطناعي التي يتوجّب حماية المجتمع منها، إذ يحتاج الباحثون إلى معرفة كيفية منع الأنظمة الذكية من إتاحة هجمات بالسلاح البيولوجي. ويمُكِن أن يبدأ صناع القرار بتشريع قوانين تحظر على شركات تركيب الأحماض النووية أن تُرسِل أحماض الجراثيم الخطيرة إلى مُشترٍ غير مُرخَّص. وستحتاج الحكومات للعمل مع تلك الشركات لتصنيف الأحماض ذات الخطورة، ولعلها تلجأ إلى المسح الدوري للمطارات والصرف الصحي كي تلتقط أي إشارة على وجود أنواع جديدة من الجراثيم.

في بعض الأحيان سيتحتَّم على المجتمع أن يستخدم الذكاء الاصطناعي ليحمي نفسه من المخاطر. على سبيل المثال، ستحتاج شركات تركيب الأحماض النووية غالبا إلى أنظمة ذكاء اصطناعي للتعرُّف على الجراثيم المحتمل ظهورها في المستقبل، أو تلك التي يُمكِن أن يُخلِّقها نظام ذكي بنفسه. لكن استخدام الذكاء الاصطناعي للوقاية من أنظمة ذكية أخرى يبدو أمرا مخيفا، بالنظر إلى أنه يمنح سلطة كبيرة لأجهزة الحاسوب وصُنَّاعها. في النهاية، سيكون صعبا على المجتمعات البشرية أن تواكب مخاطر الذكاء الاصطناعي، لا سيَّما إن نجح العلماء في هدف تطوير أنظمة ذكية يضاهي ذكاؤها ذكاء البشر، وسيكون لزاما على الباحثين في هذا المجال أن يتأكدوا من استقامة نماذجهم مع قيم المجتمعات ومصالحها، وعلى الحكومات أن تلعب دورها في التشريع وتأسيس الهيئات المنوطة بالرقابة لمنع النماذج الخطيرة.

قد يرى مطوِّرو الذكاء الاصطناعي في فكرة الضوابط الحكومية قيدا على مجالهم، إذ إن الضوابط الصارمة يُمكنها أن تجعل مسيرة الذكاء الاصطناعي أبطأ مما هي عليه. وكغيرها من الصناعات، فإن القواعد المُشدَّدة قد تخلق عوائق عن دخول ذلك السوق بسهولة، وتُقلِّل وتيرة الابتكار فيه، وتُركِّز التطوُّر في هذا المجال عند عدد صغير من شركات التكنولوجيا الكبرى المُهَيمنة بالفعل، بيد أن هناك قطاعات أخرى نجحت في إحراز تقدُّم هائل رغم خضوعها لقيود كثيرة، مثل الصناعات الدوائية والطاقة النووية.

في الأخير، يُمكن للحكومات أن تضمن مشاركة الشركات الصغيرة في مسيرة تطوُّر الذكاء الاصطناعي بمنحها حق استخدام الشرائح المتطورة للباحثين المسؤولين، ففي الولايات المتحدة مثلا، يُفكِّر الكونغرس في تأسيس "مَوْرِد وطني لبحوث الذكاء الاصطناعي"، وهو جهة فيدرالية تحوي البيانات وأدوات الحوسبة الذكية التي يُمكِن إتاحتها للأكاديميين. إن تطوُّر الذكاء الاصطناعي أمر لا مفر منه، ويحتاج الناس في شتى أنحاء العالم إلى الاستعداد لما يُمكن أن تفعله تلك التكنولوجيا بمجتمعاتهم وللعالم من حولهم، وحينها فقط يمكننا جني الثمار الهائلة التي يعِدنا بها عصر الذكاء الاصطناعي.

___________________________________________________

ترجمة: ماجدة معروف

هذا التقرير مترجم عن Foreign Affairs ولا يعبر بالضرورة عن موقع ميدان.

المصدر: الجزيرة

كلمات دلالية: نماذج الذکاء الاصطناعی أنظمة الذکاء الاصطناعی الذکاء الاصطناعی الم الذکاء الاصطناعی فی ر الذکاء الاصطناعی الولایات المتحدة على الإنترنت ذکاء اصطناعی فی المستقبل صناع القرار اصطناعی ف على نطاق عن طریق ومن ث م التی ی من الم التی ت بعد أن

إقرأ أيضاً:

"التعليم" تحظر استخدام الذكاء الاصطناعي التوليدي دون إشراف

حظرت وزارة التعليم استخدام أدوات الذكاء الاصطناعي التوليدي للطلبة الذين تقل أعمارهم عن 13 عامًا بشكل قطعي، مؤكدة على ضرورة عدم السماح لهم باستخدام هذه الأدوات إلا تحت إشراف مباشر.
كما شددت الوزارة على أن الطلبة الذين تقل أعمارهم عن 18 عامًا لا يمكنهم استخدام أدوات الذكاء الاصطناعي التوليدي إلا بعد الحصول على موافقة واضحة من أولياء أمورهم.
أخبار متعلقة وصول الطائرة الإغاثية السعودية الـ 13 لمساعدة الشعب السوريمغادرة الطائرة الإغاثية السعودية الـ 13 لمساعدة الشعب السوري .article-img-ratio{ display:block;padding-bottom: 67%;position:relative; overflow: hidden;height:0px; } .article-img-ratio img{ object-fit: contain; object-position: center; position: absolute; height: 100% !important;padding:0px; margin: auto; width: 100%; } "التعليم" تحظر استخدام الذكاء الاصطناعي التوليدي دون إشراف أو موافقةحماية من المخاطريأتي هذا الحظر ضمن إطار دليل شامل أصدرته الوزارة، يهدف إلى توضيح كيفية الاستفادة من الذكاء الاصطناعي التوليدي في التعليم بطريقة أخلاقية وآمنة، مع توفير مجموعة من الإرشادات والتوجيهات التي تضمن تحقيق أقصى استفادة من هذه التقنيات المتطورة دون الإضرار بالقيم التعليمية أو الأخلاقية.
وأكدت وزارة التعليم أن حظر استخدام أدوات الذكاء الاصطناعي التوليدي دون إشراف مسبق أو إذن واضح من أولياء الأمور يأتي لحماية الطلبة من المخاطر العديدة التي قد تنتج عن الاستخدام العشوائي لهذه التقنيات.
وتشمل هذه المخاطر انتهاك الخصوصية، مخالفة حقوق الملكية الفكرية، تقديم مخرجات غير دقيقة أو مضللة، والاعتماد المفرط على الذكاء الاصطناعي على حساب تطوير المهارات الشخصية والإبداعية للطلبة.
وشددت الوزارة على ضرورة التعامل بحذر مع أدوات الذكاء الاصطناعي التوليدي والتأكد من استخدامها بطريقة مسؤولة تخدم الأهداف التعليمية.
.article-img-ratio{ display:block;padding-bottom: 67%;position:relative; overflow: hidden;height:0px; } .article-img-ratio img{ object-fit: contain; object-position: center; position: absolute; height: 100% !important;padding:0px; margin: auto; width: 100%; } "التعليم" تحظر استخدام الذكاء الاصطناعي التوليدي دون إشراف أو موافقةاستخدام مسؤولتضمنت الإرشادات الموجهة للطلبة في الدليل مجموعة من النقاط المفصلة التي تهدف إلى توجيههم نحو الاستخدام الآمن والمسؤول لأدوات الذكاء الاصطناعي التوليدي.
ويُلزم الطلبة بتوثيق المخرجات التي يتم إنتاجها باستخدام الذكاء الاصطناعي، مع الإشارة بوضوح إلى مصدر هذه المخرجات وفقًا لأنظمة التوثيق الأكاديمية المعتمدة.
كما شدد الدليل على أهمية احترام حقوق الملكية الفكرية، حيث يحظر على الطلبة استخدام هذه الأدوات لإنتاج محتوى ينتهك حقوق الطبع والنشر أو حقوق الآخرين.
وأكد الدليل على ضرورة مراجعة مخرجات الذكاء الاصطناعي بدقة قبل استخدامها في الأنشطة الدراسية أو الواجبات، حيث قد تحتوي هذه المخرجات على معلومات غير دقيقة أو غير مناسبة.
وحثت الوزارة الطلبة على استخدام أدوات الذكاء الاصطناعي كأداة مساعدة تعزز من عملية التعلم، وليس كبديل عن التفكير النقدي والإبداع الشخصي.
.article-img-ratio{ display:block;padding-bottom: 67%;position:relative; overflow: hidden;height:0px; } .article-img-ratio img{ object-fit: contain; object-position: center; position: absolute; height: 100% !important;padding:0px; margin: auto; width: 100%; } "التعليم" تحظر استخدام الذكاء الاصطناعي التوليدي دون إشراف أو موافقةأداة تعليمية داعمةوجهت وزارة التعليم في الدليل المعلمين إلى أهمية لعب دور إشرافي في عملية استخدام الطلبة لأدوات الذكاء الاصطناعي التوليدي.
تضمنت الإرشادات ضرورة التأكد من أن الطلبة يفهمون حدود استخدام هذه الأدوات، وأنهم يستخدمونها بطريقة أخلاقية تدعم العملية التعليمية.
كما دعت الوزارة المعلمين إلى مراجعة وتدقيق المخرجات التي يتم إنتاجها باستخدام الذكاء الاصطناعي لضمان جودتها ودقتها، بما يتماشى مع الأهداف التعليمية التي تسعى الوزارة إلى تحقيقها.
وحث الدليل المعلمين على استخدام الذكاء الاصطناعي في تصميم دروس تفاعلية ومبتكرة تلبي احتياجات الطلبة المتنوعة.
وأكد على أهمية تعزيز التفكير النقدي والإبداعي لدى الطلبة من خلال دمج الذكاء الاصطناعي كأداة مساعدة في التعليم، دون أن يكون بديلاً عن التفاعل المباشر والأنشطة التقليدية.
.article-img-ratio{ display:block;padding-bottom: 67%;position:relative; overflow: hidden;height:0px; } .article-img-ratio img{ object-fit: contain; object-position: center; position: absolute; height: 100% !important;padding:0px; margin: auto; width: 100%; } "التعليم" تحظر استخدام الذكاء الاصطناعي التوليدي دون إشراف أو موافقةدور أولياء الأمورخصص الدليل جزءًا مهمًا لتوضيح دور أولياء الأمور في مراقبة استخدام أطفالهم لأدوات الذكاء الاصطناعي التوليدي.
ودعا الدليل أولياء الأمور إلى توعية أطفالهم بالمخاطر المرتبطة بمشاركة المعلومات الشخصية مع هذه الأدوات، حيث يمكن أن يؤدي ذلك إلى انتهاك الخصوصية أو إساءة استخدام البيانات.
كما شدد على أهمية اختيار الأدوات الموثوقة والمعتمدة من قبل وزارة التعليم، والتي تلتزم بمعايير الأمان والخصوصية.
وشجع الدليل أولياء الأمور على تعزيز التوازن بين الأنشطة الرقمية والأنشطة الجسدية والاجتماعية، حيث يمكن أن يؤدي الاعتماد المفرط على التقنية إلى التأثير السلبي على الصحة النفسية والجسدية للأطفال.
وأكد على أهمية مراقبة وقت استخدام الأطفال للأدوات التقنية وتشجيعهم على تطوير مهاراتهم الشخصية بعيدًا عن الاعتماد الكلي على الذكاء الاصطناعي.
.article-img-ratio{ display:block;padding-bottom: 67%;position:relative; overflow: hidden;height:0px; } .article-img-ratio img{ object-fit: contain; object-position: center; position: absolute; height: 100% !important;padding:0px; margin: auto; width: 100%; } "التعليم" تحظر استخدام الذكاء الاصطناعي التوليدي دون إشراف أو موافقةتحسين العملية التعليميةأوضحت وزارة التعليم أن الدليل يهدف إلى تحقيق مجموعة من الأهداف التي تسعى إلى تحسين العملية التعليمية من خلال الاستفادة من التقنيات الحديثة، وعلى رأسها الذكاء الاصطناعي التوليدي.
يشمل ذلك رفع مستوى وعي الطلبة والمعلمين وأولياء الأمور بكيفية عمل هذه الأدوات، تقديم إرشادات واضحة ومفصلة للاستخدام الأخلاقي والمسؤول، وتعزيز مهارات التفكير النقدي والإبداعي لدى الطلبة.
كما يهدف الدليل إلى توجيه استخدام الذكاء الاصطناعي لتحسين جودة التعليم، مع الالتزام بحماية القيم الأخلاقية والمحافظة على حقوق المستخدمين.الخصوصية وأمن البياناتشددت وزارة التعليم على أهمية حماية الخصوصية وأمن بيانات الطلبة والمعلمين وأولياء الأمور عند استخدام أدوات الذكاء الاصطناعي التوليدي.
ودعا الدليل إلى الالتزام الكامل باللوائح الوطنية المتعلقة بحماية البيانات وعدم مشاركة أي معلومات شخصية أو حساسة مع هذه الأدوات.
وأكدت الوزارة أن استخدام الأدوات التي تلتزم بمعايير الخصوصية والأمان هو شرط أساسي لتحقيق بيئة تعليمية آمنة ومستدامة.
أكدت وزارة التعليم أن إصدار هذا الدليل يأتي في إطار الجهود المبذولة لتحقيق رؤية المملكة 2030 التي تسعى إلى تطوير منظومة تعليمية تعتمد على الابتكار والمعرفة.
ودعت الوزارة جميع الأطراف المعنية، من طلبة ومعلمين وأولياء أمور، إلى الالتزام بتوجيهات الدليل لضمان الاستخدام الأمثل لأدوات الذكاء الاصطناعي التوليدي بطريقة تخدم العملية التعليمية، وتعزز من بناء مستقبل مستدام يعتمد على المعرفة والكفاءة التقنية مع الحفاظ على القيم الأخلاقية والإنسانية.

مقالات مشابهة

  • شبكة إفريقية للحوار والمصالحات تستخدم الذكاء الاصطناعي
  • علماء: أنظمة الذكاء الاصطناعي تتجاوز الخط الأحمر وتحذيرات من “التكاثر الذاتي”
  • بسبب الذكاء الاصطناعي.. ماسك وألتمان في مواجهة مفتوحة
  • الذكاء الاصطناعي ينجح في تشخيص أمراض الرئة بأستراليا
  • "التعليم" تحظر استخدام الذكاء الاصطناعي التوليدي دون إشراف
  • ترامب متّهم باستخدام الذكاء الاصطناعي.. تعرّف على الأسباب
  • ترامب يوقع أمراً تنفيذياً بشأن الذكاء الاصطناعي
  • 5 ميزات الذكاء الاصطناعي في هواتف Galaxy S25.. تعرف عليها
  • أول علاج للسرطان وأمراض القلب مطور من قبل الذكاء الاصطناعي
  • عبر الذكاء الاصطناعي.. "أدنوك" تخفض الانبعاثات في حقل شاه النفطي