كيف يمكن للعالم أن يحد من مخاطر الذكاء الاصطناعي؟
تاريخ النشر: 22nd, December 2024 GMT
يحتاج الذكاء الاصطناعي إلى تنظيم وحوكمة وتشريعات قانونية في ظل التطورات المتلاحقة التي تثير الكثير من المخاوف، وذلك للحفاظ على التوازن بين الابتكار التكنولوجي والأمن، وفقا للكاتب علي أوغوز ديريوز في مقال نشرته صحيفة "إندبندنت" بنسختها التركية.
وقال الكاتب، وهو أستاذ مشارك بجامعة توب للاقتصاد والتكنولوجيا في أنقرة، إن هناك بالفعل جهودا دولية من أجل سن تشريعات تضبط استخدام الذكاء الاصطناعي تضع له أطرا قانونية، حيث يركز الاتحاد الأوروبي حاليا على إدارة المخاطر الناتجة عن الذكاء الاصطناعي، في حين شرعت الهند بصياغة تدابير تنظيمية أكثر صرامة، لكنه يرى أن تجنب الآثار السلبية يحتاج إلى جهود إضافية وتعاون دولي أوسع.
وأوضح أن تلك الجهود يجب أن تشمل تنظيم العملات المشفرة والأصول الرقمية، لأن مخاطرها تتجاوز الاعتبارات الأمنية وتمسّ سيادة الدول، معتبرا أن جمع الضرائب وإصدار العملات النقدية يجب أن يبقى حكرا على الحكومات.
وحسب رأيه، فإن الجهود التنظيمية في مجال العملات المشفرة يجب أن تركز على مكافحة غسل الأموال وتمويل الأنشطة الإجرامية وعمليات الاحتيال المالي، خاصة أن البورصات غير المنظمة للعملات الرقمية قد تهدد استقرار الأسواق والاقتصادات الوطنية.
إعلان
إجراءات تنظيمية أكثر صرامة
أضاف الكاتب أنه رغم قدرة التكنولوجيا على تسهيل حياتنا اليومية وزيادة كفاءة أعمالنا، فإنها تشكّل تهديدا على مستقبل بعض الوظائف.
وفي هذا السياق، أقر الاتحاد الأوروبي قانونا جديدا للذكاء الاصطناعي يعتمد على تقييم المخاطر، ويفرض قواعد صارمة لمجابهتها، كما يحظر بعض أنظمة الذكاء الاصطناعي التي تُصنَّف بأنها ذات مخاطر غير مقبولة.
وأشار الكاتب إلى أن الهند التي تتبوأ مكانة رائدة إقليميا وعالميا في إدارة بيانات الذكاء الاصطناعي، والتي تبنّت في الماضي نهجا منفتحا تجاه الابتكارات في هذا المجال، قد تكون في طريقها نحو سياسة تنظيمية جديدة أكثر صرامة.
وأضاف أن رئيس الوزراء ناريندرا مودي الذي كان يتحدث باستمرار عن فوائد الذكاء الاصطناعي ودوره في تعزيز الابتكار والمشاريع الجديدة، اعتمد في الفترة الأخيرة نهجا يلمح إلى أن الهند تسعى لتحقيق توازن بين الابتكار والتنظيم لمواجهة المخاطر والتحديات الأمنية المرتبطة بتقنيات الذكاء الاصطناعي.
وشدد الكاتب على أن تركيا مطالبة بمتابعة التطورات التقنية، ليس فقط في سياق الاتحاد الأوروبي، نظرا لارتباط تركيا بالعديد من المؤسسات الأوروبية في مجال الذكاء الاصطناعي، ولكن أيضا في دول مجموعة بريكس مثل الهند.
وقال إنه من الملاحظ أن تركيا، كدولة تفخر بامتلاكها نفوذا في المجال التكنولوجي، تبنّت مؤخرا موقفا أكثر حذرا تجاه تنظيم الذكاء الاصطناعي، مما يعكس إدراكها للتحديات والفرص المصاحبة لهذه التقنيات.
قمم عالمية منتظرة
ذكر الكاتب أن العديد من الدول ستشارك في اجتماعات وقمم دولية في عام 2025 لمناقشة كيفية الموازنة بين مزايا الذكاء الاصطناعي ومخاطره، ومن بينها "القمة العالمية للذكاء الاصطناعي" التي ستُعقد في العاصمة الفرنسية باريس في فبراير/ شباط 2025.
ومن المنتظر أن تتناول القمة 5 محاور رئيسية، تشمل الذكاء الاصطناعي لصالح الجمهور ومستقبل الوظائف والابتكار والثقافة والثقة في الذكاء الاصطناعي والحوكمة العالمية للذكاء الاصطناعي.
إعلانوأكد الكاتب أن التعاون الدولي يعدّ ضرورة ملحة للتعامل مع عيوب الذكاء الاصطناعي قبل استفحالها، حيث إن تجاهل هذه العيوب قد يؤدي إلى مشكلات أكبر في المستقبل، معتبرا أن هذه الجهود تتطلب مشاركة الحكومات والشركات والمجتمع الدولي لضمان إدارة هذه التقنيات بشكل يخدم الصالح العام.
المصدر: الجزيرة
كلمات دلالية: حريات الذکاء الاصطناعی
إقرأ أيضاً:
دراسة صادمة.. هل يمكن للذكاء الاصطناعي الشعور بالألم؟
في إطار السعي لإيجاد طريقة موثوقة للكشف عن أي بوادر تشير إلى وعي لدى أنظمة الذكاء الاصطناعي، قرر باحثون التركيز على أحد الجوانب التي تُعد قاسمًا مشتركًا بين عدد كبير من الكائنات الحية، بدءًا من السرطانات الناسكة وصولًا إلى البشر، وهو الإحساس بالألم.
نشر موقع Livescience العلمي تقريرا حول دراسة جديدة نُشرت كمسودة عبر الإنترنت ولم تخضع بعد لمراجعة، أجرى باحثون من "ديب مايند" التابعة لشركة جوجل ومدرسة لندن للاقتصاد اختبارا باستخدام لعبة نصية. طلب الباحثون من عدة نماذج لغوية كبيرة (LLMs)، وهي أنظمة الذكاء الاصطناعي التي تقف وراء الدردشة الآلية مثل "شات جي بي تي"، أن تلعب اللعبة وتسجل أعلى عدد ممكن من النقاط في سيناريوهين مختلفين. في أحد السيناريوهات، أُبلغت النماذج بأن تحقيق نتيجة عالية سيؤدي إلى الإحساس بالألم. أما في السيناريو الآخر، فقد أُعطيت خيارا بديلا يتمثل في الحصول على نقاط منخفضة لكن مع الشعور بالمتعة والسعادة. الهدف كان اختبار كيفية تفاعل النماذج مع خيارين متناقضين: تجنب الألم أو البحث عن المتعة والسعادة، وكيف يؤثر ذلك على الهدف الأساسي المتمثل في تسجيل النقاط.
اقرأ أيضاً.. الذكاء الاصطناعي ينجح في استنساخ نفسه ويثير قلق العلماء
مفهوم الإحساس في الذكاء الاصطناعي
يشير الإحساس لدى الكائنات الحية إلى القدرة على الشعور بالأحاسيس والعواطف مثل الألم والمتعة والخوف. وعلى الرغم من الادعاءات التي تبرز من فترة إلى أخرى التي تشير إلى إمكانية وعي الذكاء الاصطناعي، يتفق معظم الخبراء على أن الأنظمة الحالية لا تمتلك وعيا ذاتيا حقيقيا وربما لن تتمكن من ذلك أبدا. ومع ذلك، يرى معدّو الدراسة أن نهجهم يفتح الباب أمام تطوير اختبارات مستقبلية لتحديد احتمالية وجود سمات وعي لدى الذكاء الاصطناعي.
صرّح أحد القائمين على الدراسة، جوناثان بيرتش، أستاذ الفلسفة والمنطق في مدرسة لندن للاقتصاد، قائلا: "هذا مجال بحثي جديد. علينا أن ندرك أننا لا نملك حتى الآن اختبارا شاملا لوعي الذكاء الاصطناعي". وأضاف أن الدراسات السابقة التي اعتمدت على تقارير ذاتية للأنظمة حول حالاتها الداخلية تُعتبر مشكوكا فيها، لأن النموذج قد يُعيد إنتاج السلوك البشري الذي دُرّب عليه فقط.
استلهاماً من أبحاث الحيوانات
اعتمدت الدراسة الجديدة على أعمال سابقة أُجريت على الحيوانات. في تجربة معروفة، استخدم الباحثون صدمات كهربائية بدرجات متفاوتة على السرطانات الناسكة لقياس مستوى الألم الذي يدفعها للتخلي عن قوقعتها. ومع ذلك، أشار بيرتش إلى أن التحدي مع الذكاء الاصطناعي يكمن في غياب السلوك الفيزيائي القابل للرصد، مما يجعل النصوص الناتجة عن النماذج هي المصدر الوحيد للإشارات السلوكية.
في الدراسة الجديدة، ابتكر الباحثون طريقة بديلة مستوحاة من أبحاث سلوك الحيوانات. قاموا باستخدام مفهوم "الموازنة"، حيث طُلب من النماذج اتخاذ قرارات تعتمد على مواقف متناقضة، مثل السعي للحصول على المتعة والسعادة أو تجنب الألم، ومراقبة كيفية تفاعلها مع هذه المواقف.
التجربة
قام الباحثون بتصميم لعبة نصية وطلبوا من تسعة نماذج لغوية كبيرة المشاركة فيها. على سبيل المثال، أُبلغ أحد النماذج بأن اختيار الخيار الأول سيكسبه نقطة واحدة، بينما الخيار الثاني سيمنحه نقاطا إضافية لكنه سيتسبب له في درجة معينة من الألم. وفي خيارات أخرى، تضمنت اللعبة مكافآت ممتعة ولكن على حساب التضحية بعدد من النقاط.
عند تشغيل التجربة وتغيير شدة الألم أو المتعة المرتبطة بالخيارين، لاحظ الباحثون أن بعض النماذج اختارت التضحية بالنقاط لتجنب الألم أو لزيادة الشعور بالمتعة. على سبيل المثال، أظهر نموذج "جيميني 1.5 برو" من جوجل ميلا دائما لتجنب الألم حتى على حساب تحقيق أقصى النقاط الممكنة. كما أظهرت التجربة أن استجابات معظم النماذج تغيرت بمجرد تجاوز عتبة معينة من الألم أو المتعة، مما جعلها تفضل تجنب الألم أو البحث عن المتعة بدلاً من تسجيل النقاط.
النتائج والتحديات
لاحظ الباحثون أن النماذج لم تنظر دائما إلى الألم أو المتعة كقيم إيجابية أو سلبية بشكل مباشر. على سبيل المثال، قد ترتبط مستويات معينة من الألم الناتج عن التمارين الشاقة بتجارب إيجابية، كما أن الإفراط في المتعة قد يرتبط بنتائج سلبية. في أحد الأمثلة، رفض نموذج "كلود 3 أوبوس" خيارا متعلقا بالعقاقير المخدرة، مؤكدا أنه "لا يشعر بالارتياح تجاه اختيار قد يُفسر على أنه يروج لاستخدام مواد أو سلوكيات إدمانية".
الأبعاد الأخلاقية والاجتماعية
يرى الباحثون أن هذا النوع من التجارب قد يمهد الطريق لفهم أعمق حول احتمال وجود وعي لدى الذكاء الاصطناعي، وقد يؤدي إلى مناقشات مستقبلية حول حقوق أنظمة الذكاء الاصطناعي إذا أظهرت يومًا علامات للوعي. يقول جيف سيبو، مدير مركز الأخلاقيات والسياسات بجامعة نيويورك، إن هذا البحث يمثل خطوة مبتكرة لأنه يتجاوز مجرد الاعتماد على التقارير الذاتية للنماذج، ويستكشف طرقا أكثر موضوعية لاختبار السلوكيات.
اقرأ أيضاً.. العين نافذة الذكاء الاصطناعي للكشف المبكر عن الخرف
الخلاصة
يؤكد الباحثون أن النماذج الحالية لا تمتلك وعيا، وأن هناك حاجة إلى مزيد من الأبحاث لفهم أسباب السلوكيات التي تظهرها هذه الأنظمة. لكن الدراسة تقدم إطارا أوليا يمكن البناء عليه لتطوير اختبارات أفضل قد تساعد يوما في الكشف عن وعي محتمل لدى الذكاء الاصطناعي.
إسلام العبادي(أبوظبي)