تعاون بين أمريكا والمملكة المتحدة لاختبار سلامة نماذج الذكاء الاصطناعي
تاريخ النشر: 2nd, April 2024 GMT
تواصل OpenAI وGoogle وAnthropic وغيرها من الشركات التي تعمل على تطوير الذكاء الاصطناعي التوليدي تحسين تقنياتها وإصدار نماذج لغوية كبيرة أفضل وأفضل.
ومن أجل إيجاد نهج مشترك للتقييم المستقل بشأن سلامة هذه النماذج عند ظهورها، وقعت حكومتا المملكة المتحدة والولايات المتحدة مذكرة تفاهم. معًا، سيقوم معهد سلامة الذكاء الاصطناعي في المملكة المتحدة ونظيره في الولايات المتحدة، والذي أعلنت عنه نائبة الرئيس كامالا هاريس ولكن لم يبدأ عملياته بعد، بتطوير مجموعات من الاختبارات لتقييم المخاطر وضمان سلامة "نماذج الذكاء الاصطناعي الأكثر تقدمًا".
إنهم يخططون لمشاركة المعرفة التقنية والمعلومات وحتى الموظفين كجزء من الشراكة، ويبدو أن أحد أهدافهم الأولية هو إجراء تمرين اختبار مشترك على نموذج يمكن الوصول إليه بشكل عام. وقالت وزيرة العلوم البريطانية ميشيل دونيلان، التي وقعت الاتفاقية، لصحيفة فايننشال تايمز إنه "عليهم أن يتصرفوا بسرعة" لأنهم يتوقعون ظهور جيل جديد من نماذج الذكاء الاصطناعي خلال العام المقبل. وهم يعتقدون أن هذه النماذج يمكن أن "تغير قواعد اللعبة بشكل كامل"، وما زالوا لا يعرفون ما الذي يمكنهم فعله.
ووفقا لصحيفة التايمز، فإن هذه الشراكة هي أول ترتيب ثنائي بشأن سلامة الذكاء الاصطناعي في العالم، على الرغم من أن الولايات المتحدة والمملكة المتحدة تعتزمان التعاون مع دول أخرى في المستقبل. وقالت وزيرة التجارة الأمريكية جينا ريموندو: "إن الذكاء الاصطناعي هو التكنولوجيا المميزة لجيلنا. وستعمل هذه الشراكة على تسريع عمل كل من معاهدنا عبر مجموعة كاملة من المخاطر، سواء بالنسبة لأمننا القومي أو لمجتمعنا الأوسع". "توضح شراكتنا أننا لا نهرب من هذه المخاوف - بل نتعامل معها. وبفضل تعاوننا، ستكتسب معاهدنا فهمًا أفضل لأنظمة الذكاء الاصطناعي، وستجري تقييمات أكثر قوة، وستصدر إرشادات أكثر صرامة. "
وفي حين تركز هذه الشراكة على وجه الخصوص على الاختبار والتقييم، فإن الحكومات في جميع أنحاء العالم تستحضر أيضًا لوائح لإبقاء أدوات الذكاء الاصطناعي تحت المراقبة. في شهر مارس الماضي، وقع البيت الأبيض على أمر تنفيذي يهدف إلى التأكد من أن الوكالات الفيدرالية تستخدم فقط أدوات الذكاء الاصطناعي التي "لا تعرض حقوق الشعب الأمريكي وسلامته للخطر". وقبل ذلك بأسبوعين، وافق البرلمان الأوروبي على تشريع شامل لتنظيم الذكاء الاصطناعي. وسوف يحظر "الذكاء الاصطناعي الذي يتلاعب بالسلوك البشري أو يستغل نقاط ضعف الأشخاص"، و"أنظمة التصنيف البيومترية القائمة على الخصائص الحساسة"، بالإضافة إلى "الاستخلاص غير المستهدف" للوجوه من لقطات كاميرات المراقبة والويب لإنشاء قواعد بيانات للتعرف على الوجه. بالإضافة إلى ذلك، يجب تصنيف الصور ومقاطع الفيديو والصوت الأخرى التي يتم إنشاؤها بواسطة الذكاء الاصطناعي بشكل واضح على هذا النحو بموجب قواعدها.
المصدر: بوابة الوفد
كلمات دلالية: الذکاء الاصطناعی
إقرأ أيضاً:
لطافتك تكلف الذكاء الاصطناعي الملايين!
في زمن تتسارع فيه علاقتنا بالتكنولوجيا، يبدو أن كلمات بسيطة مثل "من فضلك" و"شكرًا" قد تحمل ثمنًا غير متوقع. فقد أثار أحد مستخدمي منصة X سؤالًا طريفًا لكنه عميق الدلالة، قال فيه:
كم أنفقت OpenAI على الكهرباء لأن الناس يقولون "من فضلك" و"شكرًا" لنماذج الذكاء الاصطناعي؟
وجاء الرد سريعًا من سام ألتمان، الرئيس التنفيذي لشركة OpenAI، مازحًا وبكل ثقة: "تلك الملايين كانت مُنفقة في مكانها الصحيح.. من يدري ما ستجلبه اللباقة!".
لكن خلف هذا التعليق، انطلقت تساؤلات جدّية: هل نُهدر الطاقة والموارد حين نخاطب الذكاء الاصطناعي بأدب؟ أم أن للّباقة مع الآلات قيمة تتجاوز الكلفة؟.
المجاملة ليست مجرد تكلفة… بل أسلوب تعامل
تشير تقديرات الخبراء إلى أن كل تفاعل مع روبوت دردشة يكلف الشركة مالًا وطاقة، وكل كلمة إضافية تُرسل كجزء من الطلب تستهلك المزيد من الموارد.
قال البروفيسور نيل جونسون من جامعة جورج واشنطن:"كل طلب موجه إلى روبوت مثل ChatGPT يتطلب حركة إلكترونات، وهذه الحركة تحتاج طاقة. والسؤال هو: من يدفع هذه الفاتورة؟".
ويشبّه جونسون الكلمات الإضافية بورق التغليف المستخدم لتغليف عطر، إذ تحتاج النماذج اللغوية إلى "اختراق" هذا التغليف للوصول إلى مضمون الطلب، مما يشكل عبئًا إضافيًا.
اقرأ أيضاً.. أول طالب ذكاء اصطناعي في مقاعد الدراسة الجامعية
لكن رغم هذا، يرى كثيرون أن اللطافة مع الذكاء الاصطناعي ليست فقط عادة بشرية أو مظهرًا من مظاهر "إضفاء الطابع الإنساني" على الآلة، بل إن لها تأثيرًا مباشرًا على جودة التفاعل.
وأوضح كيرتيس بيفرز، مدير في فريق تصميم Microsoft Copilot، أن استخدام اللغة المهذبة يضبط نبرة الرد من قبل النموذج، فعندما يلتقط الذكاء الاصطناعي إشارات اللباقة، يكون أكثر ميلًا للرد بنفس الأسلوب.
هل المجاملة ضرورة ثقافية؟
حتى وإن لم تكن الآلة "تشعر"، فإن طريقة تعامل البشر معها قد تُشكّل انعكاسًا لطريقة تعاملهم مع بعضهم البعض لاحقًا.
وأشارت شيري توركل، أستاذة في معهد MIT، أن الذكاء الاصطناعي ليس "واعيًا" فعلًا، لكنه لا يزال "حيًا" ليبرّر إظهار المجاملة له.
وتشير إلى تجربة "تماغوتشي" في التسعينيات، حيث أصيب الأطفال بالحزن الحقيقي عند "وفاة" حيواناتهم الرقمية، مما يُظهر كيف يمكن للعلاقات بين البشر والكائنات غير الحية أن تؤثر نفسيًا.
اقرأ أيضاً.. حين يرى الذكاء الاصطناعي ما لا يراه الطبيب.. قفزة في تشخيص قصر النظر
اللباقة بدافع الخوف
أجريت دراسة في ديسمبر 2024 من قبل شركة Future أظهرت أن نسبة كبيرة من المستخدمين يتعاملون بلباقة مع الذكاء الاصطناعي:
67% من المستخدمين في الولايات المتحدة يستخدمون عبارات مجاملة،و71% من المستخدمين في المملكة المتحدة يفعلون الشيء ذاته.
لكن المفارقة أن 12% من المستخدمين يتحلون باللباقة بدافع الخوف من "العواقب المستقبلية" لسوء التعامل مع التكنولوجيا.
المجاملة... تكلفة مستحقة؟
بين التكاليف الكهربائية والبيئية، وبين الأبعاد الثقافية والإنسانية، يبدو أن المجاملة في التفاعل مع الذكاء الاصطناعي ليست مجرد تصرف عابر. بل إنها تحمل وزنًا أخلاقيًا وسلوكيًا، وقد تشكّل مستقبل العلاقة بين الإنسان والآلة.
إسلام العبادي(أبوظبي)