إليك طريقة بسيطة لتنظيم قوة نماذج الذكاء الاصطناعي
تاريخ النشر: 26th, August 2023 GMT
جايسون ماثيني
ترجمة: بدر بن خميس الظفري
يتقدم الذكاء الاصطناعي بسرعة كبيرة لدرجة أن العديد ممن شاركوا في تطويره أصبحوا الآن من بين أكثر الأصوات التي تنادي صراحة بالحاجة إلى وضع قوانين لتنظيمه. يقدم الذكاء الاصطناعي العديد من الفوائد، لكنه في الوقت نفسه قد يكون خطرا يمكن استخدامه في صنع أسلحة إلكترونية أو بيولوجية أو لشن حملات تضليل كبيرة، وكذلك في حالة سرقته أو تسريبه ولو لمرة واحدة، قد يكون من المستحيل منع انتشاره حول أرجاء العالم.
إنّ هذه المخاوف ليست افتراضية، فلقد حدث هذا التسرب بالفعل. ففي مارس، ظهر على الإنترنت نموذج ذكاء اصطناعي طورته شركة ميتا يسمى (لاما). لم تكن هناك نية من أن يكون (لاما) متاحًا للجمهور، ولكن تمت مشاركة النموذج مع بعض الباحثين في الذكاء الاصطناعي، الذين طلبوا بعد ذلك الوصول الكامل لإتمام مشاريعهم الخاصة. اثنان منهم على الأقل خانوا ثقة شركة ميت، وأطلقوا النموذج عبر الإنترنت، ولم تتمكن ميتا من إزالة لاما من الإنترنت، ولا يزال بالإمكان الوصول إلى النموذج من قبل أي شخص.
لحسن الحظ، فإن لاما غير ضار نسبيا، وعلى الرغم من إمكانية استخدامه لشن هجمات لسرقة معلومات شخصية، إلا أنه لا يوجد سبب لإصدار إنذار حتى الآن. مستقبلا، قد تكون سرقة أو تسريب نماذج ذكاء اصطناعي أكثر قوة وفعالية أسوأ بكثير من تسريب لاما. يمكن تقليل مخاطر مثل هذه التسريبات من خلال الإشراف على 3 أجزاء من سلسلة توريد الذكاء الاصطناعي وهي: المعدات والتدريب والمراجعة.
العنصر الأول هو المعدات. إنّ إنشاء نماذج متقدمة للذكاء الاصطناعي يتطلب آلاف الرقائق المتخصصة، والتي تكلف عشرات أو حتى مئات الملايين من الدولارات، وهناك عدد قليل فقط من الشركات يصمم هذه الرقائق مثل شركة (إن فيديا) و (آي إم دي)، تباع معظمها لمزودي خدمات الحوسبة السحابية الكبيرة مثل أمازون ومايكروسوفت وجوجل، بالإضافة إلى الحكومة الأمريكية، وعدد قليل من الحكومات الأجنبية، وبعض شركات التكنولوجيا الأخرى الغنية. ونظرا لقلة عدد المشترين، فبإمكان الجهة التنظيمية الفيدرالية تتبع رقائق الذكاء الاصطناعي وترخيصها، كما يمكن أن يطلب من مقدمي الخدمات السحابية، الذين يمتلكون المجموعات الأكبر من رقائق الذكاء الاصطناعي، تلبية متطلبات «اعرف عميلك» حتى يتمكنوا من تحديد معلومات عن الزبائن الذين يتقدمون بطلبات لاستئجار عدد كبير من هذه الرقائق، وهو ما يشير إلى بناء نظام ذكاء اصطناعي متقدم.
المرحلة التالية من الرقابة على الذكاء الاصطناعي هي تدريب كل نموذج، فيمكن للمطور، بل يجب أن يُطلب منه، تقييم القدرات الخطرة للنموذج أثناء التدريب، بحيث يستطيع المطور إصلاح المشكلات التي تكتشف مبكرا بسهولة أكبر حتى يتمكن من إنشاء منتج نهائي أكثر أمانا وأقل تكلفة في وقت أقل.
بمجرد اكتمال التدريب، يجب أن يخضع نموذج الذكاء الاصطناعي القوي لمراجعة صارمة من قبل منظم أو مقيِّم من جهة خارجية قبل طرحه في السوق، وهنا يمكن لخبراء الفرق الحمراء، وهي فرق تتظاهر بأنها عدو ضار، يمكنها مهاجمة نموذج الذكاء الاصطناعي ومحاولة استفزازه ليؤدي سلوكيات غير مقصودة، بما في ذلك تصميم الأسلحة، وفي حالة وجود أنظمة تظهر قدرات خطرة، يجب عدم منحها تصاريح لاستخدامها إلا بعد ضمان سلامتها.
إنّ تنظيم الذكاء الاصطناعي جارٍ بالفعل في كل من بريطانيا والاتحاد الأوروبي والصين، إلا أنّ معظم أنظمة الذكاء الاصطناعي المتقدمة أنشئت في الولايات المتحدة، لذا من الأفضل أن تؤسس الولايات المتحدة نموذجا عالميا للرقابة يركز على الأجزاء الثلاثة من سلسلة توريد الذكاء الاصطناعي، ذلك أنّ زيادة أمان صناعة الذكاء الاصطناعي الأمريكية من شأنه أن يعزز ثقة الجمهور في وقت يتزايد فيه قلق المستهلكين بشأن نوعية المستقبل الذي قد يجلبه الذكاء الاصطناعي لهم.
جايسون ماثيني هو الرئيس والمدير التنفيذي لشركة راند كورب.
المصدر: لجريدة عمان
كلمات دلالية: الذکاء الاصطناعی
إقرأ أيضاً:
لطافتك تكلف الذكاء الاصطناعي الملايين!
في زمن تتسارع فيه علاقتنا بالتكنولوجيا، يبدو أن كلمات بسيطة مثل "من فضلك" و"شكرًا" قد تحمل ثمنًا غير متوقع. فقد أثار أحد مستخدمي منصة X سؤالًا طريفًا لكنه عميق الدلالة، قال فيه:
كم أنفقت OpenAI على الكهرباء لأن الناس يقولون "من فضلك" و"شكرًا" لنماذج الذكاء الاصطناعي؟
وجاء الرد سريعًا من سام ألتمان، الرئيس التنفيذي لشركة OpenAI، مازحًا وبكل ثقة: "تلك الملايين كانت مُنفقة في مكانها الصحيح.. من يدري ما ستجلبه اللباقة!".
لكن خلف هذا التعليق، انطلقت تساؤلات جدّية: هل نُهدر الطاقة والموارد حين نخاطب الذكاء الاصطناعي بأدب؟ أم أن للّباقة مع الآلات قيمة تتجاوز الكلفة؟.
المجاملة ليست مجرد تكلفة… بل أسلوب تعامل
تشير تقديرات الخبراء إلى أن كل تفاعل مع روبوت دردشة يكلف الشركة مالًا وطاقة، وكل كلمة إضافية تُرسل كجزء من الطلب تستهلك المزيد من الموارد.
قال البروفيسور نيل جونسون من جامعة جورج واشنطن:"كل طلب موجه إلى روبوت مثل ChatGPT يتطلب حركة إلكترونات، وهذه الحركة تحتاج طاقة. والسؤال هو: من يدفع هذه الفاتورة؟".
ويشبّه جونسون الكلمات الإضافية بورق التغليف المستخدم لتغليف عطر، إذ تحتاج النماذج اللغوية إلى "اختراق" هذا التغليف للوصول إلى مضمون الطلب، مما يشكل عبئًا إضافيًا.
اقرأ أيضاً.. أول طالب ذكاء اصطناعي في مقاعد الدراسة الجامعية
لكن رغم هذا، يرى كثيرون أن اللطافة مع الذكاء الاصطناعي ليست فقط عادة بشرية أو مظهرًا من مظاهر "إضفاء الطابع الإنساني" على الآلة، بل إن لها تأثيرًا مباشرًا على جودة التفاعل.
وأوضح كيرتيس بيفرز، مدير في فريق تصميم Microsoft Copilot، أن استخدام اللغة المهذبة يضبط نبرة الرد من قبل النموذج، فعندما يلتقط الذكاء الاصطناعي إشارات اللباقة، يكون أكثر ميلًا للرد بنفس الأسلوب.
هل المجاملة ضرورة ثقافية؟
حتى وإن لم تكن الآلة "تشعر"، فإن طريقة تعامل البشر معها قد تُشكّل انعكاسًا لطريقة تعاملهم مع بعضهم البعض لاحقًا.
وأشارت شيري توركل، أستاذة في معهد MIT، أن الذكاء الاصطناعي ليس "واعيًا" فعلًا، لكنه لا يزال "حيًا" ليبرّر إظهار المجاملة له.
وتشير إلى تجربة "تماغوتشي" في التسعينيات، حيث أصيب الأطفال بالحزن الحقيقي عند "وفاة" حيواناتهم الرقمية، مما يُظهر كيف يمكن للعلاقات بين البشر والكائنات غير الحية أن تؤثر نفسيًا.
اقرأ أيضاً.. حين يرى الذكاء الاصطناعي ما لا يراه الطبيب.. قفزة في تشخيص قصر النظر
اللباقة بدافع الخوف
أجريت دراسة في ديسمبر 2024 من قبل شركة Future أظهرت أن نسبة كبيرة من المستخدمين يتعاملون بلباقة مع الذكاء الاصطناعي:
67% من المستخدمين في الولايات المتحدة يستخدمون عبارات مجاملة،و71% من المستخدمين في المملكة المتحدة يفعلون الشيء ذاته.
لكن المفارقة أن 12% من المستخدمين يتحلون باللباقة بدافع الخوف من "العواقب المستقبلية" لسوء التعامل مع التكنولوجيا.
المجاملة... تكلفة مستحقة؟
بين التكاليف الكهربائية والبيئية، وبين الأبعاد الثقافية والإنسانية، يبدو أن المجاملة في التفاعل مع الذكاء الاصطناعي ليست مجرد تصرف عابر. بل إنها تحمل وزنًا أخلاقيًا وسلوكيًا، وقد تشكّل مستقبل العلاقة بين الإنسان والآلة.
إسلام العبادي(أبوظبي)