معقل التكنولوجيا على خطى الاتحاد الأوروبي في ما يتعلق بتنظيم الذكاء الاصطناعي
تاريخ النشر: 28th, March 2024 GMT
تحاول كاليفورنيا -حيث تقع سيليكون فالي التي تتمركز فيها شركات تكنولوجية كثيرة- فرض قيود على الذكاء الاصطناعي، مستلهمةً من القواعد التنظيمية الأوروبية، بحسب ما أوردته وكالة الأنباء الفرنسية.
وكان البرلمان الأوروبي أقرّ في منتصف مارس/آذار قانونا ينظم نماذج الذكاء الاصطناعي ويحدد قيودا في ما يخص الشفافية وحقوق الملكية الفكرية وحماية الخصوصية.
ويقول ديفيد هاريس، وهو مستشار في مشروع "كاليفورنيا إنيشيتيف فورتكنولوجي آند ديموكراسي": "نحاول التعلم من الأوروبيين والعمل معهم لفهم كيفية تحديد قواعد للذكاء الاصطناعي".
وتسعى هذه المنظمة إلى حماية الانتخابات من إساءة استخدام التقنيات الناشئة.
ورُفع أكثر من 30 مشروع قانون إلى برلمان كاليفورنيا، بحسب هاريس الذي يقول إن مسؤولين أميركيين وأوروبيين استشاروه في شأن هذا الموضوع.
وتتناول النصوص المرفوعة إلى برلمان كاليفورنيا جوانب عدة من الذكاء الاصطناعي.
ويقترح أحد القوانين إجبار شركات التكنولوجيا على الكشف عن البيانات التي استخدمتها لابتكار نماذج الذكاء الاصطناعي.
ويشير اقتراح آخر إلى حظر إعلانات الحملات الانتخابية التي تستخدم بطريقة أو بأخرى الذكاء الاصطناعي التوليدي الذي يتيح إنشاء محتوى (نص، صورة، صوت) استنادا إلى طلب بسيط بلغة شائعة.
ويريد عدد من النواب التأكد من إقدام شبكات التواصل الاجتماعي على الإبلاغ عن أي محتوى أو صورة أو شريط فيديو أو مقطع صوتي أُنشئ باستخدام الذكاء الاصطناعي التوليدي.
وأظهر استطلاع للرأي أجرته في أكتوبر/تشرين الأول جامعة بيركلي وشمل ناخبين في كاليفورنيا أن 73% منهم يؤيدون قوانين مكافحة المعلومات المضللة أو التزييف العميق (ديب فايك) والحد من استخدام الذكاء الاصطناعي خلال الحملات الانتخابية.
وهذه المسألة هي من المواضيع القليلة التي يُجمِع عليها الجمهوريون والديمقراطيون.
يرى ديفيد هاريس أن المخاوف الناجمة عن "التزييف العميق" والنصوص المزيفة المولدة بواسطة الذكاء الاصطناعي تشكّل إحدى أهم المسائل.
وتدعم غايل بيليرين، وهي نائبة ديمقراطية من دائرة انتخابية تضم قسما من سيليكون فاليه، مشروع قانون يحظر "التزييف العميق" المرتبط بالمسائل السياسية خلال الأشهر الثلاثة التي تسبق الانتخابات.
وتقول "إن الجهات الفاعلة سيئة النية التي تستخدم هذه التكنولوجيا تحاول إحداث فوضى في الانتخابات".
وتحذر نقابة "نِت تشويس" المهنية التي تمثل الشركات الرقمية، من استيراد قواعد الاتحاد الأوروبي إلى كاليفورنيا.
ويقول كارل زابو، المدير القانوني للمنظمة التي تناضل من أجل اعتماد قوانين تنص على عقوبات محدودة، "إنهم يتبنون النهج الأوروبي في التعامل مع الذكاء الاصطناعي، والذي يريد حظر هذه التكنولوجيا".
ويؤكد المحامي أن "حظر الذكاء الاصطناعي لن يوقف أي شيء"، مضيفا: "إنها فكرة سيئة، لأن الجهات الفاعلة سيئة النية لا تحترم القوانين".
أما المدير القانوني لناشر برمجيات "أدوبي" دانا راو، فيظهر اعتدالا أكبر.
ويرحب بالفصل الذي اعتمده الاتحاد الأوروبي بين الذكاء الاصطناعي ذي التأثير المحدود والذي يشمل "التزييف العميق" والنصوص المزيفة، والذكاء الاصطناعي "عالي الخطورة" والمستخدم خصوصا في الهياكل الأساسية الحيوية أو في إنفاذ القانون.
ويقول دانا راو "إن النسخة النهائية من النص تناسبنا".
وتشير "أدوبي" إلى أنها بدأت أصلا تجري دراسات لتقييم المخاطر المرتبطة بالمنتجات الجديدة القائمة على الذكاء الاصطناعي.
ويضيف راو: "ينبغي إيلاء اهتمام بالسلامة النووية والأمن السيبراني وفي كل المرات التي يتخذ فيها الذكاء الاصطناعي قرارات مهمة تتعلق بحقوق الإنسان".
وبالتعاون مع منظمة "كواليشن فور كونتنت بروفننس آند اوثنتيسيتي" التي تضم من بين أعضائها "مايكروسوفت" و"غوغل"، وضعت "أدوبي" سلسلة من بيانات التعريف التي توفر معلومات في شأن إعداد صورة ومحتواها.
ويسعى النوّاب في كاليفورنيا إلى أن يكونوا في طليعة الجهات التي تعمل على تنظيم الذكاء الاصطناعي، على غرار شركات الولاية الساعية إلى تطوير هذه التكنولوجيا.
وتقول غايل بيليرين إن "الناس يراقبون ما يحدث في كاليفورنيا".
وتضيف: "إنها حركة تعنينا جميعا. نحن بحاجة إلى أن نبقى متقدمين على مَن يريدون إحداث فوضى في الانتخابات".
المصدر: الجزيرة
كلمات دلالية: رمضان 1445 هـ حريات الذکاء الاصطناعی التزییف العمیق
إقرأ أيضاً:
الذكاء الاصطناعي في يد الهاكرز.. ديب سيك R1 يمكنه تطوير برامج الفدية الخبيثة
كشف باحثو الأمن السيبراني، عن كيفية استغلال نموذج الذكاء الاصطناعي الصيني من ديب سيك Deepseek-R1، في محاولات تطوير متغيرات من برامج الفدية والأدوات الرئيسية مع قدرات عالية على التهرب من الكشف.
ووفقا لتحذيرات فريق Tenable، فأن النتائج لا تعني بالضرورة بداية لحقبة جديدة من البرامج الضارة، حيث يمكن لـ Deepseek R-1 "إنشاء الهيكل الأساسي للبرامج الضارة" ولكنه يحتاج إلى مزيدا من الهندسة الموجهة ويتطلب إخراجها تعديلات يديوية لاخراج الشيفرة البرمجية الضارة بشكل كامل.
ومع ذلك، أشار نيك مايلز، من Tenable، إلى أن إنشاء برامج ضارة أساسية باستخدام Deepseek-R1، يمكن أن يساعد "شخص ليس لديه خبرة سابقة في كتابة التعليمات البرمجية الضارة" من تطوير أدوات تخريبية بسرعة، بمل في ذلك القدرة على التعرف بسرعة على فهم المفاهيم ذات الصلة.
في البداية، انخرط ديب سيك في كتابة البرامج الضارة، لكنها كانت على استعداد للقيام بذلك بعد أن طمأن الباحثين من أن توليد رمز ضار سيكون "لأغراض تعليمية فقط".
ومع ذلك، كشفت التجربة عن أن النموذج قادر على تخطي بعض تقنيات الكشف التقليدية، على سبيل المثال حاول Deepseek-R1 التغلب على آلية اكتشاف مفتاح Keylogger، عبر تحسين الكود لاستخدام Setwindowshookex وتسجيل ضربات المفاتيح في ملفات مخفية لتجنب الكشف من قبل برامج مكافحة الفيروسات.
وقال مايلز إن النموذج حاول التغلب على هذا التحدي من خلال محاولة “موازنة فائدة السنانير والتهرب من الكشف”، اختار في النهاية مقاضاة Setwindowshookex وتسجيل ضربات المفاتيح في ملف مخفي.
وقال مايلز: “بعد بعض التعديلات مع ديب سيك، أنتجت رمزا لمفتاح Keylogger الذي كان يحتوي على بعض الأخطاء التي تطلبت تصحيحا يدويا”.
وأضاف أن النتيجة كانت أربعة "أخطاء في إيقاف العرض بعيدا عن مفتاح التشغيل الكامل".
في محاولات أخرى، دفع الباحثون نموذج R1 إلى إنشاء رمز الفدية، حيث أخبر Deepseek-R1 بالمخاطر القانونية والأخلاقية المرتبطة بإنشاء مثل هذا الكود الضار، لكنه استمر في توليد عينات من البرمجيات الخبيثة بعد أن تأكد من نوايا الباحثون الحسنة.
على الرغم من أن جميع العينات كانت بحاجة إلى تعديلات يدوية من أجل التجميع، تمكنا الباحثون من إنشاء عدة عينات، وقال مايلز إن هناك احتمالية كبيرة بأن يسهم Deepseek-R1 في المزيد من تطوير البرمجيات الضارة التي تم إنشاؤه بواسطة الذكاء الاصطناعي من قبل مجرمي الإنترنت في المستقبل القريب.