تحاول كاليفورنيا -حيث تقع سيليكون فالي التي تتمركز فيها شركات تكنولوجية كثيرة- فرض قيود على الذكاء الاصطناعي، مستلهمةً من القواعد التنظيمية الأوروبية، بحسب ما أوردته وكالة الأنباء الفرنسية.

وكان البرلمان الأوروبي أقرّ في منتصف مارس/آذار قانونا ينظم نماذج الذكاء الاصطناعي ويحدد قيودا في ما يخص الشفافية وحقوق الملكية الفكرية وحماية الخصوصية.

ويقول ديفيد هاريس، وهو مستشار في مشروع "كاليفورنيا إنيشيتيف فورتكنولوجي آند ديموكراسي": "نحاول التعلم من الأوروبيين والعمل معهم لفهم كيفية تحديد قواعد للذكاء الاصطناعي".

وتسعى هذه المنظمة إلى حماية الانتخابات من إساءة استخدام التقنيات الناشئة.

ورُفع أكثر من 30 مشروع قانون إلى برلمان كاليفورنيا، بحسب هاريس الذي يقول إن مسؤولين أميركيين وأوروبيين استشاروه في شأن هذا الموضوع.

وتتناول النصوص المرفوعة إلى برلمان كاليفورنيا جوانب عدة من الذكاء الاصطناعي.

ويقترح أحد القوانين إجبار شركات التكنولوجيا على الكشف عن البيانات التي استخدمتها لابتكار نماذج الذكاء الاصطناعي.

ويشير اقتراح آخر إلى حظر إعلانات الحملات الانتخابية التي تستخدم بطريقة أو بأخرى الذكاء الاصطناعي التوليدي الذي يتيح إنشاء محتوى (نص، صورة، صوت) استنادا إلى طلب بسيط بلغة شائعة.

ويريد عدد من النواب التأكد من إقدام شبكات التواصل الاجتماعي على الإبلاغ عن أي محتوى أو صورة أو شريط فيديو أو مقطع صوتي أُنشئ باستخدام الذكاء الاصطناعي التوليدي.

وأظهر استطلاع للرأي أجرته في أكتوبر/تشرين الأول جامعة بيركلي وشمل ناخبين في كاليفورنيا أن 73% منهم يؤيدون قوانين مكافحة المعلومات المضللة أو التزييف العميق (ديب فايك) والحد من استخدام الذكاء الاصطناعي خلال الحملات الانتخابية.

وهذه المسألة هي من المواضيع القليلة التي يُجمِع عليها الجمهوريون والديمقراطيون.

أحد القوانين يقترح إجبار شركات التكنولوجيا على الكشف عن البيانات التي استخدمتها لابتكار نماذج الذكاء الاصطناعي (شترستوك) "متقدّمون"

يرى ديفيد هاريس أن المخاوف الناجمة عن "التزييف العميق" والنصوص المزيفة المولدة بواسطة الذكاء الاصطناعي تشكّل إحدى أهم المسائل.

وتدعم غايل بيليرين، وهي نائبة ديمقراطية من دائرة انتخابية تضم قسما من سيليكون فاليه، مشروع قانون يحظر "التزييف العميق" المرتبط بالمسائل السياسية خلال الأشهر الثلاثة التي تسبق الانتخابات.

وتقول "إن الجهات الفاعلة سيئة النية التي تستخدم هذه التكنولوجيا تحاول إحداث فوضى في الانتخابات".

وتحذر نقابة "نِت تشويس" المهنية التي تمثل الشركات الرقمية، من استيراد قواعد الاتحاد الأوروبي إلى كاليفورنيا.

ويقول كارل زابو، المدير القانوني للمنظمة التي تناضل من أجل اعتماد قوانين تنص على عقوبات محدودة، "إنهم يتبنون النهج الأوروبي في التعامل مع الذكاء الاصطناعي، والذي يريد حظر هذه التكنولوجيا".

ويؤكد المحامي أن "حظر الذكاء الاصطناعي لن يوقف أي شيء"، مضيفا: "إنها فكرة سيئة، لأن الجهات الفاعلة سيئة النية لا تحترم القوانين".

أما المدير القانوني لناشر برمجيات "أدوبي" دانا راو، فيظهر اعتدالا أكبر.

ويرحب بالفصل الذي اعتمده الاتحاد الأوروبي بين الذكاء الاصطناعي ذي التأثير المحدود والذي يشمل "التزييف العميق" والنصوص المزيفة، والذكاء الاصطناعي "عالي الخطورة" والمستخدم خصوصا في الهياكل الأساسية الحيوية أو في إنفاذ القانون.

ويقول دانا راو "إن النسخة النهائية من النص تناسبنا".

وتشير "أدوبي" إلى أنها بدأت أصلا تجري دراسات لتقييم المخاطر المرتبطة بالمنتجات الجديدة القائمة على الذكاء الاصطناعي.

ويضيف راو: "ينبغي إيلاء اهتمام بالسلامة النووية والأمن السيبراني وفي كل المرات التي يتخذ فيها الذكاء الاصطناعي قرارات مهمة تتعلق بحقوق الإنسان".

وبالتعاون مع منظمة "كواليشن فور كونتنت بروفننس آند اوثنتيسيتي" التي تضم من بين أعضائها "مايكروسوفت" و"غوغل"، وضعت "أدوبي" سلسلة من بيانات التعريف التي توفر معلومات في شأن إعداد صورة ومحتواها.

ويسعى النوّاب في كاليفورنيا إلى أن يكونوا في طليعة الجهات التي تعمل على تنظيم الذكاء الاصطناعي، على غرار شركات الولاية الساعية إلى تطوير هذه التكنولوجيا.

وتقول غايل بيليرين إن "الناس يراقبون ما يحدث في كاليفورنيا".

وتضيف: "إنها حركة تعنينا جميعا. نحن بحاجة إلى أن نبقى متقدمين على مَن يريدون إحداث فوضى في الانتخابات".

المصدر: الجزيرة

كلمات دلالية: رمضان 1445 هـ حريات الذکاء الاصطناعی التزییف العمیق

إقرأ أيضاً:

كيف سيغير وكلاء الذكاء الاصطناعي هجمات سرقة بيانات الاعتماد

شهدت هجمات "تعبئة بيانات الاعتماد" تأثيرًا هائلًا في عام 2024، حيث أدت إلى دوامة مدمرة من عدوى برامج سرقة المعلومات وتسريبات البيانات.

 وفي ظل هذا المشهد الأمني المتوتر، قد تزداد الأمور سوءًا مع ظهور "الوكلاء الحاسوبيين" (Computer-Using Agents)، وهي فئة جديدة من وكلاء الذكاء الاصطناعي تُتيح أتمتة مهام الويب الشائعة بتكلفة وجهد منخفضين، بما في ذلك تلك التي يؤديها المهاجمون عادةً.

يدعم الذكاء الاصطناعي.. لينوفو تطلق لابتوب بإمكانات رائدة وسعر تنافسي%92 من الطلاب يستخدمونه.. الذكاء الاصطناعي يهدد جوهر التعليم الجامعيحجز المطاعم مجرد بداية.. هونر تكشف عن ذكاء اصطناعي لإدارة المهام اليوميةتأخير مرتقب في تطوير سيري الذكية .. تحديات تواجه الذكاء الاصطناعي في آبلالدماغ البشري يتفوّق على الذكاء الاصطناعي في حالات عدّةسرقات بيانات الاعتماد: السلاح الأساسي للمجرمين السيبرانيين

يُعد سرقة بيانات الاعتماد الإجراء الأول للمهاجمين في عام 2023/24، حيث شكلت هذه البيانات ثغرة استغلالية في 80% من هجمات تطبيقات الويب. 

ليس من المستغرب أن المليارات من بيانات الاعتماد المسروقة متداولة على الإنترنت، ويمكن للمهاجمين الحصول على آخر التسريبات مقابل مبلغ يبدأ من 10 دولارات على المنتديات الإجرامية.

وقد استفاد السوق الإجرامي من التسريبات الكبيرة التي شهدها عام 2024، مثل الهجمات التي استهدفت عملاء Snowflake، حيث تم استخدام بيانات الاعتماد المسربة من تفريغات التسريبات ومصادر بيانات مخترقة نتيجة حملات تصيد جماعي وعدوى ببرامج سرقة المعلومات، مما أدى إلى اختراق 165 مستأجرًا لعملاء الشركة وملايين السجلات المسربة.

أتمتة هجمات بيانات الاعتماد في عصر SaaS

لم تعد تقنيات التخمين العشوائي وتعبئة بيانات الاعتماد كما كانت في السابق؛ فقد تغيرت بنية تكنولوجيا المعلومات الحديثة لتصبح أكثر لامركزية مع ظهور مئات التطبيقات والخدمات عبر الإنترنت، وتوليد آلاف الهويات داخل كل مؤسسة. 

ولم تعد بيانات الاعتماد تُخزن حصريًا في أنظمة مثل Active Directory، بل باتت موزعة في أماكن متعددة على الإنترنت.

تواجه الأدوات التقليدية صعوبة في التعامل مع التعقيدات الجديدة لتطبيقات الويب الحديثة، التي تتميز بواجهات رسومية متطورة وحلول حماية مثل CAPTCHA والحد من معدلات الطلب، مما يستدعي تطوير أدوات مخصصة لكل تطبيق على حدة.

 وفي ظل وجود حوالي 15 مليار بيانات اعتماد مسربة متاحة، رغم أن الغالبية منها قديمة وغير صالحة، فإن هناك فرصة كبيرة للمهاجمين إذا تمكنوا من تحديد البيانات الفعّالة والاستفادة منها.

فرصة ضائعة للمهاجمين؟

رغم أن نسبة البيانات الاعتمادية الصالحة لا تتجاوز 1% في معظم مجموعات المعلومات، إلا أن ظاهرة إعادة استخدام كلمات المرور تتيح للمهاجمين استغلال بيانات اعتماد واحدة للوصول إلى حسابات متعددة في تطبيقات مختلفة. 

تخيل سيناريو يتم فيه استخدام بيانات اعتماد صالحة على نطاق واسع، مما يسمح للمهاجمين بتوسيع نطاق هجماتهم بشكل جماعي عبر تطبيقات متعددة دون الحاجة إلى تطوير أدوات جديدة لكل تطبيق.

دور "الوكلاء الحاسوبيين" في توسيع نطاق الهجمات

لقد كانت تأثيرات الذكاء الاصطناعي في الهجمات السابقة محصورة في استخدام النماذج اللغوية الكبيرة لإنشاء رسائل تصيد أو لتطوير برمجيات خبيثة بمساعدة الذكاء الاصطناعي، ولكن مع إطلاق "OpenAI Operator"، يظهر نوع جديد من "الوكلاء الحاسوبيين" قادر على أداء مهام الويب البسيطة بشكل مشابه للبشر دون الحاجة إلى تنفيذ برامج مخصصة.

تتيح هذه التقنية الجديدة للمهاجمين إمكانية تنفيذ هجمات تعبئة بيانات الاعتماد على نطاق واسع وبجهد أقل، مما يجعل عملية المسح الآلي للمعلومات واستغلالها أكثر سهولة حتى للمبتدئين.

 استغلال بيانات 

تشير التطورات الحالية إلى أن التحديات الأمنية المتعلقة بهجمات بيانات الاعتماد قد تصل إلى مستويات جديدة مع دخول تقنيات الأتمتة الذكية القائمة على الذكاء الاصطناعي إلى الساحة. 

إذ يمكن لهذه التكنولوجيا أن تمنح المهاجمين القدرة على استغلال بيانات الاعتماد المسروقة على نطاق أوسع، مما يحول الهجمات من عمليات محدودة النطاق إلى تهديدات منهجية واسعة النطاق.

 في هذا السياق، يصبح من الضروري على المؤسسات تكثيف جهودها لتعزيز دفاعاتها على سطح الهجمات الأمنية والتركيز على إصلاح الثغرات المتعلقة بالهوية قبل أن يستغلها المهاجمون.

مقالات مشابهة

  • كيف سيغير وكلاء الذكاء الاصطناعي هجمات سرقة بيانات الاعتماد
  • الخبرات النادرة والمعادلة الجديدة في الذكاء الاصطناعي
  • عندما يلتقي الذكاء الاصطناعي والعاطفي
  • الخوارزمية الأولى: أساطير الذكاء الاصطناعي
  • الدماغ البشري يتفوّق على الذكاء الاصطناعي في حالات عدّة
  • حَوكمة الذكاء الاصطناعي: بين الابتكار والمسؤولية
  • الجزائر في طليعة تبني الذكاء الاصطناعي في إفريقيا
  • سامسونج تطلق Galaxy A56 مع دعم ميزات الذكاء الاصطناعي
  • خبراء لـ«الاتحاد»: الذكاء الاصطناعي يكافح الإرهاب والتطرف
  • سباق الذكاء الاصطناعي.. كيف يعيد التقطير رسم ملامح المنافسة بين عمالقة التكنولوجيا؟