تحاول كاليفورنيا -حيث تقع سيليكون فالي التي تتمركز فيها شركات تكنولوجية كثيرة- فرض قيود على الذكاء الاصطناعي، مستلهمةً من القواعد التنظيمية الأوروبية، بحسب ما أوردته وكالة الأنباء الفرنسية.

وكان البرلمان الأوروبي أقرّ في منتصف مارس/آذار قانونا ينظم نماذج الذكاء الاصطناعي ويحدد قيودا في ما يخص الشفافية وحقوق الملكية الفكرية وحماية الخصوصية.

ويقول ديفيد هاريس، وهو مستشار في مشروع "كاليفورنيا إنيشيتيف فورتكنولوجي آند ديموكراسي": "نحاول التعلم من الأوروبيين والعمل معهم لفهم كيفية تحديد قواعد للذكاء الاصطناعي".

وتسعى هذه المنظمة إلى حماية الانتخابات من إساءة استخدام التقنيات الناشئة.

ورُفع أكثر من 30 مشروع قانون إلى برلمان كاليفورنيا، بحسب هاريس الذي يقول إن مسؤولين أميركيين وأوروبيين استشاروه في شأن هذا الموضوع.

وتتناول النصوص المرفوعة إلى برلمان كاليفورنيا جوانب عدة من الذكاء الاصطناعي.

ويقترح أحد القوانين إجبار شركات التكنولوجيا على الكشف عن البيانات التي استخدمتها لابتكار نماذج الذكاء الاصطناعي.

ويشير اقتراح آخر إلى حظر إعلانات الحملات الانتخابية التي تستخدم بطريقة أو بأخرى الذكاء الاصطناعي التوليدي الذي يتيح إنشاء محتوى (نص، صورة، صوت) استنادا إلى طلب بسيط بلغة شائعة.

ويريد عدد من النواب التأكد من إقدام شبكات التواصل الاجتماعي على الإبلاغ عن أي محتوى أو صورة أو شريط فيديو أو مقطع صوتي أُنشئ باستخدام الذكاء الاصطناعي التوليدي.

وأظهر استطلاع للرأي أجرته في أكتوبر/تشرين الأول جامعة بيركلي وشمل ناخبين في كاليفورنيا أن 73% منهم يؤيدون قوانين مكافحة المعلومات المضللة أو التزييف العميق (ديب فايك) والحد من استخدام الذكاء الاصطناعي خلال الحملات الانتخابية.

وهذه المسألة هي من المواضيع القليلة التي يُجمِع عليها الجمهوريون والديمقراطيون.

أحد القوانين يقترح إجبار شركات التكنولوجيا على الكشف عن البيانات التي استخدمتها لابتكار نماذج الذكاء الاصطناعي (شترستوك) "متقدّمون"

يرى ديفيد هاريس أن المخاوف الناجمة عن "التزييف العميق" والنصوص المزيفة المولدة بواسطة الذكاء الاصطناعي تشكّل إحدى أهم المسائل.

وتدعم غايل بيليرين، وهي نائبة ديمقراطية من دائرة انتخابية تضم قسما من سيليكون فاليه، مشروع قانون يحظر "التزييف العميق" المرتبط بالمسائل السياسية خلال الأشهر الثلاثة التي تسبق الانتخابات.

وتقول "إن الجهات الفاعلة سيئة النية التي تستخدم هذه التكنولوجيا تحاول إحداث فوضى في الانتخابات".

وتحذر نقابة "نِت تشويس" المهنية التي تمثل الشركات الرقمية، من استيراد قواعد الاتحاد الأوروبي إلى كاليفورنيا.

ويقول كارل زابو، المدير القانوني للمنظمة التي تناضل من أجل اعتماد قوانين تنص على عقوبات محدودة، "إنهم يتبنون النهج الأوروبي في التعامل مع الذكاء الاصطناعي، والذي يريد حظر هذه التكنولوجيا".

ويؤكد المحامي أن "حظر الذكاء الاصطناعي لن يوقف أي شيء"، مضيفا: "إنها فكرة سيئة، لأن الجهات الفاعلة سيئة النية لا تحترم القوانين".

أما المدير القانوني لناشر برمجيات "أدوبي" دانا راو، فيظهر اعتدالا أكبر.

ويرحب بالفصل الذي اعتمده الاتحاد الأوروبي بين الذكاء الاصطناعي ذي التأثير المحدود والذي يشمل "التزييف العميق" والنصوص المزيفة، والذكاء الاصطناعي "عالي الخطورة" والمستخدم خصوصا في الهياكل الأساسية الحيوية أو في إنفاذ القانون.

ويقول دانا راو "إن النسخة النهائية من النص تناسبنا".

وتشير "أدوبي" إلى أنها بدأت أصلا تجري دراسات لتقييم المخاطر المرتبطة بالمنتجات الجديدة القائمة على الذكاء الاصطناعي.

ويضيف راو: "ينبغي إيلاء اهتمام بالسلامة النووية والأمن السيبراني وفي كل المرات التي يتخذ فيها الذكاء الاصطناعي قرارات مهمة تتعلق بحقوق الإنسان".

وبالتعاون مع منظمة "كواليشن فور كونتنت بروفننس آند اوثنتيسيتي" التي تضم من بين أعضائها "مايكروسوفت" و"غوغل"، وضعت "أدوبي" سلسلة من بيانات التعريف التي توفر معلومات في شأن إعداد صورة ومحتواها.

ويسعى النوّاب في كاليفورنيا إلى أن يكونوا في طليعة الجهات التي تعمل على تنظيم الذكاء الاصطناعي، على غرار شركات الولاية الساعية إلى تطوير هذه التكنولوجيا.

وتقول غايل بيليرين إن "الناس يراقبون ما يحدث في كاليفورنيا".

وتضيف: "إنها حركة تعنينا جميعا. نحن بحاجة إلى أن نبقى متقدمين على مَن يريدون إحداث فوضى في الانتخابات".

المصدر: الجزيرة

كلمات دلالية: رمضان 1445 هـ حريات الذکاء الاصطناعی التزییف العمیق

إقرأ أيضاً:

صناعة الأوهام.. كيف تستغل الدول الذكاء الاصطناعي في أجندتها الإعلامية؟

في نوفمبر/تشرين الثاني الماضي أطلقت أولغا لويك -وهي طالبة من أوكرانيا تدرس في جامعة بنسلفانيا- قناتها الشخصية على منصة يوتيوب.

لم تحصل أولغا على الجمهور الذي كانت تنتظره، لكنها بعد فترة وجيزة من إطلاق القناة وجدت أن معظم جمهورها يأتي من منصات التواصل الاجتماعي في الصين، والأهم أنها لم تكن هي من تظهر في مقاطع الفيديو، بل كانت نسخة من صورتها نسجها الذكاء الاصطناعي، كما أشار تقرير لرويترز.

كانت شبيهاتها الرقميات مثل "ناتاشا" يدعين أنهن نساء روسيات يتقن اللغة الصينية بطلاقة ويشكرن الصين على دعمها لروسيا ضد الغرب، ويحاولن كسب بعض الأموال عبر بيع منتجات مثل الحلوى الروسية.

والمثير للدهشة أكثر أن تلك الحسابات الوهمية امتلكت مئات الآلاف من المتابعين في الصين، أكثر بكثير من متابعي أولغا نفسها على منصة يوتيوب.

وتمثل تلك الواقعة نموذجا لعدد كبير مما يبدو للوهلة الأولى أنهن فتيات روسيات على وسائل التواصل الاجتماعي في الصين يعبرن عن حبهن لها باللغة الصينية بطلاقة ويذكرن أنهن يسعين إلى دعم روسيا في الحرب من خلال بيع الواردات من وطنهن الأم، ولكن لا وجود لأي منهن.

ويذكر الخبراء أن صور تلك الفتيات مولدة بالذكاء الاصطناعي عبر انتحال وسرقة مقاطع لنساء حقيقيات على الإنترنت، وغالبا دون علمهن، وتُستخدم مقاطع الفيديو المزيفة للترويج لمنتجات للرجال في الصين، وفقا لتقرير رويترز.

ويذكر جيم تشاي الرئيس التنفيذي لشركة "إكسموف" -وهي شركة تعمل على تطوير تقنيات الذكاء الاصطناعي- أن تقنية إنتاج مثل تلك الصور أصبحت "شائعة للغاية لأن كثيرين يستخدمونها في الصين".

وعلى نطاق أوسع، لفتت تلك الواقعة الانتباه إلى مخاطر تقنيات الذكاء الاصطناعي التي تتطور بوتيرة متسارعة للغاية، فقد ازدادت المخاوف بشأن مساهمة الذكاء الاصطناعي في نشر المعلومات المضللة والأخبار المزيفة والاستخدام في نشر السرديات الموجهة أو في الدعاية الإعلامية خلال الأشهر الماضية، وسط تزايد انتشار أنظمة الذكاء الاصطناعي التوليدي مثل روبوت المحادثة "شات جي بي تي".

زاد انتشار أنظمة الذكاء الاصطناعي التوليدي مثل روبوت المحادثة "شات جي بي تي" (شترستوك) مكسب الكاذب

تستعين الحكومات والأطراف والجهات السياسية المؤثرة في مختلف دول العالم -سواء في الأنظمة الديمقراطية أو السلطوية- بالذكاء الاصطناعي لتوليد النصوص والصور والفيديو بهدف توجيه الرأي العام لصالحها ولفرض رقابة آلية على المحتوى المنتقد لها على الإنترنت.

وفي التقرير السنوي -الذي صدر في أكتوبر/تشرين الأول العام الماضي- وثق الباحثون في منظمة فريدوم هاوس -وهي إحدى منظمات الدفاع عن حقوق الإنسان- استخدام الذكاء الاصطناعي التوليدي في 16 دولة "لزرع الشك أو تشويه سمعة المعارضين أو التأثير على الحوار العام".

وقد توصل التقرير إلى أن حرية الإنترنت العالمية انخفضت للعام الـ13 على التوالي مدفوعة جزئيا بانتشار تقنيات الذكاء الاصطناعي.

ويذكر الباحثون أن واحدة من أهم النتائج التي توصلوا إليها تتعلق بتغير أسلوب استخدام الحكومات الذكاء الاصطناعي، ومع تطور تلك التقنيات بصورة متزايدة تواصل جهات سياسية استغلالها لتضخيم المعلومات المضللة لتخدم مصالحها.

ورغم أن تلك التطورات ليست مفاجئة بالضرورة فإن إحدى أكثر النتائج إثارة للاهتمام هي أن سهولة الوصول إلى الذكاء الاصطناعي التوليدي على نحو واسع النطاق قد تضعف الثقة في الحقائق التي يمكن إثباتها، وفقا للتقرير.

ومع انتشار المحتوى الذي يولده الذكاء الاصطناعي على الإنترنت بصورة طبيعية قد يسمح هذا للجهات السياسية بالتشكيك في المعلومات الموثوقة والحقيقية، وهي ظاهرة تعرف بـ"مكسب الكاذب"، إذ يؤدي الحذر من التزييف إلى زيادة تشكك الجمهور في المعلومات الصحيحة، خاصة في أوقات الأزمات أو الصراعات السياسية عندما تتفشى المعلومات الكاذبة.

الذكاء الاصطناعي يسهل المهمة

تعمل تقنيات الذكاء الاصطناعي على أتمتة صناعة الأخبار المضللة، مما أدى إلى انفجار في محتوى المواقع على شبكة الإنترنت الذي يحاكي مقالات حقيقية لكنها تنشر في المقابل معلومات كاذبة عن الانتخابات والحروب والكوارث الطبيعية.

وخلال العام الماضي ازدادت المواقع التي تنشر مقالات مضللة من إنتاج الذكاء الاصطناعي بأكثر من 1000%، إذ ارتفع عددها من 49 موقعا إلى أكثر من 600 موقع، وفقا لتقرير من منظمة "نيوز غارد" التي تتعقب المعلومات المضللة.

ومن الناحية التاريخية، اعتمدت عمليات الدعاية على جيوش من العاملين بأجور منخفضة أو منظمات استخباراتية شديدة التنسيق لإنشاء مواقع على الإنترنت تبدو كأنها حقيقية.

لكن تقنيات الذكاء الاصطناعي تسهّل على أي شخص تقريبا -سواء كان جزءا من وكالة تجسس أو مجرد مراهق في قبو منزله- إنشاء تلك المواقع وإنتاج محتوى يصعب أحيانا التفرقة بينه وبين الأخبار الحقيقية.

كما أظهرت تجارب في ورقة بحثية جديدة صدرت في فبراير/شباط الماضي أن النماذج اللغوية بإمكانها توليد نصوص مقنعة للجمهور الأميركي بنفس درجة إقناع المحتوى الناتج من حملات الدعاية الخارجية السرية الحقيقية.

كما أن إستراتيجيات العمل المشترك بين الإنسان ونماذج الذكاء الاصطناعي مثل تعديل التوجيهات لروبوت المحادثة وتنسيق النتائج أسفرت عن مقالات مقنعة بقدر الدعاية الأصلية أو أكثر إقناعا منها.

وتشير شركة "أوبن إيه آي" المطورة لروبوت المحادثة "شات جي بي تي" إلى أنها تملك الآن أكثر من 100 مليون مستخدم نشط أسبوعيا، وتعمل أدواتها على تسهيل وسرعة إنتاج كم ضخم من المحتوى، كما يمكن استخدامها لإخفاء الأخطاء اللغوية وتوليد تفاعل وهمي.

الحكومات والجهات السياسية المؤثرة في مختلف دول العالم تستعين بالذكاء الاصطناعي لتوليد النصوص والصور والفيديو (شترستوك) حملات سرية للتأثير

في نهاية مايو/أيار الماضي كشفت شركة "أوبن إيه آي" عن 5 عمليات سرية من روسيا والصين وإيران وإسرائيل استخدمت فيها تلك الدول تقنيات الذكاء الاصطناعي الخاصة بالشركة بغرض التأثير على الرأي العام العالمي، وذكرت الشركة أنها تمكنت من إيقافها، وفقا لما ذكرته صحيفة تايم.

وأوضحت الشركة في تقريرها الجديد كيف استخدمت هذه المجموعات -التي يرتبط بعضها بحملات دعائية معروفة- تقنيات الشركة في العديد من "الأنشطة المضللة"، وشملت تلك الأنشطة إنتاج تعليقات ومقالات وصور على وسائل التواصل الاجتماعي بلغات عدة، بالإضافة إلى ابتكار أسماء ونبذات تعريفية لحسابات وهمية، وتعديل الأكواد البرمجية، إلى جانب ترجمة النصوص وتدقيقها لغويا.

وركزت هذه العمليات على مجموعة من القضايا، منها الدفاع عن الحرب الدائرة على قطاع غزة والغزو الروسي لأوكرانيا، وتوجيه الانتقادات لمعارضي الحكومة الصينية، بالإضافة إلى نشر تعليقات بشأن السياسات في الهند وأوروبا والولايات المتحدة في إطار محاولاتها للتأثير على الرأي العام هناك.

وكشفت الأمثلة التي أوردها محللو "أوبن إيه آي" كيف تستخدم تلك الجهات تقنيات الذكاء الاصطناعي في نفس أنواع عمليات التأثير على الإنترنت التي تنفذها منذ عقد من الزمان، وتركز هذه الجهات على استخدام الحسابات والتعليقات والمقالات المزيفة بهدف التأثير على الرأي العام والتلاعب بالنتائج السياسية.

وكتب الباحث المسؤول عن فريق الاستخبارات والتحقيقات في "أوبن إيه آي" في التقرير "تكشف هذه التوجهات عن ساحة تهديدات تتسم بالتطور وليس الثورية، تستخدم تلك الجهات منصتنا لتحسين جودة محتواها والعمل بكفاءة أكبر".

وعلى سبيل المثال، أوضح تقرير الشركة بالتفصيل كيف استخدمت الشركة الإسرائيلية "ستويك" -وهي شركة للتسويق السياسي في تل أبيب- أدوات "أوبن إيه آي" لتوليد محتوى مؤيد لإسرائيل بشأن حرب الإبادة الدائرة على قطاع غزة.

واستهدفت تلك الحملة -التي كانت باسم "زيرو زينو"- الجمهور في الولايات المتحدة وكندا وإسرائيل، كما ذكرت شركة ميتا أنها حذفت 510 حسابات على فيسبوك و32 حسابا على إنستغرام ارتبطت بنفس الشركة الإسرائيلية.

وكانت مجموعة الحسابات المزيفة -التي تضمنت حسابات لأشخاص يتظاهرون بأنهم أميركيون من أصل أفريقي وطلاب في الولايات المتحدة وكندا- غالبا ترد على شخصيات بارزة أو مؤسسات إعلامية في منشورات تشيد بإسرائيل وتنتقد معاداة السامية في الجامعات الأميركية وتندد بتيارات "الإسلام الراديكالية".

وبحسب تقرير "أوبن إيه آي"، يبدو أن تلك الحملة قد فشلت في الوصول إلى أي تفاعل يذكر معها.

كما استخدمت إحدى حملات التأثير الروسية التي أوقفتها الشركة وأطلقت عليها اسم "قواعد سيئة" نماذج الذكاء الاصطناعي الخاصة بها لتصحيح الأكواد البرمجية لتشغيل روبوت على تطبيق تليغرام يتولى عملية نشر تعليقات سياسية قصيرة باللغتين الإنجليزية والروسية، وتقول الشركة إن العملية استهدفت أوكرانيا ومولدوفا والولايات المتحدة ودول البلطيق.

واستخدمت عملية روسية أخرى تعرف باسم "دوبلغنغر" وربطتها وزارة الخزانة الأميركية بالكرملين نماذج "أوبن إيه آي" لتوليد عناوين الأخبار وتحويل المقالات الصحفية إلى منشورات على فيسبوك، بالإضافة إلى كتابة التعليقات باللغات الإنجليزية والفرنسية والألمانية والإيطالية والبولندية.

كما استغلت شبكة صينية معروفة -وهي شبكة "سباموفلاغ" أدوات "أوبن إيه آي" للبحث في أنشطة وسائل التواصل الاجتماعي، وتوليد نصوص باللغات الصينية والإنجليزية واليابانية والكورية نشرت عبر منصات مختلفة، منها "إكس"، و"ميديم"، و"بلوغسبوت".

مقالات مشابهة

  • آبل تتجه لدمج جيمينى لنظام التشغيل iOS 18
  • «الذكاء الاصطناعي» يدخل عصر «الروبوتات القاتلة»
  • الوزير السكوري يدعو الفاعلين بالمغرب لاعتماد "نهج استباقي" في مجال الذكاء الاصطناعي
  • الصين تتصدر براءات الإختراع في مجال الذكاء الاصطناعي التوليدي عالميًا
  • الاتحاد الأوروبي يُعرب عن قلقه العميق حيال أوامر إسرائيل بإجلاء المدنيين من خان يونس
  • «الاتحاد الأوروبي» يُعرب عن قلقه العميق حيال أوامر إسرائيل بإجلاء المدنيين من خان يونس
  • ثورة الذكاء الاصطناعي.. تأثير اقتصادي مخيب للآمال
  • صناعة الأوهام.. كيف تستغل الدول الذكاء الاصطناعي في أجندتها الإعلامية؟
  • قراصنة يخترقون الذكاء الاصطناعي
  • آبل تفتقر للشفافية فيما يتعلق ببيانات Apple Intelligence