X يقاضي كاليفورنيا لحظر المحتوى الانتخابي الخادع المصنوع بواسطة الذكاء الاصطناعي
تاريخ النشر: 16th, November 2024 GMT
يقوم X التابع لإيلون ماسك برفع دعوى قضائية ضد ولاية كاليفورنيا بشأن قانون جديد يمنع انتشار المعلومات المضللة التي يتم إنشاؤها بواسطة الذكاء الاصطناعي. أفادت بلومبرج أن X رفع دعوى قضائية ضد AB 2655، المعروف أيضًا باسم قانون الدفاع عن الديمقراطية من الخداع العميق لعام 2024، في محكمة فيدرالية بساكرامنتو.
وقع حاكم ولاية كاليفورنيا جافين نيوسوم على مشروع القانون ليصبح قانونًا في 17 سبتمبر، مما أدى إلى إنشاء معايير المساءلة لاستخدام خطاب سياسي كاذب مزيف ببرامج الذكاء الاصطناعي بالقرب من الانتخابات. يمنع التشريع توزيع "وسائل الإعلام السمعية أو المرئية الخادعة ماديًا لمرشح في غضون 60 يومًا من الانتخابات التي سيظهر فيها المرشح على الباليه".
يزعم X أن القانون سيخلق المزيد من الرقابة على الخطاب السياسي. تقول الشكوى إن التعديل الأول "يتضمن التسامح مع الخطاب الكاذب المحتمل الذي يتم الإدلاء به في سياق مثل هذه الانتقادات".
وقع نيوسوم على مشروع قانون AB 2655 ليصبح قانونًا كجزء من حزمة كبيرة من مشاريع القوانين التي تعالج المخاوف بشأن استخدام الذكاء الاصطناعي لإنشاء مقاطع فيديو جنسية صريحة ومواد خادعة أخرى. في اليوم التالي، أصدر قاضٍ فيدرالي أمرًا قضائيًا أوليًا ضد القانون ومشاريع قوانين أخرى من توقيع نيوسوم.
أصبحت كاليفورنيا واحدة من مراكز النقاش حول استخدام وتنفيذ الذكاء الاصطناعي. دفعت المخاوف بشأن استخدام الذكاء الاصطناعي في مشاريع الأفلام والتلفزيون، من بين قضايا أخرى، نقابة ممثلي الشاشة ورابطة ممثلي التلفزيون إلى الإضراب في عام 2023.
توصلت نقابة ممثلي الشاشة في النهاية إلى اتفاق تضمن حماية الذكاء الاصطناعي للممثلين ومنع الاستوديوهات من استخدام صورهم دون إذن أو تعويض مناسب. في العام التالي، أقرت ولاية كاليفورنيا مشروع قانون AB 2602، وهو قانون يجعل من غير القانوني للاستوديوهات والناشرين واستوديوهات ألعاب الفيديو استخدام صورة شخص ما دون إذنه.
المصدر: بوابة الوفد
كلمات دلالية: الذکاء الاصطناعی
إقرأ أيضاً:
هل يجعلنا الذكاء الاصطناعي أقل ذكاءً؟
توصلت دراسة حديثة أجراها باحثون من مايكروسوفت وجامعة كارنيغي ميلون إلى أن استخدام الذكاء الاصطناعي التوليدي في العمل قد يؤثر سلبًا على مهارات التفكير النقدي لدى المستخدمين وفق موقع "تيك كرنش".
انحسار التفكير النقدي
تشير الدراسة إلى أنه عندما يعتمد الأشخاص على الذكاء الاصطناعي، فإن تركيزهم يتحول إلى التحقق من صحة إجابات الذكاء الاصطناعي بدلاً من ممارسة مهارات التفكير النقدي العليا، مثل التحليل والتقييم والإبداع. ويحذر الباحثون من أن هذا النمط قد يؤدي إلى تآكل القدرات العقلية بمرور الوقت، مما يجعل الأفراد أقل استعدادًا لحل المشكلات المعقدة عند فشل الذكاء الاصطناعي.
أنماط استخدام الذكاء
في الدراسة التي شملت 319 مشاركًا يستخدمون الذكاء الاصطناعي التوليدي أسبوعيًا في العمل، طُلب منهم مشاركة ثلاثة أمثلة على كيفية استخدامهم له. تم تصنيف استخداماتهم إلى ثلاث فئات رئيسية: الإبداع (مثل كتابة رسائل بريد إلكتروني رسمية)، الحصول على المعلومات (مثل البحث أو تلخيص المقالات)، وطلب المشورة (مثل الحصول على إرشادات أو إنشاء رسوم بيانية من البيانات). بعد ذلك، سُئلوا عمّا إذا كانوا يمارسون مهارات التفكير النقدي أثناء أداء هذه المهام، وما إذا كان الذكاء الاصطناعي يجعلهم يبذلون جهدًا أكبر أو أقل في التفكير النقدي.
أفاد حوالي 36% من المشاركين أنهم استخدموا التفكير النقدي للتأكد من عدم وقوع أخطاء بسبب الذكاء الاصطناعي. على سبيل المثال، ذكرت إحدى المشاركات أنها استخدمت شات جي بي تي لكتابة مراجعة أداء لموظف، لكنها راجعت النص بعناية خوفًا من إرسال شيء قد يتسبب في تعليقها عن العمل.
بينما قال مشارك آخر إنه كان يضطر إلى تعديل رسائل البريد الإلكتروني التي أنشأها الذكاء الاصطناعي قبل إرسالها إلى رئيسه، الذي ينتمي إلى ثقافة تهتم بالتسلسل الهرمي والاحترام، لتجنب ارتكاب خطأ اجتماعي.
اقرأ أيضاً.. اختبار جديد يكشف حدود التفكير المنطقي للذكاء الاصطناعي.. وهذه هي المفاجآت!
التحقق لا يكفي
كما أظهرت الدراسة أن العديد من المشاركين كانوا يتحققون من صحة إجابات الذكاء الاصطناعي باستخدام مصادر أخرى مثل ويكيبيديا ويوتيوب، مما يشير إلى أنهم لا يثقون به تمامًا وقد يكونون بذلك يعيدون الجهد الذي يفترض أن يوفره لهم.
اقرأ ايضاً.. هل يتفوق "O3" على البشر؟ قفزة جديدة تُعيد تعريف الذكاء الاصطناعي
فهم الحدود ضروري
ويشير الباحثون إلى أن القدرة على تعويض نقاط ضعف الذكاء الاصطناعي تتطلب فهمًا واضحًا لحدوده. لكن الدراسة وجدت أن المستخدمين الذين لديهم ثقة عالية في الذكاء الاصطناعي بذلوا جهدًا أقل في التفكير النقدي مقارنةً بمن يثقون أكثر بقدراتهم الشخصية.
ورغم أن الدراسة لا تجزم بأن أدوات الذكاء الاصطناعي التوليدي تجعلنا أقل ذكاءً، فإنها توضح أن الإفراط في الاعتماد عليها يمكن أن يضعف قدرتنا على حل المشكلات بشكل مستقل.