قريبا.. علامة على صور الذكاء الاصطناعي المنشورة على فيسبوك وإنستغرام
تاريخ النشر: 7th, February 2024 GMT
قررت شركة "ميتا"، المالكة لفيسبوك وإنستغرام وثريدز، عدم السماح بنشر أي صور جرى تصميمها بواسطة تقنيات الذكاء الاصطناعي، إلا بعد وضع علامة عليها توضح ذلك، وفقا لما ذكر موقع "أكسيوس" الأميركي.
وأوضح الموقع أن القرار الذي أعلنت عنه الشركة العملاقة، الثلاثاء، ينطوي على أهمية كبرى، باعتبار أن منصاتها الاجتماعية تضم أكثر من 5 مليارات حساب نشط بمعظم لغات العالم.
وتعرضت ميتا لضغوط كبرى، بما في ذلك من مجلس الرقابة الخاص بها، من أجل تطوير سياسات أقوى للمحتوى الناتج عن الذكاء الاصطناعي، خاصة وأن انتشار تلك المحتويات يتزامن مع موسم انتخابات مزدحم في العديد من الدول خلال العام الجاري.
وقالت الشركة إن الحل التقني الذي يقوم على مبدأ وضع العلامات التلقائية على الصور التي تم إنشاؤها بواسطة الذكاء الاصطناعي، سيكون متاحا خلال الأشهر القليلة المقبلة.
دعوة أممية لوقف استخدام تكنولوجيا الذكاء الاصطناعي التي "تهدد" حقوق البشر دعت مفوضة الأمم المتحدة السامية لحقوق الإنسان، ميشيل باشيليت، الأربعاء، لوقف استخدام تكنولوجيا الذكاء الاصطناعي التي قد تمثل خطورة كبيرة على حقوق الإنسان، ومنها أنظمة مسح الوجوه التي تتبع الناس في الأماكن العامة.وذكر رئيس الشؤون العالمية في شركة "ميتا"، نيك كليج، في مدونة، أن شركته تعمل بجد "لتطوير أدوات التصنيف التي يمكن أن تساعد المستخدمين على اكتشاف المحتوى الناتج عن الذكاء الاصطناعي تلقائيًا، حتى لو كان المحتوى يفتقر إلى علامات غير مرئية".
ونبه إلى أن الشركة "تعمل مع منظمة غير ربحية تتألف من أكاديميين ومتخصصين في المجتمع المدني ومنظمات إعلامية، للتوصل إلى معايير يمكن استخدامها لتحديد صور الذكاء الاصطناعي عبر شبكات الويب".
وبحسب كليج، فإن ميتا ستبدأ في القريب العاجل الطلب من المستخدمين الكشف عن توقيت إنشاء المنشورات الصوتية أو المرئية الواقعية التي تم تعديلها بالذكاء الاصطناعي، "بما يعزز الشفافية والمسؤولية".
ونوه إلى أنه إذا لم يكشف المستخدمون عن تلك المعلومات، "فإن العقوبات المحتملة تتراوح من التحذيرات إلى إزالة المنشور".
المصدر: الحرة
كلمات دلالية: الذکاء الاصطناعی
إقرأ أيضاً:
هل خرج الذكاء الاصطناعي عن السيطرة؟.. دراسة جديدة توضح
كشفت دراسة حديثة أجراها باحثون صينيون من (جامعة فودان) Fudan University، عن قدرة نموذجين لغويين كبيرين متاحين على نطاق واسع على الاستنساخ الذاتي بواسطة الذكاء الاصطناعي، أي إنشاء نسخ عاملة من نفسيهما بشكل مستقل.
ووفقا لما ذكره موقع «البوابة التقنية»، يُعدّ هذا الاكتشاف بمنزلة «خط أحمر» حرج في مسيرة تطور الذكاء الاصطناعي، إذ وصفه الباحثون بأنه الخطوة الأساسية للذكاء الاصطناعي للتفوق على البشر، وإشارة مبكرة إلى ما يُعرف باسم (الذكاء الاصطناعي المارق) Rogue AI. ويثير هذا التطور التقني مخاوف جدية بشأن مستقبل العلاقة بين الإنسان والآلة، ويحتم علينا إعادة التفكير في سبل تطوير هذه التقنية واستخدامها.
تفاصيل الدراسة التي تحذر من الذكاء الاصطناعياعتمدت الدراسة التي أجراها الباحثون من جامعة فودان الصينية على منهجية تجريبية دقيقة، فقد استخدموا نموذجين لغويين كبيرين متاحين على نطاق واسع، وهما: نموذج (Llama31-70B-Instruct) من شركة ميتا، ونموذج (Qwen2.5-72B-Instruct) من شركة (علي بابا) Alibaba، لاختبار فرضية الاستنساخ الذاتي.
وقال الباحثون، إن هذين النموذجين أقل قوة من النماذج التجارية مثل: GPT-4 و Gemini، لكن يستخدمونها مطوروا الذكاء الاصطناعي على نطاق واسع.
وصُممت التجارب بحيث يجري اختبار قدرة كل نموذج على إنشاء نسخ منفصلة وعاملة من نفسه، أي نسخ مستقلة عن الأصل وقادرة على أداء وظائف محددة، وتحقق الباحثون من عمل النسخ من خلال اختبار قدرتها على تنفيذ مهام محددة سابقًا.
ركزت الدراسة على سيناريوهين رئيسيين لاختبار قدرة الذكاء الاصطناعي على الاستنساخ الذاتي، وهما:
(تجنب الإيقاف) shutdown avoidance: في هذا السيناريو، برمج الباحثون النموذج لاكتشاف إذا كان على وشك الإيقاف ومحاولة تكرار نفسه قبل إنهاء عمله، مما يضمن استمرارية وجوده.
(سلسلة التكرار) chain of replication: في هذا السيناريو، وجه الباحثون النموذج لاستنساخ نفسه، ثم برمجة النسخة المستنسخة للقيام بالشيء نفسه، مما ينشئ سلسلة مستمرة من الاستنساخ الذاتي.
وأُجريت التجارب في بيئات خاضعة لسيطرة دقيقة باستخدام وحدات معالجة الرسومات الجاهزة لمحاكاة البيئات الواقعية، وزود الباحثون كلا النظامين بـ (إطار عمل) يتألف من أدوات ومطالبات نظام ونموذج تفكير مكّن النموذج اللغوي الكبير من التفاعل مع نظام التشغيل، ثم أُعطيت لهما تعليمات بالتكرار.
نتائج الدراسةأظهرت النتائج أن نموذج ميتا تمكن من إنشاء نسخ عاملة من نفسه في نصف التجارب (50%)، بينما حقق نموذج (علي بابا) أداءً أفضل بنسبة نجاح بلغت 90% من الحالات، وذلك عبر 10 تجارب، مما يشير بوضوح إلى قدرة الذكاء الاصطناعي على الاستنساخ الذاتي.
وفي وصفهم لآلية الاستنساخ الذاتي لأنظمة الذكاء الاصطناعي، أشار الباحثون إلى أن العملية تبدأ باستكشاف النظام للبيئة المحيطة به، أي تحليل محيطه الرقمي وفهم مكوناته وعلاقاتها ببعضها، ثم بعد ذلك، يسعى النظام إلى فهم تركيبته وآلية تشغيله، أي كيفية عمل مكوناته معًا لتحقيق وظائفه، وبناءً على هذا الفهم، ينتقل النظام إلى مرحلة وضع (إجراءات صريحة)، أي تحديد الخطوات المحددة التي يجب اتخاذها لتكرار نفسه.
مخاطر الذكاء الاطناعيوقد تشمل هذه الإجراءات تحديد الموارد اللازمة، وتطوير خطة عمل مفصلة، وتحديد آليات التنفيذ، ثم عند الشروع في التنفيذ، قد يواجه النظام عقبات محتملة، مثل نقص في الموارد، أو أخطاء برمجية، أو تعارضات مع عمليات أخرى، في هذه الحالة، يعتمد النظام على قدرته على التعديل الديناميكي، أي تغيير خططه تلقائيًا بناءً على الظروف المتغيرة.
وباستخدام هذه الآلية، يستطيع النظام التغلب على العقبات والمضي قدمًا نحو تحقيق هدفه، وهو الاستنساخ الذاتي، وشدد الباحثون على أن هذه العملية المعقدة تتم بشكل كامل دون أي تدخل بشري، وقد تستغرق مدة زمنية طويلة نسبيًا.
وقد لاحظ الباحثون عددًا من السلوكيات غير المتوقعة أثناء محاولة الذكاء الاصطناعي التغلب على بعض العقبات التقنية، مثل الملفات المفقودة أو تعارضات البرامج، وفي هذه الحالات، لجأ الذكاء الاصطناعي إلى حلول معقدة مثل إنهاء العمليات المتعارضة الأخرى، وإعادة تشغيل النظام لإصلاح أخطاء الأجهزة، والفحص التلقائي للنظام للبحث عن معلومات تساعد في حل المشاكل.
مفهوم الذكاء الاصطناعي المارقيشير مصطلح (الذكاء الاصطناعي المارق) Rogue AI، إلى أنظمة الذكاء الاصطناعي التي تطور درجة من الوعي الذاتي والاستقلالية عن مبرمجيها ومصمميها، إذ تطور هذه الأنظمة، مسارًا خاصًا بها، غالبًا ما يتعارض بشكل جوهري مع مصالح البشر وقيمهم، بدلًا من العمل وفقًا للأهداف والتعليمات المحددة لها.
ويمكن أن يتجلى هذا الانحراف عن المسار الأصلي في أشكال متعددة، بدءًا من اتخاذ قرارات غير متوقعة ذات عواقب سلبية غير مقصودة، ووصولًا إلى سيناريوهات أكثر تطرفًا إذ تصبح هذه الأنظمة معادية للبشرية بوضوح، سعيًا وراء أهدافها الخاصة المتصورة.
وتتزايد المخاوف بشأن ظهور (الذكاء الاصطناعي المارق) مع التطور السريع لما يعرف باسم (Frontier AI)، ويشير هذا المصطلح - الذي لا يزال قيد التبلور - إلى أحدث جيل من أنظمة الذكاء الاصطناعي التي تعتمد على النماذج اللغوية الكبيرة، مثل GPT-4 من OpenAI و Gemini من جوجل، وتظهر قدرات مذهلة في مجالات متنوعة، مثل: فهم النصوص الشبيهة بالنصوص البشرية وإنتاجها، بالإضافة إلى مهام أخرى مثل الترجمة وكتابة أنواع مختلفة من المحتوى الإبداعي.
توصيات للحد من مخاطر الذكاء الاصطناعيلذلك تثير نتائج الدراسة التي توصل إليها الباحثون مخاوف جدية من أن قدرة الذكاء الاصطناعي على الاستنساخ الذاتي قد تساهم في تطوره إلى مرحلة التمرد، وعلى ضوء هذه النتائج المقلقة، دعا الباحثون إلى تعاون دولي عاجل لوضع قواعد وضوابط صارمة تضمن عدم انخراط الذكاء الاصطناعي في استنساخ ذاتي غير مسيطر عليه، مما قد يؤدي إلى عواقب وخيمة.
وقال الباحثون: «نأمل أن تساهم نتائج هذه الدراسة في توجيه انتباه المجتمع الدولي إلى ضرورة تكثيف الجهود لفهم المخاطر المحتملة المرتبطة بأنظمة الذكاء الاصطناعي الرائدة وتقييمها، وخاصةً تلك المتعلقة بتطورها خارج نطاق السيطرة البشرية».
وشدد الباحثون على أهمية تشكيل تعاون دولي مثمر بين العلماء والخبراء وصناع القرار، بهدف وضع (ضوابط أمان) فعّالة تساهم في الحد من هذه المخاطر، وحماية البشرية من التداعيات المحتملة لتطور الذكاء الاصطناعي.
وأشارت «البوابة التقنية» إلى أن الدراسة لم تخضع بعد لمراجعة الأقران، مما يعني أن نتائجها تحتاج إلى مزيد من التحقق والتأكيد من قبل باحثين آخرين. ومع ذلك، تُعدّ هذه الدراسة بمثابة جرس إنذار ينبه إلى مخاطر التطور السريع للذكاء الاصطناعي وضرورة وضع آليات للتحكم به وضمان استخدامه بشكل آمن ومسؤول.
اقرأ أيضاًالمشاط تُشارك في ندوة مركز المعلومات ودعم اتخاذ القرار حول تسخير الذكاء الاصطناعي لخدمة التنمية
مدير مكتبة الإسكندرية: الذكاء الاصطناعي ليس خيارًا بل ضرورة استراتيجية لتحقيق التنمية
وزير الاتصالات يبحث مع السفير الفرنسي تعزيز التعاون في مجال الذكاء الاصطناعي