فنانون يحمون أعمالهم من الذكاء الاصطناعي بالتكنولوجيا
تاريخ النشر: 26th, December 2023 GMT
في ظل استغلال بعض مبتكري برامج الذكاء الاصطناعي البيانات بصورة كبيرة، يعمل عدد من الفنانين بمساعدة باحثين جامعيين على إدخال تغييرات إلى أعمالهم حتى تُصبح غير قابلة للاستخدام.
بالوما ماكلين رسامة أميركية. وبدأت برامج كثيرة للذكاء الاصطناعي التوليدي توفر أصلاً إمكان ابتكار صور مستوحاة من أسلوب عملها، مع أنّ الفنانة لم توافق على ذلك ولا تستفيد منه مالياً.
وتقول الرسامة المقيمة في هيوستن، "أنزعج من ذلك"، مضيفةً "أنا لست فنانة مشهورة، لكنني انزعجت من فكرة استخدام أعمالي لتدريب" نماذج للذكاء الاصطناعي.
وسعياً إلى الحد من استغلال أعمالها، استعانت ماكلين ببرنامج "غليز" لإضافة عناصر بكسل غير المرئية للعين المجردة إلى أعمالها، بهدف تعطيل عمل الذكاء الاصطناعي.
وبعد خطوتها هذه، باتت الصور التي يتم إنشاؤها غير واضحة.
يقول بن تشاو، وهو باحث في جامعة شيكاغو أنشأ فريقه برنامج "غليز"، "نحاول توفير الأدوات التكنولوجية لحماية المبتكرين من إساءة استخدام نماذج الذكاء الاصطناعي التوليدية".
وابتكر هذا الأستاذ في علوم الكمبيوتر برنامج "غليز" في أربعة أشهر فقط، مستعيناً بأعمال سابقة ترمي إلى تعطيل تقنية التعرف على الوجوه.
يقول بن تشاو "عملنا بأقصى سرعة، لأننا كنا ندرك أنّ المشكلة خطرة"، مضيفاً "كانت نسبة كبيرة من الناس متضررة".
وأبرمت شركات كبرى متخصصة في الذكاء الاصطناعي التوليدي صفقات لضمان الحقوق المرتبطة باستخدام محتوى معين، إلا أنّ غالبية البيانات والصور والنصوص والأصوات المستخدمة لابتكار النماذج استُخدمت من دون الحصول على موافقة صريحة.
وجرى تحميل "غليز" منذ إطلاقه أكثر من 1,6 مليون مرة، بحسب الباحث الذي يستعد فريقه لإطلاق برنامج جديد هو "نايت شايد".
يركز "غليز" على الطلبات التي تكون لغتها بسيطة وعادة ما يستعين بها المستخدم في نماذج الذكاء الاصطناعي التوليدي للحصول على صورة جديدة.
ويرمي إلى تعطيل عمل الخوارزمية التي تقترح فوراً احتمالاً آخر كابتكار صورة قط بدل صورة كلب.
حماية البيانات الصوتية
ثمة مبادرة أخرى في هذا الخصوص خاصة بشركة "سبانينغ" التي ابتكرت برنامج "كودورو" الذي يرصد المحاولات الكبيرة لجمع الصور عبر المنصات المتخصصة.
ويمكن للفنان إما وقف إتاحة أعماله أو إرسال صورة غير تلك المطلوبة، وهو ما يشكل "تسميماً" لنموذج للذكاء الاصطناعي قيد الابتكار والتأثير على مدى موثوقيته، حسب جوردان ماير، المشارك في تأسيس "سبانينغ".
وتم دمج أكثر من ألف موقع الكتروني في شبكة "كودورو".
وابتكرت شركة "سبانينغ" أيضاً "هاف آي بِن ترايند" (haveibeentrained.com)، وهو موقع يرصد ما إذا كان نموذج للذكاء الاصطناعي استعان بصور ويمنح مالك هذه الصور القدرة على حمايتها من أي استخدام مستقبلي لا يحظى بموافقته.
وبالإضافة إلى الصور، ركّز باحثون من جامعة واشنطن في سانت لويس، على بيانات صوتية وابتكروا "أنتي فايك".
يضيف هذا البرنامج إلى ملف صوتي أصواتاً إضافية غير محسوسة للأذن البشرية، مما يجعل تقليد الصوت البشري أمرا مستحيلا، بحسب ما يوضح تشييوان يو، وهو طالب دكتوراه مسؤول عن فكرة هذا المشروع.
ويرمي البرنامج تحديداً إلى منع ما يُسمى بـ"التزييف العميق"، وهي تلاعبات رقمية تتزايد نسبتها وقربها من الواقع.
وأخيراً، تواصل منتجو بودكاست ناجح يرغبون في حمايته من أي استخدام سيء، مع الفريق الذي يشرف عليه البروفيسور نينغ تشانغ، بحسب تشييوان يو.
ومع أنّ "أنتي فايك" لم يُستخدم حتى الآن سوى في مجال اللغة، يمكن أن يوفر حماية لأصوات المطربين والمطربات، على قول الباحث.
وقد تواصلت "شركات كثيرة راغبة في استخدام نايت شايد لحفظ صورها وملكيتها الفكرية"، مع فريق بن تشاو، بحسب جامعة شيكاغو.
يقول بن تشاو إنّ "الهدف يكمن في أن يتمكن الأشخاص من حماية المحتوى الخاص بهم، سواء كانوا فنانين أو شركات تتمتع بقدر كبير من الملكية الفكرية".
في حالة "سبانينغ"، لا تقتصر الفكرة على العرقلة فحسب، بل بـ"جعل الناس قادرين على بيع بياناتهم لقاء مبالغ"، وفق ماير الذي أعلن عن إطلاق منصة في مطلع العام 2024.
ويتابع "إن الحل الأفضل هو الوصول إلى عالم تخضع فيه كل البيانات المستخدمة في الذكاء الاصطناعي لموافقة المعنيين والدفع مقابل استخدام أعمالهم. ونأمل أن ننجح في دفع المطورين في هذا الاتجاه".
المصدر: سكاي نيوز عربية
كلمات دلالية: ملفات ملفات ملفات الذكاء الاصطناعي التوليدي جامعة واشنطن التزييف العميق الذكاء الاصطناعي خطر الذكاء الاصطناعي الأعمال الفنية الذكاء الاصطناعي التوليدي جامعة واشنطن التزييف العميق تكنولوجيا الذکاء الاصطناعی للذکاء الاصطناعی
إقرأ أيضاً:
لماذا كتبتُ بيان شفافية حول الذكاء الاصطناعي لكتابي؟
«من أين تجد الوقت؟» - لسنوات طويلة، عندما كنتُ أُعلن لأصدقائي عن صدور كتاب جديد لي، كنتُ أستقبل هذا السؤال كوسام فخر.
خلال الأشهر الماضية، أثناء الترويج لكتابي الجديد عن الذكاء الاصطناعي «إلهيّ الملامح* (God-Like)، حاولتُ ألّا أسمع في الكلمات ذاتها نبرة اتهام خفيّة: «من أين تجد الوقت؟» -أي أنّك لا بدّ استعنتَ بـ ChatGPT، أليس كذلك؟
الواقع أنّ مقاومة المساعدة من الذكاء الاصطناعي أصبحت أصعب فأصعب. مُعالج الكلمات الذي أستخدمه صار يعرض عليّ صياغة الفقرة التالية، أو تنقيح التي سبقتها.
عملي في مؤسسة بحثيّة تستكشف آثار الذكاء الاصطناعي في سوق العمل البريطاني يجعلني أقرأ يوميا عن تبعات هذه الثورة التقنيّة على كل مهنة تقريبا. وفي الصناعات الإبداعيّة، يَظهر الأثر بالفعل بصورة هائلة.
لهذا السبب، وبعد أن انتهيتُ من الكتاب، أدركتُ أنّ أصدقائي كانوا مُحقّين: يجب أن أواجه السؤال الحتمي مباشرة وأُقدّم إفصاحا كاملا. احتجتُ إلى «بيان شفافية حول الذكاء الاصطناعي» يُطبع في صدر كتابي.
بحثتُ في الإنترنت متوقعا أن أجد نموذجا جاهزا؛ فلم أجد شيئا. فكان عليّ أن أضع قالبا بنفسي. قرّرتُ أن يشمل الإفصاح أربع نقاط رئيسيّة:
1- هل وُلد أي نصّ باستخدام الذكاء الاصطناعي؟
2- هل جرى تحسين أي نصّ عبر الذكاء الاصطناعي؟ - مثل اقتراحات «غرامرلي» لإعادة ترتيب الجمل.
3- هل اقترح الذكاء الاصطناعي أي نص؟ ـ على غرار طلب مخطَّط من ChatGPT أو استكمال فقرة استنادا إلى ما سبق.
4- هل صُحِّح النصّ بواسطة الذكاء الاصطناعي؟ وإذا كان كذلك، فهل قُبلت الاقتراحات اللغوية أم رُفضت بعد مراجعة بشرية؟
بالنسبة لكتابي، جاءت الإجابات: 1) لا، 2) لا، 3) لا، 4) نعم – مع اتخاذ قرارات يدوية بشأن ما أقبله أو أرفضه من تصحيحات إملائية ونحويّة. أعترف بأنّ هذا النموذج ليس كاملا، لكنّي أقدّمه أساسا يمكن تطويره، على غرار رخصة «كرييتف كومونز» في عالم الحقوق الرقمية.
أردتُ أن أضمّنه لتعزيز نقاش صريح حول الأدوات التي يستخدمها الناس، لا سيّما أنّ الأبحاث تبيّن أنّ كثيرا من استعمالات الذكاء الاصطناعي تتمّ خِفية. ومع تصاعد ضغط العمل، يخشى البعض إبلاغ رؤسائهم أو زملائهم أنّهم يعتمدون أدوات تُسرِّع بعض المهام وتمنحهم فسحة للتنفّس.. وربّما وقتا للإبداع. فإذا كان ما يدّعيه إيلون ماسك صحيحًا ـ بأنّ الذكاء الاصطناعي سيُحلّ «مشكلة العمل» ويُحرّرنا لنزدهر ونبدع ـ فنحن بحاجة إلى الشفافية منذ الآن.
لكن، بصفتي كاتبا يعتزّ بمهنته، أردتُ كذلك بيان الشفافية بسبب لقاء ترك في نفسي قلقا عميقا. اجتمعتُ مع شخص يعمل لدى جهة تنظّم ورشا وملتقيات للكتابة، وسألتُه: كيف تفكّرون في التعامل مع شبح الكتابة التوليدية؟ فأجاب: «أوه، لا نرى أنّ علينا القلق من ذلك».
وأنا أعتقد أنّنا بحاجة ماسّة للقلق. إلى أن نمتلك آلية حقيقية لاختبار أصل النص ـ وهو أمر بالغ الصعوبة ـ نحتاج على الأقل وسيلة تُمكّن الكتّاب من بناء الثقة في أعمالهم بالإفصاح عن الأدوات التي استخدموها.
ولكي أكون واضحا: هذه الأدوات مدهشة ويمكن أن تُصبح شرارة شراكة إبداعيّة. ففي أغسطس 2021 نشرت فاوهيـني فـارا مقالة في مجلة The Believer كتبتها بمساعدة نسخة مبكرة من ChatGPT، فجاءت قطعة عميقة ومبتكرة عن وفاة شقيقتها. بيان الشفافية الخاص بها سيختلف عن بياني، لكن ذلك لا ينتقص من عملها، بل يفتح أفقا لإمكانات خَلّاقة جديدة.
عندما نستثمر وقتا في قراءة كتاب، فإنّنا ندخل علاقة ثقة مع الكاتب. والحقيقة أنّ قلّة من أصحاب شركات التقنية تلاعبوا بفعل بروميثيوس ومنحوا هدية اللغة للآلات مجانًا، وهو ما قوّض تلك الثقة التاريخيّة. لا أشك أنّ ذكاء اصطناعيا سيؤلّف عمّا قريب كتابًا «رائعًا» – لكن هل سيهتمّ أحد؟ سيكون التصفيق فاتِرًا. سيُشبه ألماسة مختبرية بلا شوائب: حيلة مُتقنة، نعم، لكنها ليست فنا.
في هذا الواقع الجديد، يقع على عاتق الكُتّاب أن يُثَبّتوا ثقة القارئ في «أصالة جواهرهم» عبر الشفافية حيال الكيفيّة التي نُقّبت بها تلك الجواهر. تجاهُل السؤال بدعوى أنّ الكتابة حِرفة نبيلة لا تستدعي إجراءات ثقة هو، برأيي، سذاجة خالصة.
كما أشرح في كتابي، فإنّ الذكاء الاصطناعي ـ شأنه شأن القنبلة الذرية ـ ابتكار بشري فائق القوّة، لا خيار لنا إلا تعلّم التعايش معه. أن نكون صريحين بما في ترسانتنا خطوة صغيرة لتجنّب سباق تسلّح أدبيّ لا يجرّ إلا إلى الارتياب والانقسام.
كيستر بروين كاتب ورئيس قسم الاتصالات في معهد مستقبل العمل.
عن الجارديان البريطانية
تم ترجمة النص باستخدام الذكاء الاصطناعي