كيف تحمي أعمالك الفنية من الذكاء الاصطناعي
تاريخ النشر: 16th, May 2024 GMT
أعرب الفنانون والمبدعون عن قلقهم بشأن الذكاء الاصطناعي التوليدي الذي يكرر ويسرق أعمالهم وأسلوبهم الفني وربما حياتهم المهنية.
عمل بين جاو وهو أستاذ بجامعة شيكاغو، وفريقه من طلاب الدكتوراه على مكافحة هذه المشكلة. ففي العام الماضي، طوروا أداة تسمى جليز (Glaze)، وهي أداة تحمي العمل الفني من تقليده بواسطة الذكاء الاصطناعي.
تعمل هذه الأداة على حماية الصورة أو العمل الفني من إعادة إنتاجه عن طريق تغيير البيانات التي يتلقاها الذكاء الاصطناعي. مثلا، قد يسيء الذكاء الاصطناعي تفسير كلمة "كلب" وينتج صورة لقطة.
تكتسب هذه الأدوات قوة جذب باعتبارها وسيلة لحماية حقوق الطبع والنشر ومن المحتمل أن تؤثر على منتجات الذكاء الاصطناعي التوليدية وأهم ما يميزها أنها متاحة للاستخدام العام ويمكن تنزيلها مجانا.
كيف تعمل أدوات حماية الأعمال الفنية؟من الواضح أن الخيارات المتاحة للفنانين عند التعامل مباشرة مع شركات الذكاء الاصطناعي محدودة للغاية. ومع ذلك، فعلى المستوى الخارجي يمكن للعديد من الأدوات والخدمات أن تمنح منشئي المحتوى دفاعات أفضل أو حتى هجمات للرد.
تعمل الأدوات بطرق مختلفة، ولكنها بشكل عام تدير الفن البصري الخاص بالفنان من خلال عمليات تربك التدريب الفعال أو تمنعه. بهذه الطريقة، حتى لو تم استخلاص الأعمال الفنية من نموذج الذكاء الاصطناعي، فإن هذا النموذج (من الناحية المثالية) لن يتعلم إعادة إنتاجه.
أداة جليز إحدى أبرز الأدوات التي تقوم بإجراء تغييرات على مستوى البيكسل في الصور وهي تربك برامج الذكاء الاصطناعي التي تحاول قراءتها. ولحسن الحظ لا يستطيع الأشخاص العاديون رؤية هذه التغييرات ذات التفاصيل العالية. لذلك لا يوجد تأثير يذكر على تجربة المشاهدة البشرية، ولكن مولدات الصور بالذكاء الاصطناعي التي يتم تغذيتها بنفس المواد سوف تتعرف عليها على أنها شيء آخر تماما. مما يعني أن أي أحد يحاول تكرار الأسلوب الفني فلن يتمكن من القيام بذلك.
وبالنسبة لأداة نايتشيد فطريقة عملها مختلفة تماما، فهي أداة تحول أي صورة إلى عينة بيانات غير مناسبة لتدريب نماذج الذكاء الاصطناعي. وبصورة أدق، يتم تحويل الصور إلى عينات "سامة"، بحيث لا تتعلم النماذج المدربة عليها وتحصل على نتائج لا يمكن التنبؤ بها والتي تنحرف عن المعايير المتوقعة.
على سبيل المثال، عندما يطلب الموجه صورة لبقرة تطير في الفضاء فإنه سيحصل على صورة لحقيبة يد تطفو في الفضاء. ورغم ذلك، فلا يمكن تحديد الشكل الذي سيظهر للصور المسمومة لأن هذه الأداة مبنية على خوارزميات لا يمكنها استيعاب هذا النوع من التخصيص.
يضيف نايتشيد طبقة تشبه الفلتر فوق الصورة والتي لا ينبغي أن تؤثر بشكل كبير على تجربة المشاهدة البشرية اعتمادا على كثافة طبقة الحماية ومدى تفصيل العمل الفني الأصلي. ورغم هذا، يقول بعض المدافعين عن الذكاء الاصطناعي التوليدي إن أداة نايتشيد لن تكون عائقا كبيرا.
تم تدريب أنظمة الذكاء الاصطناعي على كميات هائلة من البيانات، لذلك ستحتاج إلى الكثير من التسميم للتأثير على أي موجه معين. ويمكن للشركات تطوير حلول بديلة للكشف عن عمليات تسميم الصور. لكن معظم هذه الحلول تعمل فقط على تصفية الصور التي تستخدمها، بدلا من إزالة الحماية، وبالتالي فإن النتيجة النهائية هي مجرد استبعاد الأعمال الفنية من بيانات التدريب، وهو ما يزال يمثل فوزا لنايتشيد.
الصور عبارة عن بيانات في النهاية، والمهمة التي تقوم بها أداة نايتشيد هي التعديل على هذه البيانات لكي توحي بشيء آخر وتدعى هذه العملية "تسميم البيانات" حيث يمكن لعينات البيانات المسمومة أن تتلاعب بالنماذج التعلميّة. على سبيل المثال، يتم التسميم على أن صور القبعات هي كعك، وأن صور حقائب اليد هي محامص خبز. يصعب إزالة البيانات المسمومة، حيث تتطلب من شركات التكنولوجيا العثور على كل عينة تالفة وحذفها بعناية.
اختبر الباحثون الهجوم على أحدث نماذج ستيبل ديفيوجن (Stable Diffusion) وعلى نموذج الذكاء الاصطناعي الذي قاموا بتدريبه بأنفسهم. عندما زودوا ستيبل ديفيوجن باستخدام 50 عينة مسمومة فقط للكلاب ثم دفعوه لإنشاء صور للكلاب بنفسه، بدأت النتيجة تبدو غريبة: مخلوقات ذات أطراف كثيرة ووجوه كرتونية. وباستخدام 300 عينة مسمومة، يمكن التلاعب بنموذج ستيبل ديفيوجن لإنشاء صور للكلاب لتبدو وكأنها قطط.
تعمل نماذج الذكاء الاصطناعي التوليدية على إنشاء ربط بين الكلمات، مما يساعد على انتشار السم. لا يصيب نايتشيد كلمة كلب فحسب، بل يصيب جميع المفاهيم المشابهة، مثل "جرو" و"هاسكي" و"ذئب". كما يعمل الهجوم السام على الصور ذات الصلة الجانبية. على سبيل المثال، إذا قام النموذج باستخلاص صورة مسمومة لكلمة "فنتازيا"، فإن كلمات مثل "التنين" و"القلعة في سيد الخواتم" ستتعدل وتتفسر على أنها شيء آخر.
يعترف جاو بوجود خطر من قيام الأشخاص بإساءة استخدام تقنية تسميم البيانات لأغراض خبيثة. ومع ذلك يقول إن المهاجمين سيحتاجون إلى آلاف العينات المسممة لإلحاق ضرر حقيقي بالنماذج الأكبر والأقوى، حيث يتم تدريبها على مليارات العينات البيانية.
لتشغيل نايتشيد يُفضل أن يحتوي حاسوبك على إحدى وحدات معالجة رسومات إنيفيديا (Nvidia) والتي تحتوي على أكثر من 4 غيغا بايت من ذاكرة وحدة معالجة الرسومات. مع الملاحظة أن هذه الأداة قد تعاني من مشكلات مع وحدات معالجة الرسوميات جي تي إكس 1660/1650/1550. فإذا كان لديك وحدات معالجة رسومات متوافقة، فيرجى تثبيت مجموعة أدوات إنيفيديا كودا (Nvidia CUDA) وهكذا تصبح أداة نايتشيد جاهزة للعمل.
بعد تشغيل الأداة يمكنك تحديد عملك الفني عن طريق اختيار صورة تملكها من جهازك ثم حدد معالم العمل وأول هذه المعالم هي الكثافة، حيث تؤدي الكثافة الأعلى إلى تأثيرات سامة أقوى، ولكنها ترتبط أيضا بشكل عام بتغييرات مرئية أكثر وضوحا في عملك الفني. وكلما زادت الكثافة زادت معها الاضطرابات في الصور مما يُصعِّب الأمر على برامج الذكاء الاصطناعي التوليدي. ونظراً لأن نايتشيد هو سم، يمكنك اختيار شدة أقل من الافتراضي لتقليل أي تأثيرات مرئية على الصورة.
المَعلَم الثاني هو جودة العرض: يمثل هذا الوقت الحسابي الذي تقضيه في البحث عن السم الأمثل وفقا لمستوى "شدتك". تؤدي جودة العرض الأطول إلى سم أقوى ولكن بوقت حساب أطول. يعتمد وقت الحوسبة الفعلي على مواصفات الحاسوب في النهاية.
الخطوة التالية هي اختيار دليل الإخراج، تختار المسار الذي تريد تخزين الصورة المسممة فيه. وبعدها تحديد علامة السم، فأداة نايتشيد تعمل عن طريق تعليم نموذج الذكاء الاصطناعي التوليدي رؤية غير صحيحة لما يبدو عليه موضوع معين. على سبيل المثال، يمكنك إقناع نموذج بأن السيارة لا تحتوي على 4 عجلات أو زجاج أمامي أو سقف أو صندوق. بدلا من ذلك، يمكنك تعليم النموذج أن السيارة لها 4 أرجل، وجسم كبير باللون الأسود/الأبيض مع ذيل، وهذا توصيف للبقرة.
لتوليدِ أقوى هجوم، يجب على نايتشيد إجراء نفس التغييرات على جميع الصور الخاصة بمفهوم معين. على سبيل المثال، يجب عليه تغيير جميع صور السيارات لتظهر لنماذج الذكاء الاصطناعي على أنها أبقار. لذلك، تحتاج الأداة إلى فهم ما هو موجود داخل صورتك. وعندما تختارها، سيقوم نايتشيد بتحليلها وملء حقل الوسم الحالي بما يعتقد أنه داخل الصورة. قبل البدء في العملية، تأكد من إلقاء نظرة على العلامة الحالية وأنها تحدد بشكل صحيح المفهوم الرئيسي الوحيد أو الكائن داخل صورتك، ويرجى إصلاحها إذا لزم الأمر.
وفي النهاية، لا ينصح بوضع علامة "نايتشيد" على الصور المعالجة في منشورات وسائل التواصل الاجتماعي أو في معرض الصور على الإنترنت. حيث يعد نايتشيد هجوما ساما، وتحديده على أنه مادة سامة سيضمن فشل هدفه، لأنه سيتم التعرف عليه بسهولة وتصفيته بواسطة المدربين النموذجيين.
المصدر: الجزيرة
كلمات دلالية: ترجمات حريات الذکاء الاصطناعی التولیدی على سبیل المثال وحدات معالجة عن طریق على أن
إقرأ أيضاً:
سرقة مواهب الناس عبر الذكاء الاصطناعي
#سواليف
خطة شريرة تهدف لإضعاف قانون حقوق النشر، والسماح لشركات #التكنولوجيا بالاستفادة مجانًا من #مواهب_الناس. هذه فضيحة، وسوف تعاني الأمة من عواقبها. آندرو لويد ويبر – The Guardian
يتحدث الكاتب عن سرقة أعماله وأعمال ابنه الإبداعية التي تتعرض للاستغلال من قبل حكومة المملكة المتحدة بسبب المقترح القاضي بتقليص حقوق الطبع والنشر لصالح #الذكاء_الاصطناعي. ويقول الكاتب في هذا الصدد:
نحن أب وابنه: كتب أحدنا 16 مسرحية موسيقية وما زال العدد في تزايد، بينما شارك الآخر في تأسيس The Other Songs، وهي شركة رائدة مستقلة للتسجيلات والنشر. وقد وظف عملنا الآلاف على مستوى العالم، مما أدى إلى رعاية الجيل القادم من المواهب.
مقالات ذات صلةإن حقوق الطبع والنشر هي الأساس الذي يحمي هذا، وكل الأعمال الإبداعية؛ من الموسيقى والمسرح والأدب إلى الأفلام والفن. وتضمن حقوق الطبع والنشر للمبدعين الاحتفاظ بالسيطرة والحصول على تعويض عادل. كما أنها تدعم الاقتصاد الإبداعي. وببساطة، إنها تسمح للفنانين والمبدعين بكسب لقمة العيش. وقد أظهرت دراسات لا حصر لها مدى الفائدة التي تعود على بقية المجتمع من الإبداع – الموسيقى والمسرح والرقص والفن والأفلام والتلفزيون، والقائمة لا حصر لها.
ولكن اليوم، تقترح حكومة المملكة المتحدة تغييرات من شأنها أن تحرم المبدعين من هذه الحماية. فبموجب مشروع قانون البيانات (الاستخدام والوصول)، سيُسمَح لشركات الذكاء الاصطناعي بأخذ الأعمال، الماضية والمستقبلية، واستخدامها كبيانات تدريب دون موافقة أو دفع.
وتهضم هذه النماذج كميات هائلة من المحتوى الذي أنشأه الإنسان ثم تولد تقليدا، متجاوزة حقوق المبدعين الأصليين. ونظام “الانسحاب” الذي اقترحته الحكومة، على أساس أن المبدعين سيكونون دائما في وضع يسمح لهم بالاحتفاظ بحقوقهم مسبقا، ليس إلا مجرد خدعة. فمن المستحيل من الناحية الفنية أن يختار الفنانون الانسحاب. وتنتهي مشاورات الحكومة اليوم، ولكن ينبغي لنا أن نكون واضحين: هذا ليس تنظيما، بل هو تصريح مجاني للذكاء الاصطناعي لاستغلال الإبداع دون عواقب.
إن الذكاء الاصطناعي قادر على تكرار الأنماط، ولكنه لا يخلق ولا يبدع. وإذا تُرِك دون تنظيم، فلن يكون مجرد أزمة إبداعية، بل فشل اقتصادي في طور التكوين. وسوف يُغرق الذكاء الاصطناعي السوق بتقليدات من صنع الآلات، مما يقوض الإبداع البشري ويدمر الصناعات التي تحرك الوظائف والسياحة والهوية الثقافية البريطانية. وسوف تتعثر الصناعة الإبداعية التي نزدهر فيها جميعا بطرق لا حصر لها.
وتزعم الحكومة أن إضعاف قانون حقوق النشر من شأنه أن يجذب استثمارات الذكاء الاصطناعي، وأنها تقدم “نظام حقوق نشر يوفر للمبدعين سيطرة حقيقية، وشفافية، ويساعدهم على ترخيص محتواهم”، ولكن لا يوجد دليل يدعم هذا. وسوف تستخرج شركات الذكاء الاصطناعي العالمية الملكية الفكرية البريطانية بينما تواصل عملياتها في أماكن أخرى، مما يترك المبدعين البريطانيين في وضع غير مؤات. وفي الوقت نفسه، تقوم شركات الذكاء الاصطناعي المسؤولة مثل Adobe وDeepMind بالفعل بترخيص المحتوى، مما يثبت أن التنظيم والابتكار يمكن أن يتعايشا.
والحل واضح. فالتعديلات التي اقترحتها بيبان كيدرون على مشروع القانون من شأنها أن تقدم ضمانات تضمن لشركات الذكاء الاصطناعي الحصول على الإذن ودفع ثمن المحتوى الذي تستخدمه. والبديل هو أن نواصل “الوهم القائل بأن المصلحة الأفضل للمملكة المتحدة ومستقبلها الاقتصادي يتماشى مع مصالح وادي السيليكون”.
إن حماية حقوق النشر ليست عائقًا أمام ابتكارات الذكاء الاصطناعي؛ بل إنها الأساس الذي يسمح للمبدعين بإنتاج أعمال عالية الجودة يعتمد عليها الذكاء الاصطناعي. وفي غياب قوانين حقوق النشر القوية، سوف يتم تخفيض قيمة الإبداع البشري وإزاحته بواسطة الآلات. فهل نريد لأطفالنا أن يكتشفوا ديفيد بوي التالي، أو ديفيد بو الذكاء الاصطناعي؟
إننا نقف عند منعطف محوري. فقد أدى عصر البث المباشر بالفعل إلى تقليص قيمة مؤلفي الأغاني إلى الحد الذي يجعل الكثيرين يكافحون من أجل كسب لقمة العيش. وتخصص عائدات البث المباشر حوالي 15٪ لمؤلفي الأغاني، بينما تتلقى شركات التسجيل والفنانين 55٪، وتطالب خدمات البث المباشر بنسبة 30٪. وعلاوة على ذلك، لا يتم تعويض مؤلفي الأغاني مقدمًا عن أغانيهم المستخدمة من قبل الفنانين وشركات التسجيل، على عكس التلفزيون والسينما والمسرح حيث يوجد خيار لأعمالهم. وبالتالي، فإن الاعتماد فقط على 15٪ يمثل تحديًا لا يمكن التغلب عليه. والآن، تخاطر المملكة المتحدة بارتكاب خطأ أكبر.
لقد قدمت بريطانيا، في عام 1710، أول قانون لحقوق التأليف والنشر في العالم، وهو قانون آن، الذي وضع المعيار العالمي لحماية المبدعين. وحتى ذلك الحين، كان المؤلفون يجدون أن حقوق التأليف والنشر لأعمالهم تعود إلى طابعي ذلك العمل. وكان النشر الذاتي غير قانوني فعليًا، لكن القانون أعطى الكتّاب القدرة على امتلاك إبداعاتهم الخاصة. ومن غير المقبول أن تخطط هذه الحكومة بعد أكثر من 300 عام لتفكيك هذه الحماية.
إن الآلة التي تعمل بالذكاء الاصطناعي ليست إنسانًا. لقد حان الوقت لتكثيف الجهود وحماية الأشخاص الذين يشكلون قلب الاقتصاد الإبداعي الذي لا مثيل له في المملكة المتحدة. وإذا فشلت هذه الجهود، فسوف نعاني جميعًا.