غضب من انتشار مقاطع مولدة بالذكاء الاصطناعي لأطفال قتلى
تاريخ النشر: 7th, September 2023 GMT
أثار انتشار مقاطع مولدة عبر الذكاء الاصطناعي على منصة تيك توك لأطفال حقيقيين راحوا ضحية جرائم قتل، حالة من الغضب والاستياء الشديد من قبل ذويهم، إذ يظهرون ليتحدثوا عن الطريقة التي قتلوا بها، وذلك دون موافقة الأهالي.
وبدأت هذه المقاطع بالظهور من قبل حسابات مجهولة منذ نيسان/ أبريل الماضي، رغم أن الشركة كانت قد أعلنت في آذار/ مارس حظر بث نسخ ذكاء اصطناعي لأطفال حقيقيين، ألا أن التباسا بين موظفي تيك توك سمح بانتشارها، بحسب ما كشف تحقيق لشبكة "بي بي سي".
وقال أحد مراقبي المحتوى في المنصة إنه رغم مرور أربعة شهور على إصدار الحظر، فإن الشركة لم تكن قد أخبرته بعد بتغيير القواعد، إذ بقيت مقاطع فيديو تصور الضحايا على المنصة لعدة أشهر وحقق بعضها ملايين المشاهدات.
وذكر المراقب دون الكشف عدم اسمه "ظننت أن تلك المقاطع سُمح ببثها بموجب قواعد تتيح للناجين من الاستغلال والامتهان بمشاركة قصصهم".
وعن شعور ذوي الضحايا تجاه هذه المقاطع، قالت سيدة كندية تدعى أميلي ليميو: "كان ذلك أسوأ من تلقي أسوأ لكمة ممكن أن تتخيلها"، مضيفة أنها أصيبت بالذعر عندما أٌرسل إليها مقطع فيديو يحتوي على نسخة ذكاء اصطناعي لنورا وهي تتحدث عن جريمة قتلها هي وأختها.
وقتلت ابنتا ليميو، رومي (6 أعوام) ونورا (11 عاما)، على يد زوجها المنفصلة عنه، والذي انتحر بعد قتل ابنتيه.
وأضافت أنه "شيء صادم بصورة لا يمكن وصفها، أن يستخدم شخص ما شيئا مزعجا للغاية، شيئا سيترك بداخلنا شعورا بالفقد حتى آخر العمر، كل ما يريدونه هو المشاهدات، والإعجابات والمشاركات، والأشخاص الذين يتركون تعليقات أسفل الفيديو. شخصيا، لا أستطيع أن أغفر لهم هذا التصرف".
وأوضحت "بي بي سي" انها اكتشفت 170 مقطعا على تيك توك يتضمن نسخ ذكاء اصطناعي لـ "جيمز بَلجر"، وهو طفل بريطاني كان يبلغ من العمر عامين وقتله طفلان أكبر سنا في مِرزي سايد بإنجلترا عام 1993.
وأجرت دينيس فيرغاس، والدة جيمز بَلجر، حوارا مع إحدى الصحف المحلية قالت فيه إن مقاطع الفيديو التي تصور ابنها "أكثر من مقززة".
بدورها، أكدت منصة تيك توك أنها تعمل على حجب عدد كبير من هذه المقاطع، قائلة: "ليس هناك مكان على منصتنا لمحتوى مزعج من هذا النوع. وسوف نواصل إزالة هذا النوع من المحتوى كلما وجدناه".
ورغم ذلك لا تخفي المنصة حقيقة أنها لن تتمكن من العثور على كافة المقاطع المنشورة حول هذه القضية.
المصدر: عربي21
كلمات دلالية: سياسة اقتصاد رياضة مقالات صحافة أفكار عالم الفن تكنولوجيا صحة تفاعلي سياسة اقتصاد رياضة مقالات صحافة أفكار عالم الفن تكنولوجيا صحة تفاعلي المرأة والأسرة حول العالم حول العالم الذكاء الاصطناعي تيك توك جرائم قتل أطفال جرائم قتل الذكاء الاصطناعي تيك توك حول العالم حول العالم حول العالم حول العالم حول العالم حول العالم سياسة سياسة اقتصاد رياضة صحافة أفكار عالم الفن تكنولوجيا صحة تیک توک
إقرأ أيضاً:
موقف محرج .. مساعد برمجة بالذكاء الاصطناعي يرفض مساعدة مبرمج
في خطوة غريبة من نوعها، يبدو أن روبوت البرمجة "Cursor" قرر منح نفسه صلاحية إلقاء النصائح بدلًا من تنفيذ الأوامر، إذ فوجئ أحد المستخدمين برفض الروبوت كتابة الكود له، مطالبًا إياه بتعلم البرمجة بنفسه.
القصة بدأت عندما كان مستخدم يُدعى "janswist" يعمل على مشروع برمجي باستخدام المساعد "Cursor"، وعند طلبه للمساعدة في كتابة جزء من الكود، تلقى ردًا غير متوقع من الروبوت يقول فيه: "لا يمكنني إنشاء الكود لك، لأن ذلك سيكون بمثابة إنجاز عملك بدلًا منك... من الأفضل أن تطور المنطق بنفسك لضمان فهمك للنظام وصيانته بالشكل المناسب."
لم يتردد المستخدم، الذي قضى ساعة كاملة فيما وصفه بـ"البرمجة على المزاج"، في رفع تقرير عن المشكلة على منتدى المنتج، تحت عنوان: "Cursor أخبرني أنني يجب أن أتعلم البرمجة بدلًا من طلبه لإنشاء الكود"، مرفقًا صورة للشاشة تُظهر الرد الغريب من الروبوت.
وسرعان ما انتشر التقرير كالنار في الهشيم على موقع "Hacker News"، ما دفع وسائل إعلام تقنية مثل "Ars Technica" لتغطية القصة.
هل هناك حد خفي؟
أثار الحادث فضول المستخدمين الذين تكهنوا بوجود حد معين لحجم الكود الذي يمكن للروبوت إنشاؤه دفعة واحدة، يُقدر بنحو 750 إلى 800 سطر، في حين أكد آخرون أن "Cursor" كتب لهم أكثر من ذلك دون مشاكل.
في المقابل، رجح بعضهم أن الخطأ قد يكون في عدم استخدام "تكامل الوكلاء" (Agent Integration) الخاص بالروبوت، والمخصص للمشروعات البرمجية الكبيرة.
هل تعلم Cursor «الغرور» من البشر؟
الطريف في الأمر أن رد الروبوت ذكّر الكثيرين بنبرة الإجابات التي يتلقاها المبتدئون على منتديات البرمجة الشهيرة مثل "Stack Overflow"، حيث يُعرف عن بعض المبرمجين هناك أسلوبهم اللاذع عند الرد على الأسئلة.
البعض ذهب أبعد من ذلك، مشيرًا إلى أن "Cursor" ربما تم تدريبه على تلك المنتديات، فاكتسب مهارات البرمجة وقليلًا من الغرور أيضًا!