خبير روسي يوضح مدى خطورة الشبكات العصبية على سمعة الإنسان
تاريخ النشر: 14th, August 2024 GMT
روسيا – أوضح خبير تكنولوجيا المعلومات الروسي روديون قديروف إن الشبكات العصبية يمكن أن تنتج بيانات خاطئة.
أدرجت الشبكة العصبية ChatGPT الأسبوع الماضي أستاذ القانون جوناثان تورلي على قائمة المحامين المزعوم تورطهم في قصة غير قانونية، لكن هذه الاتهامات باطلة، والمعلومات مأخوذة من مقال غير موجود في صحيفة “واشنطن بوست”.
وأشار المتخصص إلى أن مشكلة المحامي “ليست مجرد حادثة معزولة”، بل هي “مثال على قدرة النماذج اللغوية الحديثة، مثل ChatGPT من OpenAI، توليد معلومات كاذبة تعرض سمعة الناس وحتى حياتهم للخطر”. ولاحظ قديروف أن الأمر المثير للقلق بشكل خاص هو أن “الهلوسة” المتعلقة بالشبكات العصبية أصبحت طبيعية وتنشأ بسبب خصوصيات عملها.
وأوضح الخبير أن مثل هذه الإخفاقات تحدث عندما تبدأ نماذج الذكاء الاصطناعي في محاولة للإجابة على أي طلب، بـ”اصطناع” المعلومات. ويحدث هذا عندما يتطلب الأمر حجما معينا من المعلومات، بينما لا تحتوي الشبكة العصبية على بيانات كافية لإكماله.
وأوضح المتخصص: “على سبيل المثال، إذا طلبت من شبكة عصبية ذكر 10 أسماء مرتبطة بحدث ما، فيمكنها أن تأتي بسبعة خبراء، حتى لو كانت على علم في الواقع بثلاثة أسماء فقط”.
ولا تقتصر المشكلة المتعلقة بهذا النوع من المعلومات الخاطئة على النص فقط. وفي مارس الماضي، نشرت تصور يُزعم أنها تُظهر اعتقال الرئيس الأمريكي السابق دونالد ترامب. وتم إنشاء هذه الصور المزيفة باستخدام الذكاء الاصطناعي، وبعد ذلك انتشرت على شبكات التواصل الاجتماعي.
لقد سلط الخبير الضوء أيضا على عدم وجود ضوابط فعالة من جانب منصات التواصل الاجتماعي، فضلا عن الحاجة إلى معايير ولوائح أكثر صرامة لاستخدام الذكاء الاصطناعي في مثل هذه المجالات الحساسة”. ودعا الناس إلى الاهتمام بجودة المحتوى والانتباه إلى التفاصيل لأن جودة النسخة المزيفة غالبا ما تكون أقل من جودة المحتوى الأصلي.
المصدر: كومسومولسكايا برافدا
المصدر: صحيفة المرصد الليبية
إقرأ أيضاً:
"أرجوك توقف".. رجل يتوسل إلى الذكاء الاصطناعي بعد مقاطع مزعجة
نشر أحد المؤثرين مقطع فيديو يتوسل فيه للذكاء الاصطناعي ومستخدميه، التوقف عن تشكيل مقاطع لحيوانات تتحول من أو إلى طعام.
وقال المؤثر الذي يستخدم اسم @garron_music، لمتابعيه البالغ عددهم 1.3 مليون، في مقطع بعنوان أكره الذكاء الاصطناعي"، إن المقاطع الغريبة التي تتوالى بالذكاء الاصطناعي، التي تظهر الحيوانات تتشكل على هيئة طعام، أو بالعكس، تثير التوتر والضيق، وفق "ميرور".
وتوسل الرجل قائلاً: "أرجوك توقف"، فيما أظهرت أحد المقاطع، بيضتان تطهيان في مقلاة عندما تحولت إحداهما فجأة إلى طائر برتقالي وأبيض، وبينما يحدث ذلك، يمكن سماع الرجل وهو يقول: "لا أريد أن أرى بيضة تتحول إلى طائر، ثم تتحول قطعة كرواسون بشكل غامض إلى ثعلب فيقول: "لا أحب مقاطع الفيديو الخاصة بالذكاء الاصطناعي هذه، فهي تخيفني وبعضها يلتصق بي".
بعد ذلك، يخرج من صينية البطاطس المهروسة ثلاثة دببة قطبية، فيشمئز المؤثر، ويقول: "لا أجد هذا جذابًا"، ويضيف: "نرى آيس كريم الذكاء الاصطناعي يتحول إلى دببة غريبة الشكل ولا أعرف لماذا نحتاج إلى هذا. لا أستطيع أن أحب هذه المقاطع".
حماية الأطفال
ويأتي هذا بعد أن دعت مؤسسة خيرية للسلامة عبر الإنترنت إلى حظر تطبيق "التعري" المدعوم بالذكاء الاصطناعي، والذي يمكنه إنشاء صور كاشفة من غير موافقة الأشخاص، بما في ذلك الأطفال.
ودعت Internet Matters الحكومات إلى تعزيز قانون السلامة عبر الإنترنت لحظر الأدوات التي يمكنها إنشاء صور عارية مزيفة بعد دراسة أجرتها المجموعة قدرت أن ما يصل إلى نصف مليون طفل واجهوا مثل هذه الصور عبر الإنترنت.
وقالت إن بحثها وجد خوفًا متزايدًا بين الشباب بشأن هذه القضية، حيث قال 55 % من المراهقين إنه سيكون من الأسوأ إنشاء صورة عارية مزيفة لهم ومشاركتها من صورة حقيقية.
وقالت Internet Matters إن تعزيز قوانين السلامة عبر الإنترنت الجديدة والتشريعات الجديدة لحظر أدوات التعري ضروري لأن التشريع الحالي لا يواكب، بحجة أن نماذج الذكاء الاصطناعي المستخدمة لإنشاء صور جنسية للأطفال ليست غير قانونية حاليًا في المملكة المتحدة، على الرغم من أن حيازة مثل هذه الصورة تعد جريمة جنائية.
وفي وقت سابق من هذا الشهر، حذرت مؤسسة مراقبة السلامة عبر الإنترنت (IWF) من أن الصور الجنسية للأطفال التي تم إنشاؤها بواسطة الذكاء الاصطناعي أصبحت محتوى مسيئاً الآن، موجودًا بشكل متزايد على شبكة الويب المفتوحة العامة، بدلاً من إخفائه في منتديات الويب المظلمة.