"تشات جي بي تي" في مأزق: دعوى ضد OpenAI بعد أن اتّهم روبوت الدردشة رجلاً بقتل أطفاله
تاريخ النشر: 21st, March 2025 GMT
تقدمت مجموعة أوروبية معنية بحقوق الخصوصية بشكوى ضد شركة OpenAI لدى هيئة حماية البيانات النرويجية، متهمة الشركة بانتهاك اللائحة العامة لحماية البيانات في أوروبا (GDPR)، وذلك بعد أن زعم روبوت الدردشة "تشات جي بي تي" أن رجلاً نرويجياً قد أُدين بقتل اثنين من أبنائه.
بدأت القضية عندما سأل الرجل، آرف هيلمار هولمن، روبوت الدردشة "تشات جي بي تي" عن هويته، فجاءه الرد بقصة مختلقة زعمت أنه اتُّهِم وأُدين لاحقاً بقتل اثنين من أبنائه ومحاولة قتل ابنه الثالث، وحُكم عليه بالسجن لمدة 21 عاماً.
ورغم أن هذه الادعاءات غير صحيحة، إلا أن بعض التفاصيل التي ذكرها الروبوت كانت دقيقة، مثل عدد أبنائه وجنسهم واسم مسقط رأسه.
وتسلط هذه الواقعة الضوء على ظاهرة تُعرف بـ"هلوسة الذكاء الاصطناعي"، حيث تقدم نماذج الدردشة أحياناً معلومات مضللة أو خاطئة، نتيجة التحيزات أو عدم الدقة في البيانات التي تم تدريبها عليها.
وقد أعلنت منظمة Noyb النمساوية المعنية بحماية الخصوصية، يوم الخميس، عن تقديمها شكوى رسمية ضد OpenAI، وأرفقتها بصورة للرد الذي حصل عليه هولمن من "تشات جي بي تي". وأوضحت Noyb أنها حجبت تاريخ التفاعل بين المستخدم والروبوت في الوثائق المقدمة إلى الهيئة النرويجية.
وأشارت المجموعة إلى أن OpenAI عدّلت النموذج منذ وقوع الحادثة، بحيث لم يعد "تشات جي بي تي" يقدم الادعاءات السابقة بحق هولمن عند البحث عن اسمه. غير أن Noyb حذرت من أن البيانات غير الصحيحة قد تظل جزءاً من مجموعة النماذج اللغوية الكبيرة (LLM)، ولا توجد وسيلة تتيح لهولمن التأكد مما إذا كانت المعلومات الخاطئة قد حُذفت نهائياً، خاصة أن "تشات جي بي تي" يستخدم بيانات المستخدمين لتدريب أنظمته باستمرار.
تحذير من مخاطر "هلوسة" الذكاء الاصطناعيأعرب هيلمار هولمن عن مخاوفه قائلاً: "يعتقد البعض أنه لا دخان بلا نار، لكن ما يثير قلقي أكثر هو أن يقرأ أحدهم هذه المعلومات المضللة ويصدّقها".
وقد طالبت منظمة Noyb هيئة حماية البيانات النرويجية بإلزام OpenAI بحذف أي بيانات مضللة، وضبط نماذج الذكاء الاصطناعي لمنع توليد معلومات غير دقيقة. كما دعت إلى فرض غرامة إدارية على الشركة لمنع تكرار مثل هذه الانتهاكات مستقبلاً.
Related"تشات جي بي تي" يعلن رفض أكثر من 250 ألف طلب لتوليد صور مرشحي الانتخابات الأمريكيةلكل جواد كبوة.. فهل يكبو تفوق تشات جي بي تي الأمريكي أمام ذكاء ديب سيك الصيني؟"ديب سيك" و"تشات جي بي تي": بين التزام الأول بالخطاب الصيني الرسمي وتقديم الثاني لتحليلات شاملةوأكدت المنظمة أن الشركات لا يمكنها التهرب من الالتزامات القانونية عبر وضع تنويه يخلي مسؤوليتها، مشددةً على أنه: "لا يمكن لشركات الذكاء الاصطناعي أن 'تُخفي' المعلومات الخاطئة عن المستخدمين بينما تواصل معالجتها داخليًا".
وحذّرت Noyb من تداعيات عدم معالجة مشكلة "الهلوسة" في تقنيات الذكاء الاصطناعي، مشيرةً إلى أن استمرارها قد يؤدي إلى الإضرار بسمعة الأفراد بسهولة. وأضافت: "يجب أن تتوقف شركات الذكاء الاصطناعي عن التصرف كما لو أن اللائحة العامة لحماية البيانات لا تنطبق عليها، في حين أنها ملزمة بها بوضوح".
وفي ظل هذه الاتهامات، تواصلت Euronews Next مع OpenAI للحصول على تعليق رسمي منها.
Go to accessibility shortcutsشارك هذا المقالمحادثة مواضيع إضافية كيف يمكن الاعتماد على "تشات جي بي تي" أن يزيد من الاحتباس الحراري في العالم؟ دراسة تكشف مفاجأة: تشات جي بي تي يشعر بالتوتر ويحتاج إلى "العلاج" "ميتا" تستعد لإصدار روبوت دردشة آلي منافس لـ "تشات جي بي تي" تشات جي بي تيالنرويجأوبن أيه آيSam Altmanالحقوق الرقميةأوروباالمصدر: euronews
كلمات دلالية: دونالد ترامب قطاع غزة رجب طيب إردوغان روسيا تركيا أوكرانيا دونالد ترامب قطاع غزة رجب طيب إردوغان روسيا تركيا أوكرانيا تشات جي بي تي النرويج أوبن أيه آي الحقوق الرقمية أوروبا دونالد ترامب قطاع غزة رجب طيب إردوغان روسيا تركيا أوكرانيا معارضة الحرب في أوكرانيا محادثات مفاوضات حركة حماس إسرائيل مؤتمر قمة الإتحاد الأوروبي الذکاء الاصطناعی تشات جی بی تی یعرض الآنNext
إقرأ أيضاً:
الذكاء الاصطناعي في الإعلام: فوائد ومحاذير
سهل الذكاء الاصطناعي الكثير من الإجراءات في العملية الإعلامية مثل الترجمة والملخصات والوصول إلى المعلومات، لكنه بالمقابل يلعب دوراً متصاعداً في مسألة التضليل الإعلامي وتزييف الحقائق والمعلومات، عبر خواص التزييف العميق.
دولة الإمارات مثال على الاستخدام الإيجابي والمسؤول للذكاء الاصطناعي
وشهد قطاع الإعلام منذ انطلاق ثورة تكنولوجيا الاتصال المتقدم، عبر مواقع التواصل الاجتماعي، تغيراً في صيغته التقليدية المنضبطة ضمن نطاق صناعة الرسالة الإعلامية، في المؤسسات المتخصصة مثل الدوريات المطبوعة والراديو والتلفاز، وصولاً إلى الإعلام الإلكتروني والمواقع الإلكترونية والمدونات الشخصية.
ومع بروز دور مواقع التواصل الاجتماعي في العملية الإعلامية، ومشاركة الأفراد في صناعة الرسالة الإعلامية ونقل الأخبار والأحداث وتقديم المعلومات، خرج الإعلام من إطاره المؤسساتي التقليدي، وأصبح الجمهور جزءاً من صناعة الرسالة الإعلامية، وليس مجرد متلقٍ لها. وبالتزامن برز الذكاء الاصطناعي كأحد أبرز الأدوات الثورية في صناعة الرسالة الإعلامية، وتطور بشكل متسارع في السنوات الأخير، حيث راح يستخدم الذكاء الاصطناعي في العديد من الأنشطة الإعلامية من قبيل جمع المعلومات وإعداد التقارير والترجمة وتخصيص المحتوى للجمهور، وتحرير النص والصورة والفيديو.
وبناء على ذلك برزت إيجابيات متعددة للذكاء الاصطناعي في تسهيل وتسريع صناعة المادة الإعلامية، لكن هذا التطور يأتي مصحوباً بتحديات ومسؤوليات تتطلب توازناً بين الفوائد التقنية والمحاذير الأخلاقية، خاصة وأنه متاح للمستخدمين الأفراد، الذين أصبحوا جزءاً من صناعة الرسالة الإعلامية، في عصر العولمة ومواقع التواصل الاجتماعي.
هل يساهم الذكاء الاصطناعي في التطور الإعلامي؟يساهم الذكاء الاصطناعي في تحسين الإعلام عبر تحليل البيانات، والإنشاء الأوتوماتيكي للمحتوى الإعلامي (Media auto-generate)، وتخصيص المحتوى الإعلامي وتحسين جودته التحريرية، ومكافحة المعلومات المضللة. كما يلعب دوراً تطويرياً في صناعة الإعلام من خلال عدة جوانب، أبرزها:
يمكن للذكاء الاصطناعي تحليل كميات ضخمة من البيانات بسرعة كبيرة، ما يتيح للصحافيين استخراج روابط وأنماط قد يصعب اكتشافها عبر الطرق التقليدية، وهذا يؤدي إلى إنتاج قصص إخبارية أكثر عمقاً ودقة وشمولية.
يمكن استخدام تقنيات الذكاء الاصطناعي في الصحافة الآلية حيث يستطيع كتابة المقالات التي تتبع نمطاً معيناً، مثل تقارير الأحوال الجوية أو نتائج المباريات الرياضية، وهذا يعني أن العامل البشري يمكنه التركيز على المحتوى الإبداعي والتحقيق في المعلومات التي تتطلب حساسية إنسانية، وهنا يبرز التكامل بين الآلة والإنسان.
ويعزز الذكاء الاصطناعي تجربة المستخدم من خلال تخصيص المحتوى الإعلامي. باستخدام خوارزميات التوصية، حيث يمكن للأنظمة الرقمية أن تقدم مقالات وأخباراً تناسب اهتمامات المستخدم.
والذكاء الاصطناعي لم تنقصه القدرات التحريرية، مع وجود هامش بسيط للخطأ اللغوي والمعلوماتي، الذي يتطلب المراجعة البشرية، لكنه بالتأكيد يساعد في تحسين الدقة اللغوية، خاصة في كشف تلك الأخطاء النحوية والإملائية التي تسقط سهواً. وهو ما يعزز الجودة الإجمالية للمحتوى. بالإضافة إلى ذلك، يستخدم في مكافحة الأخبار المزيفة من خلال تحليل النصوص والصور لتحديد درجة صحتها أو الكشف عن المعلومات المتضاربة.
في مجال الإعلام المرئي والسمعي، يمكن للذكاء الاصطناعي تحسين جودة الصوت والصورة، وحتى إنشاء محتوى مرئي من خلال تقنيات التوليد الآلي للصور والفيديو.
ومن هنا يبرز دور الذكاء الاصطناعي في تسريع وتيرة العمل الإعلامي وتحسين جودة الإنتاج، ما يجعل الصحافيين أكثر قدرة على التركيز في الجوانب التحليلية بدلاً من الأعمال الروتينية، وفهم القضايا الأكثر تداولاً لدى الجمهور. كما تساهم الأدوات المدعومة بالذكاء الاصطناعي في تحسين تجربة المستخدم من خلال تخصيص المحتوى بناءً على تفضيلات القراء، ما يعزز تفاعل الجمهور مع الرسالة الإعلامية.
برزت دولة الإمارات كواحدة من الدول الرائدة في توظيف الذكاء الاصطناعي بشكل مسؤول في مختلف القطاعات، بما في ذلك قطاع الإعلام. حيث ركزت الدولة على تعزيز استخدام الذكاء الاصطناعي لتحسين جودة المحتوى الإعلامي، مع ضمان الالتزام بالمعايير الأخلاقية. لأن الدولة تتبنى استخدام الذكاء الاصطناعي بطريقة إيجابية ومسؤولة، معتمدةً على استراتيجية وطنية طموحة تهدف إلى جعلها واحدة من الدول الرائدة في هذا المجال بحلول عام 2031.
أطلق الشيخ محمد بن راشد آل مكتوم نائب رئيس الدولة رئيس مجلس الوزراء حاكم دبي استراتيجية الإمارات للذكاء الاصطناعي، لتكون أول مشروع ضمن مئوية الإمارات 2071، والذي يمثل الموجة الجديدة بعد الحكومة الذكية، بهدف تعزيز النمو الاقتصادي وتحسين جودة الحياة من خلال تطبيقات الذكاء الاصطناعي في مختلف القطاعات مثل الرعاية الصحية والتعليم والنقل وإنجاز المعاملات الحكومية والحوكمة والتواصل بين المؤسسات والأفراد، كما كان للعمل الإعلامي في دولة الإمارات نصيبه المتوازن من تطوير الذكاء الاصطناعي واستخدامه.
ومن الأمثلة البارزة على اهتمام دولة الدولة بثورة الذكاء الاصطناعي، مبادرات متعددة مثل إنشاء مراكز بحث وتطوير متخصصة، منها "جامعة محمد بن زايد للذكاء الاصطناعي"، بالإضافة إلى إطلاق "مجلس الذكاء الاصطناعي والتكنولوجيا المتقدمة"، بتوجيهات من الشيخ محمد بن زايد آل نهيان رئيس الدولة، في 22 يناير (كانون الثاني) 2024. حيث يهدف إلى دعم الابتكار المسؤول، ويسهم بتعزيز مسيرة اقتصاد الدولة، وضمان تفوقه وتطوره المستمر.
أما نصيب الإعلام من تطوير برامج الذكاء الاصطناعي في دولة الإمارات، فقد برز باستخدام المؤسسات الإعلامية الإماراتية تقنيات الذكاء الاصطناعي لتحسين الترجمة الفورية للمحتوى، والتفاعل مع الجمهور عبر منصات متعددة اللغات، ما يعزز الشمولية والتواصل الإيجابي مع الجمهور، علاوة على استخدام التقدم التكنولوجي للكشف عن المعلومات المزيفة والأنباء المضللة للرأي العام، وهو ما يعزز مصداقية الإعلام الإماراتي، وجودة العملية الإعلامية في الدولة، والتزامها بالمعايير والثوابت الأخلاقية للمجتمع والتشريعات القانونية للعملية الإعلامية. بما يضمن حماية الخصوصية، والأمن السيبراني.
ما هي المحاذير الأخلاقية؟رغم الفوائد الجمة التي توفرها تقنيات الذكاء الاصطناعي، إلا أنها قد تستخدم أيضاً في تزييف الحقائق والمعلومات من قبل أجندات مشبوهة وهدامة وغير مسؤولة تعمل في الخفاء من عدة دول في العالم. إذ تعد تقنية التزييف العميق (Deepfake) واحدة من أخطر الأدوات التي تهدد مصداقية الإعلام. فمن خلال هذه التقنية، يمكن إنشاء فيديوهات وصور مزيفة ربما يسهل تمييزها عن الحقيقية حالياً لكن بتحسين أداء هذه الأدوات قد يصعب التمييز بين المزيف والحقيقي في المستقبل، ما يؤدي إلى تضليل الجماهير ونشر معلومات خاطئة.
على سبيل المثال، قد يتم توظيف التزييف العميق لتشويه سمعة شخصيات عامة أو خلق سيناريوهات وهمية لأحداث لم تحدث، أو إطلاق تصريحات على ألسنة شخصيات عامة، خدمة للأجندات المشبوهة التي تهدف إلى بث الفوضى وخلق التوترات السياسية في الدول والمجتمعات.
هذا النوع من التلاعب يضع تحديات كبيرة أمام المؤسسات الإعلامية، التي تجد نفسها مطالبة بتطوير أدوات جديدة للكشف عن التزييف والحفاظ على مصداقية المحتوى لضمان العمل ضمن المعايير الأخلاقية والأطر القانونية للعمل الإعلامي.
الموازنة بين الفوائد والمخاطرمع بروز كل تطور تكنولوجي، تتحتم مسؤوليات أخلاقية على طريقة توظيف هذا التطور في الحياة العملية. لذلك يمثل الذكاء الاصطناعي بالنسبة للإعلام تحدياً كبيراً فيما يتعلق بالخصوصية والشفافية، إذ تعتمد منصات إعلامية متعددة على جمع بيانات المستخدمين لتحسين صناعة المحتوى وتجربة المتلقي، كما أن الاعتماد المتزايد على التقنية يفرض واقعاً يتطلب إجراء التوازن بين استخدام الذكاء الاصطناعي لتسريع الإنتاج وبين ضمان دقة المحتوى ومصداقيته، وبين الاستفادة من الذكاء الاصطناعي والحد من مخاطره، وهذا يستدعي وضع استراتيجيات واضحة وواعية ومسؤولة أخلاقياً وقانونياً.
من هنا تأتي ضرورة أن تستثمر المؤسسات الإعلامية في تدريب كوادرها على استخدام التكنولوجيا بشكل أخلاقي وفعال. كما يجب التعاون مع الحكومات لتنظيم استخدام الذكاء الاصطناعي من خلال قوانين وسياسات تضمن الشفافية وتحمي خصوصية المستخدمين. ومن جهة أخرى، يجب أن تعمل شركات التكنولوجيا الرقمية، على تطوير أدوات للكشف عن التزييف ومنع انتشاره، وتعزيز الشراكات مع المؤسسات الإعلامية لدعم الإعلام المسؤول، حيث يمثل توظيف الذكاء الاصطناعي في مجال الإعلام، سلاحاً ذا حدين. فبينما يتيح فرصاً هائلة لتحسين الجودة والكفاءة، لكنه يتطلب مسؤولية أخلاقية وقانونية.
وبالمحصلة، يكمن التحدي في استخدام الذكاء الاصطناعي (AI) بالإعلام، في الاستخدام الواعي والمسؤول، بحيث يعزز دور الإعلام في تطوير التجربة الصحية لدى الأفراد في تلقي المعلومات، وإحداث التوازن بين الابتكار والمسؤولية.