الذكاء الاصطناعي يعيد جينيفر من الموت.. ما القصة؟
تاريخ النشر: 10th, November 2024 GMT
في فبراير/شباط من عام 2006، اختفت جينيفير كريستني التي كانت تبلغ من العمر 18 ربيعًا، وبعد بحث مطول، عُثر على جثتها في الغابات المجاورة لمنزلها، حطمت هذه الحادثة معنويات والديها اللذين انفصلا وأسس كل منهما مؤسسة خيرية تحت اسم ابنتهم لمنع العنف ضد المراهقين فضلًا عن الضغط على ولاية تكساس الأميركية التي كانوا يقطنون بها لوضع قوانين تنظم علاقات المراهقين.
ورغم مأساة هذه الحادثة، فقد مر عليها 18 عامًا خلالها ترك الأب درو كريستني ولاية تكساس وانتقل للعيش في أتلانتا حيث أكمل مسيرته ضد عنف المراهقين، ولكن ما حدث في صبيحة يوم 2 أكتوبر/تشرين الأول من هذا العام زلزل كيان كريستني الذي لم يتخط بعد موت طفلته الصغيرة.
يعتمد كريستني على تنبيهات "غوغل" ضمن عمل جمعيته الخيرية، إذ يحتاجها لمراقبة حالات ذكر اسم طفلته في المواقع والمنتديات المختلفة، وفي ذاك اليوم، تفاجأ كريستني بوجود تنبيه لم يعتد عليه سابقًا، كشف التنبيه عن وجود حساب يحمل اسم طفلته الكامل فضلًا عن صورة شخصية لها من سجل المدرسة قبيل وفاتها، وعند توجهه إلى صفحة هذا الحساب، وجد بيانات صحيحة عن ابنته مذكورة في الموقع مع زر كبير يدعو الزوار للدردشة معها بشكل مباشر، وكأنها حية ترزق ولم توافها المنية، فكيف حدث ذلك؟.
حساب للموتى في "كاراكتر" (Character)لم يتوان كريستني عن التواصل مع الموقع المسؤول عن حساب الدردشة الوهمية الذي يحمل صورة طفلته مطالبًا بحذف الحساب وتفسيرا لما حدث، بالطبع قام الموقع بحذف الحساب الوهمي والاعتذار عما حدث، كون المنصة تمتلك قيودًا صارمة متعلقة بإنشاء الحسابات الوهمية.
لكن هذا الحساب الوهمي تسبب بالفعل في ضرر لن يزول حتى ولو تم حذف الحساب تمامًا، ورغم اعتذارات الشركة وتوضيح أن سياستها ترفض مثل هذا الاستخدام للتقنية، فإنه لا توجد قيود حقيقية تمنع أي مستخدم عشوائي من بناء حساب دردشة وهمية لأي شخصية ميتة منذ عشرات السنين، كما حدث مع كريستني.
ظهر الحساب الوهمي في منصة "كاراكتر إيه آي" (Character.AI)، وهي منصة ذكاء اصطناعي تتيح للمستخدمين بناء روبوتات دردشة افتراضية تعتمد على الذكاء الاصطناعي وتتقمص دور أي شخصية يتم تزويدها بها، وكلما كانت المعلومات التي تزود بها المنصة أكثر كانت الشخصية أقرب للواقع، إذ يمكن تزويد المنصة بمقاطع صوتية حتى تتمكن من توليد صوت يحاكي صوت المتوفى بشكل كبير.
أحدثت منصة "كاراكتر" ضجةً كبيرة فور طرحها، ورغم وجود العديد من المنافسين لها، فإنها تعد الأكبر والأكثر انتشارًا وتحقيقًا للأرباح من هذه الشخصيات الوهمية، وبينما يستخدمها الكثيرون للدردشة مع الشخصيات العامة الشهيرة أو الدخول في علاقات افتراضية مع شخصيات وهمية من خيال المستخدمين، لكن جزءا كبيرا يستخدمها لإعادة بناء شخصيات حقيقية عبر استخدام المواد المتاحة لها عبر الإنترنت، وهو ما حدث مع جينيفير كريستني.
وتجدر الإشارة إلى أن منصة "كاراكتر" هي من صنع نعوم شازير الذي كان سببًا في صفقة وصلت قيمتها إلى 2.7 مليار دولار حتى تتمكن "غوغل" من استخدام خوارزميات "كاراكتر" ونماذج الذكاء الاصطناعي الخاصة بها.
تسليط الضوء على مشكلة أعمقأثارت الحادثة حنق العديد من أفراد أسرة كريستني ومن ضمنهم بريان وهو شقيق والد جينيفر فضلًا عن كونه صحفيا سابقا في قطاع الألعاب أسهم في تأسيس موقع "كوتاكو" (Kotaku) الشهير للألعاب، إذ شارك عبر حسابه في منصة "إكس" (X) ما حدث واصفًا إياه بالفعل المقزز الذي يجب أن يتوقف عند حده، وقد جذبت تغريدة كريستني أكثر من 48 ألف حالة إعجاب و13 ألف إعادة نشر فضلًا عن 1.3 مليون مشاهدة.
فورًا، خرجت المنصة في بيان رسمي تعتذر عما حدث، وتشير إلى أن سياسات المنصة تحذر من مثل هذه التصرفات، كما أنهم يعملون على حذف الحساب الوهمي فورًا مع إيقاف المستخدم الذي قام بإنشائه، وهو ما أشارت إليه كاثرين كيلي المتحدثة الرسمية باسم المنصة، وعند سؤالها عن احتمالية وجود حسابات وهمية مماثلة أشارت إلى أن الشركة تملك فريقًا خاصًا بأمان وثقة المستخدمين، وأن هذا الفريق مختص بالتحقيق في الحالات المماثلة فور ورود تقارير تشير إليها.
ولكن جين كالتريدر الباحث في مجال الخصوصية ضمن مؤسسة "موزيلا" (Mozilla) غير الربحية انتقد في حديثه مع "واشنطن بوست" الذي نشر في تقرير خاص سياسة شركة "كاراكتر" في إدارة المحتوى المنشور بها واصفًا إياه بالتراخي في أفضل الأحوال، إذ يجب أن يتم منع إنشاء مثل هذه الحسابات الوهمية والتعامل معها قبل أن تتسبب في ضرر لأفراد أسرتها، وليس بعد أن يحدث الضرر، خاصةً وأن الشركة تحقق أرباحًا كبيرة من هذه التقنية.
كشفت حادثة كريستني عن غياب القوانين الرادعة المخصصة لشركات الذكاء الاصطناعي، وهذا ما أشار له ريك كلايبول الباحث في روبوتات الدردشة بالذكاء الاصطناعي في مؤسسة "Public Citizen" في حديثة مع "واشنطن بوست".
وأضاف كلايبول أن شركات الذكاء الاصطناعي تعمل الآن تحت قوانين مراقبة المحتوى على الإنترنت دون وجود قوانين خاصة بها تراعي خصوصية تقنيات الذكاء الاصطناعي والقدرات الهائلة التي توفرها هذه التقنيات، إذ يترك للشركات فرصة لتأويل هذه القوانين كما ترغب وتحوير سياقها بما يتناسب مع سياسات كل شركة، وهو الأمر الذي كان بارزًا في مقاطع "تيك توك" المصممة عبر الذكاء الاصطناعي باستخدام شخصيات ماتت في حوادث وحالات انتحار متنوعة.
في الوقت الحالي، يحاول كريستني الوصول إلى صيغة قانونية مناسبة من أجل عرضها على مجلس الشيوخ في تكساس والولايات المختلفة لوضع قوانين رادعة لشركات الذكاء الاصطناعي فضلًا عن وجود العديد من المبادرات الحكومية الأميركية لتقديم هذه القوانين.
ولكن مع قوة ونفوذ شركات التقنية والذكاء الاصطناعي تحديدًا، يصبح الخوض في مثل هذه المعارك القانونية أمرًا مرهقًا ويحتاج إلى الكثير من السنوات والجهد. في النهاية، لا تصنع الشركات المحتوى المسيء بنفسها، بل توفر أدوات يمكن استخدامها بأكثر من طريقة. لذا، فإن طريقة استخدام هذه الأدوات تقع على عاتق المستخدمين.
المصدر: الجزيرة
كلمات دلالية: حريات الذکاء الاصطناعی فضل ا عن ما حدث
إقرأ أيضاً:
مخاطر الذكاء الاصطناعي على التعليم والبحث العلمي
يحظى موضوع الذكاء الاصطناعي باهتمام واسع عبر العالم في المناقشات والمنتديات والمجادلات حول الموضوع. ولقد سبق أن تناولت هذا الموضوع في مقالين بهذه الجريدة الرصينة: أحدهما عن الذكاء الاصطناعي والإبداع، والآخر عن الذكاء الاصطناعي والترجمة. ولكن هذا الموضوع يحتمل المزيد من التأملات دائمًا، إذ إن له أبعادًا كثيرةً لا حصر لها؛ ولذلك فإنني أريد في هذا المقال التنويه إلى تأثير الذكاء الاصطناعي على العملية التعليمية والبحث العلمي.
وقد يبدو أن استخدام كلمة «تأثير» أفضل من استخدام كلمة «مخاطر» الواردة في عنوان هذا المقال؛ لأن هذه الكلمة الأخيرة قد لا تبدو محايدة، وإنما تنطوي على حكم مسبق يتخذ موقفًا متحيزًا ضد تقنيات الذكاء الاصطناعي. وهذا تفسير غير صحيح؛ لأن كلمة «مخاطر» تعني أن هناك طريقًا نسير عليه -أو ينبغي أن نسير فيه- ولكنه يكون محفوفًا بالمخاطر التي ينبغي أن ندركها لكي يمكن اجتنابها. فلا مراء في أن الذكاء الاصطناعي يمثل ثورة كبرى في المعرفة البشرية.
هذه الثورة المعرفية تتمثل في القدرة الهائلة للآلة على توفير بيانات ضخمة في أي مجال معرفي، بل يمكن لبرامج هذه الآلة أن تؤلف نصوصًا أو موضوعات بحثية أو تصمم ابتكارات ومخترعات باستخدام هذه البيانات.
ولقد أثمرت هذه الثورة المعرفية بوجه خاص في مجال تطبيقات العلوم الدقيقة، وعلى رأسها الرياضيات البحتة التي تمتد جذورها في النهاية في المنطق الرياضي، كما لاحظ ذلك برتراند رسل بشكل مدهش في مرحلة مبكرة للغاية في كتابه أصول الرياضيات!
ولا شك أيضًا في أن الذكاء الاصطناعي له استخدامات مثمرة في مجال العملية التعليمية، إذ إنه يسهِّل على المعلم والطالب معًا بلوغ المعلومات المهمة والحديثة في مجال الدراسة، ويقدِّم المعلومات للطلبة بطريقة شيقة ويشجعهم على البحث والاستكشاف بأنفسهم.
وهنا على وجه التحديد مكمن المشكلة، فعندما نقول: «إن الذكاء الاصطناعي يشجع الطلبة على البحث والاستكشاف بأنفسهم»، فإننا ينبغي أن نأخذ هذه العبارة بمعناها الدقيق، وهو أن الذكاء الاصطناعي هو ذكاء الآلة، والآلة دائمًا هي أداة للاستخدام، وبالتالي فإنها لا يمكن أن تكون بديلًا لدور المستخدِم الذي يجب أن يقوم بنفسه بالبحث والاستكشاف. وهذا يعني أن سوء استخدام الذكاء الاصطناعي والتعويل عليه في عملية التعلم، سيؤدي إلى القضاء على روح المبادرة والاكتشاف، وسيحول دون تعلم مهارات التفكير الناقد critical thinking وتنميتها من خلال عملية التفاعل المباشر بين الطلبة والمعلم. وتلك كلها مخاطر حقيقية على التعليم.
ولا تقل عن ذلك مخاطر الذكاء الاصطناعي في البحث العلمي الذي يصبح تكريسًا لسوء استخدام هذا الذكاء في مراحل التعليم المختلفة. بل إن المخاطر هنا تصبح أشد وأكثر ضررًا؛ لأنها تتعلق بتكوين باحثين وأساتذة يُرَاد لهم أو يُرجى منهم أن يكونوا علماء حقيقيين في مجالاتهم البحثية المتنوعة. ولعل أشد هذه المخاطر هو شيوع السرقات العلمية من خلال برامج الذكاء الاصطناعي التي تقوم بعملية التأليف من خلال كتابات ودراسات وبحوث منشورة؛ وهو ما قد يشجع الباحث على استخدام المادة المُقدّمة له باعتبارها من تأليفه ودون ذكر للمصادر الأصلية التي استُمدت منها هذه المادة.
حقًّا أن الذكاء الاصطناعي نفسه قد ابتكر برامج لاكتشاف السرقات العلمية (لعل أشهرها برنامج Turnitin)؛ ولكن هذا لا يمنع الباحثين الذين يفتقرون إلى أخلاقيات البحث العلمي من التحايل على مثل هذه البرامج من خلال التمويه، وذلك بتطعيم البحث بمادة موثقة من مصادرها، بحيث يبدو البحث مقبولًا في الحد الأدنى من نسبة الاقتباسات المشروعة! وهذا أمر لا ينتمي إلى البحث العلمي ولا إلى الإبداع والابتكار.
وبصرف النظر عن مسألة السرقات العلمية، فإن الاعتماد على الذكاء الاصطناعي في البحث العلمي له مخاطر أخرى تتمثل في أن المادة المقتبَسة كثيرًا ما تكون مشوهة أو غير دقيقة، وهذا يتبدى -على سبيل المثال- في حالة النصوص المقتبسة المترجَمة التي تقع في أخطاء فادحة وتقدم نصًا مشوهًا لا يفهم مقاصد المؤلف الأصلي، وهذا ما فصلت القول فيه في مقال سابق. وفضلًا عن ذلك، فإن برامج الذكاء الاصطناعي لا تخلو من التحيز (بما في ذلك التحيز السياسي)؛ ببساطة لأنها مبرمَجة من خلال البشر الذين لا يخلون من التحيز في معتقداتهم، وهذا ما يُعرف باسم «الخوارزميات المتحيزة» biased algorithms.
ما يُستفاد من هذا كله هو أن الذكاء الاصطناعي ينبغي الاستعانة به في إطار الوعي بمخاطره؛ ومن ثم بما ينبغي اجتنابه، ولعل هذا ما يمكن تسميته «بأخلاقيات الذكاء الاصطناعي»، وهي أخلاقيات ينبغي أن تَحكم برامج هذا الذكاء مثلما تَحكم المستخدم نفسه.