RT Arabic:
2024-07-07@06:49:34 GMT

هل نبالغ حقا في المخاوف بشأن "استحضار الأرواح الرقمية"؟!

تاريخ النشر: 23rd, September 2023 GMT

هل نبالغ حقا في المخاوف بشأن 'استحضار الأرواح الرقمية'؟!

يشحن الذكاء الاصطناعي التوليدي، الذي يشمل نماذج لغوية كبيرة (LLMs) مثل ChatGPT ومولدات الصور والفيديو مثل DALL·E 2،  "استحضار الأرواح الرقمية".

وانتشرت المناقشات حول استحضار الأرواح الرقمية لأول مرة في عام 2010، من خلال التقدم في عرض الفيديو (تقنية "التزييف العميق")، الذي أدى إلى إعادة إحياء بروس لي ومايكل جاكسون وتوباك شاكور (رقميا).

وفي البداية، ظل الذكاء الاصطناعي التوليدي حكرا على شركات إنتاج الأفلام والموسيقى ذات الموارد الكبيرة، ما أدى إلى توسيع نطاق الوصول إلى التقنيات التي استُخدمت لإعادة إحياء المشاهير.

وقبل ظهور ChatGPT في أواخر عام 2022، استخدم أحد المستخدمين بالفعل LLM الخاص بـ OpenAI، للتحدث مع خطيبته المتوفاة بناء على نصوصها ورسائل البريد الإلكتروني الخاصة بها.

وبالنسبة للبعض، تتخطى هذه التكنولوجيا الحدود الأخلاقية وربما الثقافية، حيث يشعر الكثيرون بعدم الارتياح من فكرة أننا قد نتفاعل بشكل روتيني مع المحاكاة الرقمية للموتى. ونتيجة لذلك، يُنظر إلى السحر الأسود لاستحضار الأرواح بمساعدة الذكاء الاصطناعي بعين الريبة.

هل هناك داع للقلق حقا؟

يعد استمرار الروابط مع الموتى من خلال النصوص والصور والمصنوعات اليدوية، أمرا شائعا.

ووضع الناس منذ فترة طويلة قيمة عاطفية على التشابهات والآثار كوسيلة لتذكر الموتى. وعلى الرغم من أن رسم الصورة الشخصية لم يعد وسيلة معتمدة على نطاق واسع لإحياء ذكرى صور الأحباء في ذلك الوقت، إلا أن انتشار التصوير الفوتوغرافي في القرن التاسع عشر سرعان ما أصبح وسيلة بديلة لتذكر الموتى.

وتحدّث الخبراء عن السرعة التي تم بها استغلال إمكانات الذكاء الاصطناعي في استحضار الأرواح، ما يدل على مدى نجاح التكنولوجيا في التعامل مع ممارساتنا الحالية المتمثلة في الحزن والتذكر وإحياء الذكرى.

إقرأ المزيد هل يتفوق الذكاء الاصطناعي على البشر في تصميم المدن؟

وتعتمد شركات الذكاء الاصطناعي الناشئة في هذا المجال على مشاريع سابقة. وباستخدام الكتابة (على سبيل المثال، على وسائل التواصل الاجتماعي ورسائل البريد الإلكتروني)، والتسجيلات الصوتية للكلام والصور ومقاطع الفيديو الخاصة بالأحباء التي يرسلها العملاء، يجري تدريب نماذج الذكاء الاصطناعي على إمكانية تحقيق التفاعل مع المتوفى بشكل مطوّر، من خلال الصور والصوت والنص. 

وأشارت ديبرا باسيت، التي درست الحياة الرقمية على نطاق واسع، إلى مخاوف البعض من إجبار المتوفى على قول أشياء لم يرغب بقولها (رقميا) عندما كان على قيد الحياة، مع تمثيل نص شخص آخر.

وفي لحظات الأزمة أو الفرح، نفكر في ما قد يقوله لنا من فقدناه، والمواقف التي ربما كانت لديه والتشجيع الذي ربما يقدمه فيما يتعلق بالتحديات والإنجازات في الحاضر.

ويجادل آخرون، عند تأملهم في غرابة اللقاءات مع الموتى الذين بعثوا إلى التفاعل الرقمي معنا، بأن أولئك الذين يتواصلون ليسوا في الواقع أمواتا على الإطلاق، بل محتالون.

وعندما يتم ذلك بطريقة استغلالية وخفية، فإن هذا بالطبع يمثل مشكلة كبيرة.

ومع ذلك، يجب أن نتذكر أننا لا نتعامل عادة مع رسائلنا الشخصية أو صورنا الفوتوغرافية أو مقاطع الفيديو الخاصة بالموتى كما لو كانت التسجيلات نفسها تخص أحباءنا. وينبغي استخدامها كقنوات للوصول إلى الذاكرة.

ولهذا السبب فإن المخاوف العامة بشأن استحضار الأرواح الرقمية مبالغ فيها إلى حد كبير.

التقرير من إعداد مايكل ماير، أستاذ علم الاجتماع، وديبانجان ساها، المرشح لدرجة الدكتوراه في علم الاجتماع، وفيليب ديفيد بروكر، محاضر في علم الاجتماع، وتيرينس هينغ، محاضر أول في علم الاجتماع، من جامعة ليفربول.

المصدر: ساينس ألرت

المصدر: RT Arabic

كلمات دلالية: كورونا بحوث مواقع التواصل الإجتماعي الذکاء الاصطناعی علم الاجتماع

إقرأ أيضاً:

صناعة الأوهام.. كيف تستغل الدول الذكاء الاصطناعي في أجندتها الإعلامية؟

في نوفمبر/تشرين الثاني الماضي أطلقت أولغا لويك -وهي طالبة من أوكرانيا تدرس في جامعة بنسلفانيا- قناتها الشخصية على منصة يوتيوب.

لم تحصل أولغا على الجمهور الذي كانت تنتظره، لكنها بعد فترة وجيزة من إطلاق القناة وجدت أن معظم جمهورها يأتي من منصات التواصل الاجتماعي في الصين، والأهم أنها لم تكن هي من تظهر في مقاطع الفيديو، بل كانت نسخة من صورتها نسجها الذكاء الاصطناعي، كما أشار تقرير لرويترز.

كانت شبيهاتها الرقميات مثل "ناتاشا" يدعين أنهن نساء روسيات يتقن اللغة الصينية بطلاقة ويشكرن الصين على دعمها لروسيا ضد الغرب، ويحاولن كسب بعض الأموال عبر بيع منتجات مثل الحلوى الروسية.

والمثير للدهشة أكثر أن تلك الحسابات الوهمية امتلكت مئات الآلاف من المتابعين في الصين، أكثر بكثير من متابعي أولغا نفسها على منصة يوتيوب.

وتمثل تلك الواقعة نموذجا لعدد كبير مما يبدو للوهلة الأولى أنهن فتيات روسيات على وسائل التواصل الاجتماعي في الصين يعبرن عن حبهن لها باللغة الصينية بطلاقة ويذكرن أنهن يسعين إلى دعم روسيا في الحرب من خلال بيع الواردات من وطنهن الأم، ولكن لا وجود لأي منهن.

ويذكر الخبراء أن صور تلك الفتيات مولدة بالذكاء الاصطناعي عبر انتحال وسرقة مقاطع لنساء حقيقيات على الإنترنت، وغالبا دون علمهن، وتُستخدم مقاطع الفيديو المزيفة للترويج لمنتجات للرجال في الصين، وفقا لتقرير رويترز.

ويذكر جيم تشاي الرئيس التنفيذي لشركة "إكسموف" -وهي شركة تعمل على تطوير تقنيات الذكاء الاصطناعي- أن تقنية إنتاج مثل تلك الصور أصبحت "شائعة للغاية لأن كثيرين يستخدمونها في الصين".

وعلى نطاق أوسع، لفتت تلك الواقعة الانتباه إلى مخاطر تقنيات الذكاء الاصطناعي التي تتطور بوتيرة متسارعة للغاية، فقد ازدادت المخاوف بشأن مساهمة الذكاء الاصطناعي في نشر المعلومات المضللة والأخبار المزيفة والاستخدام في نشر السرديات الموجهة أو في الدعاية الإعلامية خلال الأشهر الماضية، وسط تزايد انتشار أنظمة الذكاء الاصطناعي التوليدي مثل روبوت المحادثة "شات جي بي تي".

زاد انتشار أنظمة الذكاء الاصطناعي التوليدي مثل روبوت المحادثة "شات جي بي تي" (شترستوك) مكسب الكاذب

تستعين الحكومات والأطراف والجهات السياسية المؤثرة في مختلف دول العالم -سواء في الأنظمة الديمقراطية أو السلطوية- بالذكاء الاصطناعي لتوليد النصوص والصور والفيديو بهدف توجيه الرأي العام لصالحها ولفرض رقابة آلية على المحتوى المنتقد لها على الإنترنت.

وفي التقرير السنوي -الذي صدر في أكتوبر/تشرين الأول العام الماضي- وثق الباحثون في منظمة فريدوم هاوس -وهي إحدى منظمات الدفاع عن حقوق الإنسان- استخدام الذكاء الاصطناعي التوليدي في 16 دولة "لزرع الشك أو تشويه سمعة المعارضين أو التأثير على الحوار العام".

وقد توصل التقرير إلى أن حرية الإنترنت العالمية انخفضت للعام الـ13 على التوالي مدفوعة جزئيا بانتشار تقنيات الذكاء الاصطناعي.

ويذكر الباحثون أن واحدة من أهم النتائج التي توصلوا إليها تتعلق بتغير أسلوب استخدام الحكومات الذكاء الاصطناعي، ومع تطور تلك التقنيات بصورة متزايدة تواصل جهات سياسية استغلالها لتضخيم المعلومات المضللة لتخدم مصالحها.

ورغم أن تلك التطورات ليست مفاجئة بالضرورة فإن إحدى أكثر النتائج إثارة للاهتمام هي أن سهولة الوصول إلى الذكاء الاصطناعي التوليدي على نحو واسع النطاق قد تضعف الثقة في الحقائق التي يمكن إثباتها، وفقا للتقرير.

ومع انتشار المحتوى الذي يولده الذكاء الاصطناعي على الإنترنت بصورة طبيعية قد يسمح هذا للجهات السياسية بالتشكيك في المعلومات الموثوقة والحقيقية، وهي ظاهرة تعرف بـ"مكسب الكاذب"، إذ يؤدي الحذر من التزييف إلى زيادة تشكك الجمهور في المعلومات الصحيحة، خاصة في أوقات الأزمات أو الصراعات السياسية عندما تتفشى المعلومات الكاذبة.

الذكاء الاصطناعي يسهل المهمة

تعمل تقنيات الذكاء الاصطناعي على أتمتة صناعة الأخبار المضللة، مما أدى إلى انفجار في محتوى المواقع على شبكة الإنترنت الذي يحاكي مقالات حقيقية لكنها تنشر في المقابل معلومات كاذبة عن الانتخابات والحروب والكوارث الطبيعية.

وخلال العام الماضي ازدادت المواقع التي تنشر مقالات مضللة من إنتاج الذكاء الاصطناعي بأكثر من 1000%، إذ ارتفع عددها من 49 موقعا إلى أكثر من 600 موقع، وفقا لتقرير من منظمة "نيوز غارد" التي تتعقب المعلومات المضللة.

ومن الناحية التاريخية، اعتمدت عمليات الدعاية على جيوش من العاملين بأجور منخفضة أو منظمات استخباراتية شديدة التنسيق لإنشاء مواقع على الإنترنت تبدو كأنها حقيقية.

لكن تقنيات الذكاء الاصطناعي تسهّل على أي شخص تقريبا -سواء كان جزءا من وكالة تجسس أو مجرد مراهق في قبو منزله- إنشاء تلك المواقع وإنتاج محتوى يصعب أحيانا التفرقة بينه وبين الأخبار الحقيقية.

كما أظهرت تجارب في ورقة بحثية جديدة صدرت في فبراير/شباط الماضي أن النماذج اللغوية بإمكانها توليد نصوص مقنعة للجمهور الأميركي بنفس درجة إقناع المحتوى الناتج من حملات الدعاية الخارجية السرية الحقيقية.

كما أن إستراتيجيات العمل المشترك بين الإنسان ونماذج الذكاء الاصطناعي مثل تعديل التوجيهات لروبوت المحادثة وتنسيق النتائج أسفرت عن مقالات مقنعة بقدر الدعاية الأصلية أو أكثر إقناعا منها.

وتشير شركة "أوبن إيه آي" المطورة لروبوت المحادثة "شات جي بي تي" إلى أنها تملك الآن أكثر من 100 مليون مستخدم نشط أسبوعيا، وتعمل أدواتها على تسهيل وسرعة إنتاج كم ضخم من المحتوى، كما يمكن استخدامها لإخفاء الأخطاء اللغوية وتوليد تفاعل وهمي.

الحكومات والجهات السياسية المؤثرة في مختلف دول العالم تستعين بالذكاء الاصطناعي لتوليد النصوص والصور والفيديو (شترستوك) حملات سرية للتأثير

في نهاية مايو/أيار الماضي كشفت شركة "أوبن إيه آي" عن 5 عمليات سرية من روسيا والصين وإيران وإسرائيل استخدمت فيها تلك الدول تقنيات الذكاء الاصطناعي الخاصة بالشركة بغرض التأثير على الرأي العام العالمي، وذكرت الشركة أنها تمكنت من إيقافها، وفقا لما ذكرته صحيفة تايم.

وأوضحت الشركة في تقريرها الجديد كيف استخدمت هذه المجموعات -التي يرتبط بعضها بحملات دعائية معروفة- تقنيات الشركة في العديد من "الأنشطة المضللة"، وشملت تلك الأنشطة إنتاج تعليقات ومقالات وصور على وسائل التواصل الاجتماعي بلغات عدة، بالإضافة إلى ابتكار أسماء ونبذات تعريفية لحسابات وهمية، وتعديل الأكواد البرمجية، إلى جانب ترجمة النصوص وتدقيقها لغويا.

وركزت هذه العمليات على مجموعة من القضايا، منها الدفاع عن الحرب الدائرة على قطاع غزة والغزو الروسي لأوكرانيا، وتوجيه الانتقادات لمعارضي الحكومة الصينية، بالإضافة إلى نشر تعليقات بشأن السياسات في الهند وأوروبا والولايات المتحدة في إطار محاولاتها للتأثير على الرأي العام هناك.

وكشفت الأمثلة التي أوردها محللو "أوبن إيه آي" كيف تستخدم تلك الجهات تقنيات الذكاء الاصطناعي في نفس أنواع عمليات التأثير على الإنترنت التي تنفذها منذ عقد من الزمان، وتركز هذه الجهات على استخدام الحسابات والتعليقات والمقالات المزيفة بهدف التأثير على الرأي العام والتلاعب بالنتائج السياسية.

وكتب الباحث المسؤول عن فريق الاستخبارات والتحقيقات في "أوبن إيه آي" في التقرير "تكشف هذه التوجهات عن ساحة تهديدات تتسم بالتطور وليس الثورية، تستخدم تلك الجهات منصتنا لتحسين جودة محتواها والعمل بكفاءة أكبر".

وعلى سبيل المثال، أوضح تقرير الشركة بالتفصيل كيف استخدمت الشركة الإسرائيلية "ستويك" -وهي شركة للتسويق السياسي في تل أبيب- أدوات "أوبن إيه آي" لتوليد محتوى مؤيد لإسرائيل بشأن حرب الإبادة الدائرة على قطاع غزة.

واستهدفت تلك الحملة -التي كانت باسم "زيرو زينو"- الجمهور في الولايات المتحدة وكندا وإسرائيل، كما ذكرت شركة ميتا أنها حذفت 510 حسابات على فيسبوك و32 حسابا على إنستغرام ارتبطت بنفس الشركة الإسرائيلية.

وكانت مجموعة الحسابات المزيفة -التي تضمنت حسابات لأشخاص يتظاهرون بأنهم أميركيون من أصل أفريقي وطلاب في الولايات المتحدة وكندا- غالبا ترد على شخصيات بارزة أو مؤسسات إعلامية في منشورات تشيد بإسرائيل وتنتقد معاداة السامية في الجامعات الأميركية وتندد بتيارات "الإسلام الراديكالية".

وبحسب تقرير "أوبن إيه آي"، يبدو أن تلك الحملة قد فشلت في الوصول إلى أي تفاعل يذكر معها.

كما استخدمت إحدى حملات التأثير الروسية التي أوقفتها الشركة وأطلقت عليها اسم "قواعد سيئة" نماذج الذكاء الاصطناعي الخاصة بها لتصحيح الأكواد البرمجية لتشغيل روبوت على تطبيق تليغرام يتولى عملية نشر تعليقات سياسية قصيرة باللغتين الإنجليزية والروسية، وتقول الشركة إن العملية استهدفت أوكرانيا ومولدوفا والولايات المتحدة ودول البلطيق.

واستخدمت عملية روسية أخرى تعرف باسم "دوبلغنغر" وربطتها وزارة الخزانة الأميركية بالكرملين نماذج "أوبن إيه آي" لتوليد عناوين الأخبار وتحويل المقالات الصحفية إلى منشورات على فيسبوك، بالإضافة إلى كتابة التعليقات باللغات الإنجليزية والفرنسية والألمانية والإيطالية والبولندية.

كما استغلت شبكة صينية معروفة -وهي شبكة "سباموفلاغ" أدوات "أوبن إيه آي" للبحث في أنشطة وسائل التواصل الاجتماعي، وتوليد نصوص باللغات الصينية والإنجليزية واليابانية والكورية نشرت عبر منصات مختلفة، منها "إكس"، و"ميديم"، و"بلوغسبوت".

مقالات مشابهة

  • آبل تتجه لدمج جيمينى لنظام التشغيل iOS 18
  • «الذكاء الاصطناعي» يدخل عصر «الروبوتات القاتلة»
  • بعد البرازيل.. تحقيق قضائي إسباني بشأن ميتا على خلفية الذكاء الاصطناعي
  • الصين تتصدر براءات الإختراع في مجال الذكاء الاصطناعي التوليدي عالميًا
  • إسماعيل عبد الغفار رئيسًا للجمعية العامة لمشروع الحاضنة العربية لمشاريع الذكاء الاصطناعي
  • صناعة الأوهام.. كيف تستغل الدول الذكاء الاصطناعي في أجندتها الإعلامية؟
  • تحقيق قضائي إسباني بشأن "ميتا" بسبب الذكاء الاصطناعي
  • قراصنة يخترقون الذكاء الاصطناعي
  • مدير المرور السريع بولاية البحر الاحمر يترأس الاجتماع الأول لمدراء ورؤساء القطاعات بالولاية
  • سرقة أسرار أوبن إيه آي يثير مخاوف بشأن الصين