سرايا - تمكن “شات جي بي تي” ومختلف روبوتات الدردشة المعتمدة على نماذج الذكاء الاصطناعي اللغوية من التغلغل في كافة جوانب الحياة اليومية لمختلف المستخدمين ذوي الخلفيات المتنوعة، وذلك بشكل أسرع من التقنيات الحديثة الأخرى، إذ يملك “شات جي بي تي” تحديدا أسرع معدل نمو في الاستخدام مقارنةً مع “فيسبوك” و”إنستغرام” كمثال.



ورغم الفوائد الجمة التي تقدمها نماذج الذكاء الاصطناعي وفي مقدمتها “شات جي بي تي”، إلا أنها تحمل بداخلها مخاطر تهدد السلام والأمن العام للدول، إما عبر نشر الشائعات الخاطئة من داخل النموذج ذاته، أو استخدامه لتوليد محتوى يروج للشائعات والمعلومات الخاطئة، ومع اقتراب يوم الانتخابات الرئاسية الأميركية 2024، تزداد المخاوف من الاستخدامات السيئة لهذه التقنية.

ولكن هل تملك هذه المخاوف أي أساس من الصحة؟ أم أنها مجرد لحظات تهويل من أشخاص غير خبراء أو مطلعين على التقنية ومدى قدرتها في التأثير على الآراء العامة؟ أم أنها فعلا تمثل خطرا حقيقيا على الانتخابات الرئاسية الأميركية أو أي عملية انتخابية في أي مكان حول العالم؟

تأثير غير مباشر
عند الحديث عن التأثير الذي يمكن أن يمتلكه “شات جي بي تي” ونماذج الدردشة الأخرى يتبادر إلى الذهن محاولة روبوت الدردشة التأثير المباشر في آراء الناخبين، ولكن الحقيقة أن هذا التأثير ليس مباشرا وقد لا يأتي من الروبوت بشكل مباشر.

وذلك بفضل قدرة “شات جي بي تي” وروبوتات الدردشة المماثلة على توليد محتوى سواءً كان نصيا أو مقاطع فيديو أو مقاطع صوتية تحاكي طريقة وأسلوب الحديث المحلي المستخدم في مختلف الدول حول العالم، وهو ما يجعل هذا المحتوى أقرب إلى المحتوى البشري ويمكن تصديقه.

وتعد هذه القدرة هي الخطر الأكبر الذي تمثله روبوتات الدردشة على المستخدمين وآرائهم، وبفضلها اختفت الحاجة إلى وجود أشخاص محليين راغبين ومستعدين لتوليد المحتوى المضلل، وفضلا عن جودة المحتوى الناتج من روبوتات الدردشة هذه، فإن سرعة توليد المحتوى ووفرته تجعله مثاليا للاستخدام مع مختلف المنصات عبر الإنترنت، سواءً كانت محركات بحث مثل “غوغل” أو منصات تواصل اجتماعي على غرار “فيسبوك” و”إنستغرام”.

ولم يغب هذا الاستخدام عن الجهات الخارجية التي وجدت في قدرات “شات جي بي تي” وسيلةً لتوليد محتوى مضلل مُقنع وأقرب إلى المحتوى البشري، لذا قامت مجموعة إيرانية باستخدامه ضمن عملية أطلقت عليها اسم “عاصفة-2035” (Storm-2035) لتوليد محتوى مضلل يستهدف الجاليات اللاتينية في الولايات المتحدة طمعا في التأثير على أصواتهم في الانتخابات.

وأشارت “أوبن إيه آي” إلى هذه العملية في بيان رسمي عبر موقعها، ومن خلال هذا البيان كشفت عن آلية استخدام “شات جي بي تي” في العملية، إذ كان الروبوت يولد المحتوى المضلل بناءً على المعلومات المضللة التي يتم تزويده بها، ثم يتم تخصيص المحتوى وتحسينه عبر الروبوت بشكل يجعله يقترب من المحتوى البشري قبل أن يتم نشره عبر منصات التواصل الاجتماعي المختلفة.

ووفق تقرير الشركة، فإن الحسابات التي كانت مشتركة في هذه العملية تم حظر وصولها إلى “شات جي بي تي” فضلا عن أن المحتوى المولد عبره لم يحظَ بالانتشار الذي يجعله يهدد أمن وسلامة المستخدمين بشكل مباشر، لذا فإن آثارها لم تكن واسعة بحسب وصف الشركة، ولكن بالطبع لا يمكن التأكد من أن جميع الحسابات المشاركة في هذه العملية أو التي نشرت المحتوى تم حظرها، وذلك لأن الحسابات التي ستتمكن من الاختفاء عن أعين الرقابة ستكون قادرة على توليد محتوى ذي جودة أكبر وقابلية انتشار أعلى.

حقبة تخصيص المحتوى المضلل
في العادة، يتم توليد المحتوى المضلل ليخاطب أكبر عدد ممكن من الأفراد فضلا عن صعوبة تخصيص المحتوى ليناسب الثقافة المحلية من قبل أشخاص خارج هذه الثقافة، ولكن “شات جي بي تي” يحل هذه المشكلة بشكل بسيط وسريع للغاية.

يستطيع النموذج تحويل المعلومات المضللة المقدمة إليه لتصبح مناسبة لفئات معينة ومختلفة من الشعب المستهدف، وربما كانت عملية “عاصفة-2035” مثالا حيا على ذلك، إذ تمكن النموذج من تخصيص المعلومات المضللة لتناسب الجالية اللاتينية أو ذات الأصول اللاتينية.

ويمكن توسيع رقعة الاستهداف الخاصة بالمحتوى المضلل أو تضييقها بحسب ما تقتضي الحاجة لهذا المحتوى، فيمكن عبر “شات جي بي تي” صناعة محتوى يستهدف السيدات اللاتي يبلغ من العمر 50 عاما أو أكبر ويعشن في ولايات جنوب أميركا ولا يعملن ويحببن مشاهدة الأعمال الدرامية التي تتحدث عن المؤامرات، وفي هذه الحال يكون صدى المحتوى المولد أكبر من المحتوى العشوائي.

أداة جمع بيانات وتخصيص إعلانات أكثر قوة
في مارس/آذار 2018 ظهرت فضيحة شركة “كامبريدج أناليتيكا” (Cambridge Analytica) التي اعتمدت عليها حملة الرئيس الأميركي آنذاك دونالد ترامب من أجل توجيه الإعلانات وتخصيصها بشكل يجعلها أكثر تناسبا لفئة معينة من الشعب بناء على تفضيلاتهم وبياناتهم على منصات التواصل الاجتماعي.

وبينما كانت المشكلة في تلك الفضيحة هي آلية وصول الشركة إلى البيانات من شركة “ميتا” وغيرها، إلا أن وجود البيانات في حد ذاته لم يكن جزءا من الفضيحة، وبفضل قدرات الذكاء الاصطناعي على قراءة وفحص العديد من الصفحات والنصوص والحسابات عبر الإنترنت، فإنه يصبح قادرا على تقديم مثل هذه البيانات بشكل سريع وفوري.

وتتسع رقعة الخطر أيضا حين استخدام نماذج الذكاء الاصطناعي للتنبؤ بنتائج الانتخابات، وهو الأمر الذي أشارت إليه ورقة بحثية نشرت في “جامعة كورنيل” (Cornell University) وشارك فيها خبراء من “غوغل” ومعهد “إم آي تي” وجامعة “هارفارد”.

وبحسب ما جاء في البحث، فإن هذه القدرة التي يتمتع بها الذكاء الاصطناعي تتيح للشركات والجهات الخارجية أو الداخلية توقع نتيجة الانتخابات بشكل أقرب للصواب ثم بناء إستراتيجيات وتصميم حملات تهدف للتأثير في هذه النتيجة بناءً على البيانات الواردة من الذكاء الاصطناعي، ليصبح بذلك الذكاء الاصطناعي مؤثرا في نتائج الانتخابات بشكل غير مباشر.

بناء روبوتات دردشة مضللة
رغم خطورة الاحتمالات السابقة، إلا أنها تناقش فقط استخدام نماذج الذكاء الاصطناعي لتوليد محتوى مضلل قادر على التأثير في الانتخابات، ولكن هناك آلية أكثر خطورة تجعل تهديد وخطر الذكاء الاصطناعي أكثر شراسة.

وتعتمد هذه الآلية على اختراق روبوتات الدردشة الموجودة في الوقت الحالي بمختلف أنواعها، ثم تزويدها ببيانات خاطئة تماما ليقوم الروبوت لاحقا بنشر هذه البيانات بين مستخدميه والإجابة عن الأسئلة التي يمتلكونها.

وإن كان اختراق “شات جي بي تي” أو “جيميناي” أمرا صعبا، فإن الجهات الخارجية أو الداخلية قد تسعى إلى بناء روبوت دردشة من الصفر والترويج له قبل الانتخابات بوقت كافٍ ليستطيع نشر المعلومات والبيانات المضللة عن الحملات الانتخابية بين المستخدمين.

وبينما يعد هذا السيناريو مستبعدا في الوقت الحالي، إلا أن التخطيط المناسب والاستعداد قبل الانتخابات بوقت كاف يجعله أقرب إلى التصديق، وهو سيناريو أكثر خطورة من مجرد توليد المحتوى المضلل عبر روبوتات الدردشة ونشره في منصات التواصل الاجتماعي.


المصدر: وكالة أنباء سرايا الإخبارية

كلمات دلالية: نماذج الذکاء الاصطناعی روبوتات الدردشة تولید المحتوى شات جی بی تی إلا أن فی هذه

إقرأ أيضاً:

OpenAI تستعد لإطلاق وكلاء الذكاء الاصطناعي باشتراك 20 ألف دولار شهريا

أفادت أحدث التقارير إلى أن شركة OpenAI تعتزم تكثيف جهودها لإطلاق العديد من منتجات وكلاء الذكاء الاصطناعي كأحد العوامل الرئيسية لنمو الإيرادات.

ووفقا لتقرير من The Information، تسعى شركة الذكاء الاصطناعي المطورة لـ ChatGPT إلى فرض رسوم تصل إلى 20,000 دولار شهريا على "وكلاء الذكاء الاصطناعي" المتخصصين والمصممين لتنفيذ مهام محددة تتعلق بهندسة البرمجيات والبحث.

OpenAI توسع إتاحة ميزة البحث العميق لمشتركي الخطط المأجورةOpenAI تقلب الموازين.. حظر حسابات صينية في ChatGPT يثير الجدل

وبحسب التقرير، تخطط OpenAI لإطلاق وكيل موجه للعاملين في المعرفة ذوي الدخل المرتفع، الذي سيكون الوصول إليه مقابل 2,000 دولار شهريا، كما يقال إن وكيل مطور البرمجيات القادم سيكلف 10,000 دولار شهريا.

أما الوكيل الأغلى لدى الشركة، الذي يصمم لتنفيذ "أبحاث على مستوى الدكتوراه"، فمن المتوقع أن يبلغ سعره 20,000 دولار شهريا.

بينما لا يزال من غير الواضح متى ستطلق OpenAI هذه الأدوات المعتمدة على الوكلاء الذكاء الاصطناعي، أفادت The Information بأن مستثمرها Softbank، قد تعهد بإنفاق 3 مليارات دولار على منتجات الوكلاء الذكاء الاصطناعي لشركة OpenAI هذا العام فقط.

وفي فبراير من هذا العام، أطلقت OpenAI أداة ذكاء اصطناعي جديدة تسمى Deep Research، التي قادرة على جمع المعلومات من جميع أنحاء الإنترنت ودمجها لإنشاء تقرير شامل على مستوى محلل الأبحاث.

كما تم إطلاق نموذج GPT-4.5 من الشركة الأسبوع الماضي، مع تحسينات في القدرة على التعرف على الأنماط وتوليد الأفكار الإبداعية دون الحاجة إلى التفكير المنطقي.

مايكروسوفت تنافس OpenAI

تسارع مايكروسوفت من جهودها لمنافسة OpenAI، من خلال تطوير نماذج ذكاء اصطناعي قوية خاصة بها واستكشاف بدائل لمنتجات مدعومة بالذكاء الاصطناعي مثل Microsoft Copilot.

وفقا لتقارير إعلامية، طورت مايكروسوفت نماذج "تفكير" للذكاء الاصطناعي مماثلة لنماذج OpenAI مثل O1 و O3-MINI. 

ويقال أن OpenAI رفضت طلبات مايكروسوفت للحصول على تفاصيل فنية حول كيفية عمل O1، مما يشير إلى وجود توترات بين الشركتين.

أفادت وكالة "بلومبرج" أن مايكروسوفت قامت أيضا بتطوير مجموعة نماذج تسمى MAI تنافس نماذج OpenAI الخاصة، ويقال إنها تفكر في تقديمها من خلال واجهة برمجة التطبيقات API في وقت لاحق من هذا العام.

بالتوازي مع هذه الجهود، يقال إن مايكروسوفت تختبر نماذج ذكاء اصطناعي بديلة من XAI و META و Deepseek كبدائل محتملة لتقنية OpenAI في Copilot.

وقد اتخذت مايكروسوفت، التي استثمرت حوالي 14 مليار دولار في OpenAI حتى الآن، خطوات للتحوط من استثماراتها في OpenAI بعدة طرق، بما في ذلك توظيف مؤسس DeepMind، مصطفى سليمان، لقيادة جهود الذكاء الاصطناعي في الشركة.

مقالات مشابهة

  • المعركة القادمة من أجل الذكاء الاصطناعي
  • ذكاء Apple المتعثر.. هل فقدت الشركة سباق الذكاء الاصطناعي؟
  • موقف الشريعة من التطورات الحديثة في الذكاء الاصطناعي
  • «الذكاء الاصطناعي» يرسم تصوراً لـ«شكل العالم» بعد 30عاماً
  • هل تقضي روبوتات الذكاء الاصطناعي على الصدق في تطبيقات المواعدة؟
  • «سدايا» تعزز مشاركة السعوديات في مستقبل الذكاء الاصطناعي
  • آبل تواجه تحديات تقنية .. تأجيل تحديثات الذكاء الاصطناعي لـ Siri حتى 2026
  • «أبل» تؤجل دمج أحد خدماتها بـ«الذكاء الاصطناعي» حتى 2026.. ما السبب؟
  • آبل تؤجل تحديثات الذكاء الاصطناعي لـ Siri إلى عام 2026
  • OpenAI تستعد لإطلاق وكلاء الذكاء الاصطناعي باشتراك 20 ألف دولار شهريا