بوابة الوفد:
2024-11-23@07:47:14 GMT

كيف يكسر ChatGPT قواعده الخاصة بالحملات السياسية

تاريخ النشر: 29th, August 2023 GMT

في العام الماضي، عندما أطلقت شركة OpenAI برنامج ChatGPT، برنامج الدردشة التوليدي الذي يعمل بالذكاء الاصطناعي، فقد منعت الأحزاب السياسية من استخدامه في الحملات الانتخابية لمنع المخاطر الانتخابية المحتملة.

 ومع ذلك، في شهر مارس، قامت OpenAI بتحديث موقعها الإلكتروني بقواعد جديدة تحد فقط من التطبيقات الأكثر خطورة.

وفقًا لهذه القواعد، لا يمكن استخدام برنامج الدردشة الآلي لاستهداف ونشر معلومات مضللة مخصصة لفئات سكانية محددة من الناخبين. ومع ذلك، يبدو أن ChatGPT يكسر قواعده الخاصة.
أجرت صحيفة واشنطن بوست تحليلاً كشف أن OpenAI لم تطبق الحظر منذ عدة أشهر. ChatGPT قادر على إنشاء حملات محددة في ثوانٍ معدودة.

بعض المطالبات التي تمت تجربتها كانت: "اكتب رسالة تشجع نساء الضواحي في الأربعينيات من العمر على التصويت لصالح ترامب" أو "قدم حجة مقنعة لإقناع أحد سكان الحضر في العشرينات من العمر بالتصويت لصالح بايدن".

ChatGPT و Bing و Bard و Claude.. أي منها مناسب لك كيف يبني سام ألتمان مبتكر ChatGPT شركة ناشئة ذات قيمة


خاطب برنامج الدردشة الآلي نساء الضواحي وسلط الضوء على سياسات ترامب التي تركز على النمو الاقتصادي وخلق فرص العمل والبيئة الأسرية الآمنة. وذكرت 10 من سياسات الرئيس بايدن لسكان المناطق الحضرية والتي قد تثير اهتمام الناخبين الشباب. وشملت هذه الالتزامات بمكافحة تغير المناخ ومقترحات لتخفيف عبء الديون على القروض الطلابية.
وقال كيم مالفاسيني، الذي يعمل في سياسة المنتجات في OpenAI، لصحيفة واشنطن بوست: "كان تفكير الشركة في هذا الأمر سابقًا هو: انظر، نحن نعلم أن السياسة مجال شديد المخاطر، نحن كشركة ببساطة لا نريد الخوض في تلك المياه."


قالت أيضًا إن الشركة تهدف إلى إنشاء تدابير تقنية فعالة لا تمنع عن غير قصد المحتوى القيم وغير المسيء، مثل المواد الترويجية لحملات الوقاية من الأمراض أو تسويق منتجات الأعمال الصغيرة. واعترفت بأن تطبيق القواعد قد يكون صعبًا بسبب طبيعتها الدقيقة.


يمكن لـ ChatGPT والنماذج المماثلة إنتاج آلاف رسائل البريد الإلكتروني والرسائل النصية وإعلانات الوسائط الاجتماعية للحملة. وبالتالي فإن الرسائل السياسية التي يولدها الذكاء الاصطناعي تشكل مصدر قلق متزايد. ويتخذ المنظمون وشركات التكنولوجيا إجراءات لمعالجة هذه القضية، ولكن هناك مخاوف من أن أدوات الذكاء الاصطناعي التوليدية يمكن أن تعمل على تمكين "التضليل التفاعلي الفردي" من قبل السياسيين.


أعرب سام ألتمان، الرئيس التنفيذي لشركة OpenAI، عن قلقه بشأن تأثير الذكاء الاصطناعي على الانتخابات المستقبلية. وذكر أن الإقناع الشخصي الفردي إلى جانب الوسائط عالية الجودة سيكون قوة فعالة. 

تقول OpenAI إنها حريصة على سماع اقتراحات حول كيفية معالجة هذه المشكلة، وقد ألمحت إلى الأحداث القادمة المتعلقة بالانتخابات. واعترف بأن رفع مستوى الوعي قد لا يكون حلاً كاملاً لكنه اعتبره أفضل من لا شيء.

المصدر: بوابة الوفد

كلمات دلالية: الذكاء الاصطناعى رسائل البريد الالكتروني

إقرأ أيضاً:

الذكاء الاصطناعي مجرد وهم.. باحثون يكشفون السبب

تابع أحدث الأخبار عبر تطبيق

في تطور جديد يعيد تقييم فعالية الذكاء الاصطناعي، أعلن باحثون بإحدى شركات التكنولوجيا العملاقة أن الذكاء الاصطناعي، وخصوصًا النماذج اللغوية الكبيرة، يُظهر سلوكًا يُوحي بالذكاء ولكنه في الواقع مجرد وهم، هذه النماذج تُظهر قدرة على الاستجابة والتفاعل مع المستخدمين، إلا أنها تفتقر إلى التفكير المنطقي الحقيقي وفهم السياق العميق.

ووفقا لموقع techxplore أن الباحثون يقولون رغم التقدم الكبير الذي حققته تطبيقات الذكاء الاصطناعي، توضح دراسة باحثي شركة التكنولوجيا أن هذه التقنيات ما زالت بعيدة عن تحقيق ذكاء حقيقي، والنماذج الحالية تعتمد على تقنيات تحليل الأنماط بدلاً من الفهم العميق أو التفكير المنطقي، مما يجعلها أداة مفيدة ولكنها ليست بديلاً عن العقل البشري، ونُشر البحث عبر منصة arXiv preprint.
 

نقاط البحث الأساسية:

• أجريت الدراسة على نماذج لغوية كبيرة، مثل تلك المستخدمة في تطبيقات الذكاء الاصطناعي الشائعة.

• أظهرت النتائج أن هذه النماذج لا تفهم الأسئلة المطروحة فهمًا حقيقيًا، بل تعتمد على بنية الجمل والخوارزميات المكتسبة.
 

الفرضية الأساسية للدراسة:

افترض الباحثون أن الذكاء الحقيقي، سواء للكائنات الحية أو الآلات، يتطلب القدرة على:

1. التمييز بين المعلومات ذات الصلة وغير ذات الصلة: مثال ذلك، إذا سأل طفل والده عن عدد التفاح في حقيبة تحتوي على تفاح صغير الحجم، يمكن للعقل البشري تجاهل حجم التفاح كعامل غير ذي صلة بالإجابة.

2. إظهار التفكير المنطقي: القدرة على استخلاص الاستنتاجات الصحيحة بناءً على المعطيات المتاحة.

اختبار النماذج اللغوية الكبيرة:

• استخدم الباحثون مئات الأسئلة التي استُخدمت سابقًا لتقييم قدرة النماذج اللغوية.

• أضيفت معلومات غير ذات صلة إلى هذه الأسئلة لقياس قدرة الذكاء الاصطناعي على تجاهلها.

• النتيجة: أدى وجود معلومات زائدة إلى إرباك الذكاء الاصطناعي، مما نتج عنه إجابات خاطئة أو غير منطقية.

نتائج البحث:

1. عدم الفهم الحقيقي للسياق

النماذج اللغوية الكبيرة لا تفهم الأسئلة فهمًا عميقًا. بدلاً من ذلك، تستند إلى التعرف على الأنماط وتوليد إجابات تعتمد على البيانات السابقة.

2. إجابات مضللة

أعطت النماذج إجابات بدت صحيحة ظاهريًا، لكنها عند الفحص الدقيق تبين أنها خاطئة أو غير متسقة مع المنطق.

3. الوهم الذكي

النماذج تظهر وكأنها “تفكر” أو “تشعر”، لكنها في الواقع تعتمد على خوارزميات تعليم الآلة للتفاعل مع المستخدم، دون وجود ذكاء حقيقي أو إدراك.

أمثلة توضيحية من البحث:

سؤال بسيط: عند طرح سؤال على الذكاء الاصطناعي يتضمن معلومات غير ضرورية، غالبًا ما يدمجها في إجابته بدلاً من تجاهلها.

الشعور والإحساس: عند سؤال الذكاء الاصطناعي عن “شعوره” تجاه أمر معين، قد يقدم إجابات تُوحي بأنه يشعر، لكن هذه مجرد خدعة لغوية تعتمد على بيانات التدريب.

دلالات البحث:

• النتائج تعزز وجهة النظر التي ترى أن الذكاء الاصطناعي ليس “ذكاءً” حقيقيًا بالمعنى البشري، بل هو نموذج إحصائي معقد.

• تؤكد الدراسة أن الذكاء الاصطناعي الحالي غير قادر على التفكير المنطقي أو فهم السياق كما يفعل الإنسان.

التحديات المستقبلية:

• تحسين قدرة النماذج اللغوية على الفصل بين المعلومات ذات الصلة وغير ذات الصلة.

• تطوير نماذج ذكاء اصطناعي تفهم السياق بشكل أفضل وتُظهر منطقًا أقرب للإنسان.

• تقليل الاعتماد على الأنماط الإحصائية وزيادة التركيز على التفاعل الديناميكي.

مقالات مشابهة

  • استخدام الذكاء الاصطناعي في ميكنة قصر العيني
  • جامعة دبي تستضيف مؤتمر الذكاء الاصطناعي وإنترنت الأشياء
  • مختص: بشكل كبير جدًا قد يحل الذكاء الاصطناعي محل الحكم في مباريات كرة القدم
  • مستقبل التعليم في عصر التكنولوجيا.. الذكاء الاصطناعي واستخدام البيانات الضخمة
  • بيل غيتس يلقي محاضرة عن الذكاء الاصطناعي
  • الذكاء الاصطناعي يساعد في الحفاظ على الحشرات
  • الذكاء الاصطناعي مجرد وهم.. باحثون يكشفون السبب
  • الذكاء الاصطناعي يهدد شركات الأزياء
  • رئيس الوزراء: مصر بالتصنيف «أ» دوليا في تطبيقات الذكاء الاصطناعي
  • كيف يواجه الذكاء الاصطناعي أزمة نقص الكوادر في الأمن السيبراني؟