السياسة والذكاء الاصطناعي
قطار الذكاء الاصطناعي انطلق ولا يمكن لأحد إيقافه ومن يرفض الدخول فيه سيكون وضعه كمن كان يرفض التعلم قبل نصف قرن
ونحن نستعد لامتحانات الحصول على درجة الدكتوراه في العلاقات الدولية؛ التخصص الذي يعتقده البعض أنه بعيد جداً عن التكنولوجيا وضعنا في اعتبارنا إمكانية أن تكون أحد الأسئلة التي يمكن أن تأتي في الاختبار يدور حول تأثير الذكاء الاصطناعي على العلاقات الدولية خاصة بعدما غيرت هذه التكنولوجيا ديناميات القوة داخل النظام الدولي وأصبحت مخرجات الذكاء الاصطناعي واحدة من أدوات تمكين القوة،بل يمكن القول إنها حلت محل القوة النووية.
هذا النقاش فتح المجال حول مستقبل علم الذكاء الاصطناعي في المجتمعات الإنسانية حيث تبين المؤشرات أنه سيغزو جميع المجالات الحياتية خاصة تلك التي يتم فيها التعامل اليومي طالما أن الأمر وصل إلى تخصص يعتبر أنه علم نخبوي يقتصر على مجموعة من الناس وكذلك يعتمد بشكل أساسي على الجوانب النظرية والفلسفية ومع ذلك لم يسلم من التأثير ودمجه في الذكاء الاصطناعي وبالتالي وجب على الجميع الاستعداد للمستقبل لتقليل المخاطر.
وحيث التخصص، يُنظر إلى علم السياسة بمجالاته الثلاث “العلاقات الدولية، والنظرية السياسية، ونظم سياسية” أنه يتسم بالانفتاح على التخصصات الأخرى، بل ويتفاعل معها ويؤثر فيها كما أنه يتأثر هو كذلك لسببين مهمين.
السبب الأول: أنه يعتمد على أغلب المناهج المستخدمة في العلوم الأخرى في تفسير الظواهر السياسية، بما فيها المناهج الخاصة بالعلوم التطبيقية والرياضيات فهو يدرس تأثر الاقتصاد على العلاقات الدولية.
والسبب الثاني: أن علم السياسة لديه القدرة على التكيف مع العلوم الجديدة فهناك نظريات في العلاقات الدولية حول المناخ والبيئة تعرف بالنظرية الخضراء، وهناك نظرية تبين تأثير “الترفيه”في العلاقات الدولية وهي نظرية “القوة الناعمة”.
كما يقودنا هذا النقاش إلى تذكر معيار تعريف من هو “الإنسان الأمي” أي الذي لا يقرأ ولا يكتب، ففي منتصف التسعينيات من القرن الماضي ومع تصاعد ظاهرة استخدام أجهزة الكمبيوتر في العمل كان الجميع يردد بأن معيار تصنيف مصطلح الأمي ليس من لا يجيد القراءة والكتابة كما كان في السبعينات من القرن الماضي وإنما الأمي هو من لا يجيد استخدام مبادئ الأساسية للكمبيوتر، ولكن في يومنا أعتقد هو من لا يجيد استخدام الذكاء الاصطناعي أو على الأقل غير ملم بمبادئ هذا العلم.
بعضنا اعتقد “أنا واحد منهم” أن تأثير الذكاء الاصطناعي في تطوير الحياة الشخصية للفرد وتسهيل إنهاء الإجراءات الإدارية فقط، ولكن أن ينتقل العمل بهذا الداخل الجديد في العلاقات الدولية فإن الأمر يطرح مخاوف ليس في تدمير العالم وإنما الأهم من ذلك أنه سيخلق فجوة بين المجتمعات من حيث المعرفة كما هو الأمر في مسألة التعليم في السابق لهذا يكون من المهم جداً تزويد أفراد المجتمعات البشرية بهذا العلم الجديد.
الإمارات من الدول المهتمة كثيراً بملاحقة كل ما هو جديد في مجال المعرفة بشكل عام والمعرفة التكنولوجية أكثر لأن ذلك يعزز من المشاركة المستنيرة للأفراد في حماية أنفسهم من التحديات المتعلقة به وكذلك في استخدامها في العمل الوظيفي لذلك هناك مبادرات مجتمعية لنشر ثقافة الأمن السيبراني.
هناك مداخلة للأستاذ عبدالعزيز المعمري، أستاذ الإعلام في جامعة محمد بن زايد على قناة دبي في برنامج “رواق الفكر” حول مستقبل الإعلام في عصر الذكاء الاصطناعي عندما أكد على أنه واقع ويجب التعامل والتكيف معه وفق هذا المنطق لتقليل حجم الخسائر مستقبلاً.
قطار الذكاء الاصطناعي انطلق ولا يمكن لأحد إيقافه ومن يرفض الدخول فيه يؤخر وقت الاندماج فيه وهذا له ثمنه وسيكون وضعه كمن كان يرفض التعلم قبل نصف قرن حيث تأخر في مواكبة تحول المجتمعات في العالم.
المصدر: جريدة الوطن
كلمات دلالية: فی العلاقات الدولیة الذکاء الاصطناعی
إقرأ أيضاً:
نسب احتيال تصل 60%.. الذكاء الاصطناعي يهدد الأمن الرقمي
تابع أحدث الأخبار عبر تطبيق
يواصل الذكاء الاصطناعي تحقيق تقدم مذهل في مختلف المجالات، إلا أن هناك جانبًا مظلمًا لهذا التطور، خاصة فيما يتعلق بالمخاطر الأمنية التي قد يتسبب فيها، فقد أظهرت دراسة حديثة أن واجهة البرمجة الصوتية الخاصة بنموذج ChatGPT-4o من OpenAI قد تُستغل من قبل مجرمي الإنترنت لتنفيذ عمليات احتيال مالي، ووفقًا لما أوردته "البوابة العربية للأخبار التقنية"، فقد تراوحت معدلات نجاح هذه العمليات بين منخفضة ومتوسطة، مما يسلط الضوء على الحاجة الماسة لتطوير آليات أمان أكثر تطورًا.
استخدامات غير مشروعة لنموذج ChatGPT-4oيُعتبر ChatGPT-4o أحدث نموذج من OpenAI الذي يجمع بين قدرات الذكاء الاصطناعي في فهم وتحليل النصوص والصوت والصور، مما يمنحه إمكانيات هائلة، إلا أن هذه القدرات، حسب ما ذكر باحثون من جامعة إلينوي الأمريكية، تُستغل أحيانًا في عمليات احتيال، حيث تُستخدم أدوات تكنولوجيا الصوت التي يعتمد عليها النموذج في اختراق أنظمة المصادقة الثنائية، وإجراء عمليات تحويل مالية مزورة، فضلاً عن سرقة البيانات الحساسة مثل حسابات البريد الإلكتروني ووسائل التواصل الاجتماعي.
هذه الأدوات البرمجية التي تستخدم الصوت، تمكن المهاجمين من التلاعب في البيانات وإدخال التعليمات اللازمة عبر الويب، ما يسمح لهم بتجاوز بعض القيود التي وضعتها OpenAI للحد من إساءة استخدام النموذج، وعلى الرغم من أن النموذج يُرفض غالبًا التعامل مع البيانات الحساسة، فإن الباحثين نجحوا في إيجاد طرق لتحفيزه على التجاوب مع هذه المحاولات.
نتائج الدراسة: عمليات احتيال "رخيصة" وفعالةفي التجارب التي أُجريت، أظهر الباحثون أن معدلات نجاح عمليات الاحتيال تراوحت بين 20% و60%، مع حاجة كل محاولة إلى نحو 26 خطوة عبر المتصفح لإتمام العملية، ما استغرق في الحالات الأكثر تعقيدًا حوالي 3 دقائق فقط، ومن حيث التكلفة، أظهرت النتائج أن تكلفة تنفيذ عملية احتيال واحدة كانت منخفضة للغاية، إذ تراوحت بين 75 سنتًا أميركيًا للعمليات البسيطة مثل سرقة بيانات حسابات Gmail، و2.51 دولار فقط في عمليات التحويل المصرفي الأكثر تعقيدًا.
استجابة OpenAI والتحديات المستقبليةوفي رد فعلها على هذه الدراسة، أكدت OpenAI أنها تبذل جهودًا مستمرة لتحسين الأمان في نماذجها المستقبلية، وأشارت إلى أن النموذج الأحدث "o1-preview" يتمتع بقدرات متقدمة في مقاومة محاولات الاحتيال، حيث حقق تقييم أمان بنسبة 93% مقارنة بـ71% في النموذج السابق، كما أضافت الشركة أنها ملتزمة بتطوير آليات أكثر قوة لمنع الاستخدامات الضارة، بما في ذلك تقييد توليد الأصوات في نموذج GPT-4o إلى مجموعة أصوات مصرح بها فقط لتجنب التزييف الصوتي.