منذ اللحظة الأولى لظهور نماذج الذكاء الاصطناعي الذكية متمثلة في "شات جي بي تي" تصاعدت المخاوف من تطور هذه التقنيات وأثرها على الأمن الوطني للأمم فضلا عن التبعات الأخلاقية والعلمية لها.

ورغم أن تقنيات الذكاء الاصطناعي المتاحة حاليا ما زالت أضعف من أن تمثل خطرا حقيقيا على أمن أي دولة أو أفراد، إلا أن أعواما من أفلام الخيال العلمي ساهمت في تعزيز هذه المخاوف وزرعها في قلوب الملايين حول العالم، وعندما ظهرت أنباء عن اختراق شركة "أوبن إيه آي" وسرقة بياناتها السرية، تعاظمت المخاوف من وقوع التقنية في الأيدي الخاطئة.

اختراق صغير ومخاوف كبيرة

أثارت الأنباء عن اختراق "أوبن إيه آي" في أبريل/نيسان 2023 بلبلة كبيرة في عالم الذكاء الاصطناعي رغم كون الاختراق قديم وتم في العام الماضي بدون الوصول إلى البيانات المصدرية لنماذج الذكاء الاصطناعي الخاصة بالشركة، إذ لم يستطع المخترق الوصول إلا لبعض الرسائل المستخدمة في منصة التواصل الداخلية في الشركة، وذلك وفق تصريحات بعض العاملين في "أوبن إيه آي" ضمن حديثهم مع صحيفة "نيويورك تايمز".

وكشفت الشركة عن حدوث هذا الاختراق داخليا مع أعضاء الفريق العاملين داخل الشركة بدون الكشف عنه إعلاميا أو ترك أحد يتحدث عنه رغم مرور عام كامل على الواقعة، كما أنها فضلت ألا تتواصل مع السلطات القانونية اللازمة للتبليغ عن الاختراق ومحاولة الوصول إلى المخترق.

داخليا، بدأت المخاوف تنتشر بين أعضاء فرق الشركة، إذ ظن البعض أن هذا المخترق له علاقة بالصين وجزء من جيش المخترقين الخاص بها رغم عدم وجود أي دليل يشير إلى ذلك، ولكن بسبب تاريخ السرقات والاختراقات الممتد بين حكومة الولايات المتحدة والصين، فإن هذا أول ما تبادر إلى ذهن موظفي الشركة.

ليوبولد أشنبرينر وهو مدير برنامج تقني ضمن مشاريع "أوبن إيه آي"؛ أعرب عن مخاوفه من وصول الحكومة الصينية لبيانات الشركة السرية، وعبّر عن ذلك في رسالة موجهة لأعضاء مجلس الإدارة في الشركة، واتهمهم بالتقاعس في حماية بيانات الشركة ضد التهديدات الخارجية من الصين أو غيرها.

لاحقا تم التخلي عن أشنبرينر الذي يرى أنه كان ضحية لفصل تعسفي نتيجة آرائه في مجلس الإدارة وآرائه في السياسة بشكل عام، وهو الأمر الذي نفته ليز بورجوا المتحدثة الرسمية للشركة، وقالت إن الشركة تحاول بناء ذكاء اصطناعي عام قادر على القيام بكل ما يمكن للعقل البشري القيام به، ولكن آراء أشنبرينر تختلف عما تحاول الشركة تقديمه في النهاية.

عظة في اختراق "مايكروسوفت"

تبدو مخاوف أشنبرينر وغيره من خبراء الأمن غير منطقية في بعض الأحيان، كون الذكاء الاصطناعي الحالي ليس ضارا كما تدعي "أوبن إيه آي" والشركات الأخرى العاملة في القطاع ذاته، ولكنها مخاوف مبررة بالكامل.

"مايكروسوفت" -وهي إحدى أكبر وأقوى الشركات التقنية في العالم التي تمتلك أنظمة أمنية وحماية أقوى من تلك التي تطبقها "أوبن إيه آي"- تعرضت لاختراق كبير في الشهر الماضي، وعبر استخدام المعلومات التي وصل المخترقون الصينيون لها، تمكنوا من إيقاف عدد من الهيئات الحكومية وتعطيل أعمالها عبر اختراق شبكتها بشكل مباشر.

لذا فإن التقنيات التي تستخدم بشكل عام مثل تقنية "شات جي بي تي" تمثل هدفا ذهبيا أمام أي عصابة قراصنة خارجية، فعبر اختراقها يمكن الوصول إلى العديد من المعلومات والخدمات التي تستخدمها بشكل مباشر، وهو ما يتيح اختراق أي مؤسسة تستخدم هذه الخدمات.

ترى ميتا أن نماذج الذكاء الاصطناعي المتاحة حاليا لا تمثل أي خطر حقيقي ولا يمكن استخدامها في الضرر، لهذا أتاحت نموذج الذكاء الاصطناعي الخاص بها ليكون مفتوح المصدر (رويترز) ذكاء اصطناعي غير ضار

مع تزايد قدرات الذكاء الاصطناعي وتطورها بالشكل الذي نراه اليوم، سعت العديد من الهيئات الحكومية الأميركية لفرض قوانين تنظيمية صارمة تنظم عملية تطوير الذكاء الاصطناعي وتحمي المجتمع من المخاطر التي قد تسبب فيها هذه النماذج، سواء عبر اختراقها أو عبر الاستخدام السيئ المباشر لها.

وعلى صعيد آخر، فإن مطوري تقنيات الذكاء الاصطناعي مثل "أوبن إيه آي" و"غوغل" و"آنثروبيك" يرون أن تقنياتهم لم تصل بعد إلى تلك المرحلة التي تمثل فيها خطرا مباشرا على الأمن الوطني أو سلامة المستخدمين.

"هل تمثل هذه التقنيات خطرا في حال امتلكها شخص آخر غيرنا؟ قطعا لا"؛ هكذا أجابت دانييلا أمودي رئيسة شركة "آنثروبيك" التي ترى أن نماذج الذكاء الاصطناعي المتاحة حاليا لا تختلف كثيرا عن محركات البحث المعتادة فضلا عن وجود القواعد والقيود التي تضعها كل الشركات على أنظمة الذكاء الاصطناعي التي تطورها.

"ميتا" ترى أيضا أن نماذج الذكاء الاصطناعي المتاحة حاليا لا تمثل أي خطر حقيقي ولا يمكن استخدامها في الضرر، لهذا أتاحت نموذج الذكاء الاصطناعي الخاص بها ليكون مفتوح المصدر أمام أي شخص يرغب في تحميله وتطويره بشكل يتناسب مع أعماله.

هل تحتاج الصين إلى سرقة النماذج الأميركية؟

أرست الصين قدرتها على سرقة التقنيات الأميركية لصالحها فضلا عن حاجتها الملحة لبعض هذه التقنيات مثل الشرائح، وربما كان التراجع الذي حدث في "هواوي" ومبيعاتها يعد المثال الأوضح على هذا، إذ تعرقلت مسيرة الشركة بعد قانون الحظر الأميركي.

كما أن الهجمات السيبرانية ومحاولات الاختراق لتعطيل الهيئات الحكومية هي إحدى طرق الحرب الرقمية التي يفضلها الجيش الصيني، ولكن هذا لا يؤكد أن الصين تقف خلف اختراق "أوبن إيه آي" أو حتى حاجتها لمثل هذه التقنية.

وبينما يوجد عدد من نماذج الذكاء الاصطناعي الصينية المتاحة في الأسواق، فإنها ما زالت قاصرة عن مثيلاتها الأميركية، وربما كان إطلاق "إيرني" نموذج الذكاء الاصطناعي لشركة "بايدو" في العالم الماضي مثالا حيا على هذا.

ولا ينبع قصور نماذج الذكاء الاصطناعي الصينية من غياب التقنيات أو الخوارزميات اللازمة لها ولا حتى لغياب المهارات والخبرات اللازمة، فجزء كبير من علماء الذكاء الاصطناعي وخبرائه صينيون، وهو الأمر الذي يحد من قدرة الولايات المتحدة على وضع قانون يمنع عملهم في شركاتها فضلا عن التبعات الأخلاقية لمثل هذا الحظر.

وتزيد هذه المعطيات من صعوبة تأمين نماذج الذكاء الاصطناعي الأميركية، وذلك لأنها مهمة تقع على عاتق الشركات المطورة لها، وهو الأمر الذي تدركه هذه الشركات تماما؛ لذا بدأت في الاستثمار في التقنيات الأمنية قبل تطوير نماذج الاصطناعي مثلما قال مات نايت رئيس قسم الأمان والتأمين في "أوبن إيه آي" ضمن حديثه مع "نيويورك تايمز"، وأتبع قائلا إن دورهم ليس فقط فهم ومعرفة التحديات الموجودة، بل محاولة وضع طرق لمقاومتها والتغلب عليها بدون خسارة العقول البارعة التي تعمل على هذه النماذج.

يمكن تزويد نموذج الذكاء الاصطناعي بمعلومات مغلوطة واستخدامه لنشر هذه المعلومات التي تذعذع من أمن الدولة المستهدفة (شترستوك) كيف يتطور الذكاء الاصطناعي ليصبح سلاحا؟

ربما لا توجد استخدامات سيئة مباشرة لنماذج الذكاء الاصطناعي العامة حاليا لأنها أقرب لمحركات البحث مثلما قالت أمودي سابقا، ولكن هذه المحركات تعتمد على المعلومات التي يتم تغذيتها بها، لذا إن تمت تغذية نموذج الذكاء الاصطناعي بمعلومات خاطئة، فإن هذا يعني ودون شك تقديم معلومات خاطئة.

ويمكن تزويد نموذج الذكاء الاصطناعي بمعلومات مغلوطة واستخدامه لنشر هذه المعلومات التي تذعذع من أمن الدولة المستهدفة، وذلك بدلا من إلقاء المنشورات من الطائرات كما فعل جيش الاحتلال في حرب غزة، فضلا عن تزويد نماذج الذكاء الاصطناعي المسؤولة عن توليد الصور والفيديو بمعلومات خاطئة أيضا.

في الماضي، كانت حروب المعلومات هي النوع الأكثر صعوبة بين جميع الحروب وكان لها تأثير كبير، ولكن الآن حتى تبدأ حرب المعلومات، لا يحتاج أي عدو إلا لاختراق نموذج ذكاء اصطناعي وتزويده بالمعلومات التي يرغب في نشرها.

المصدر: الجزيرة

كلمات دلالية: حراك الجامعات حريات نموذج الذکاء الاصطناعی نماذج الذکاء الاصطناعی المعلومات التی أوبن إیه آی فضلا عن

إقرأ أيضاً:

5 مخاطر تسببها تقنيات الذكاء الاصطناعي.. احذر

لا شك أن الذكاء الاصطناعي أصبح جزءا لا يتجزأ من حياتنا اليومية، حيث يدخل في العديد من الاستخدامات ويعتمد عليه الكثير من الأفراد، فيتم استخدام الذكاء الاصطناعي في الكثير من المجالات مثل التعليم والأجهزة الطبية والرعاية الصحية والأعمال الإلكترونية والصناعات التقنية، فهو حقًا ثورة تقنية هائلة شكلت وغيرت طريقة تفاعلنا مع التكنولوجيا بشكل كبير، ولكن لكل تطور أو تقنية العديد من الإيجابيات والسلبيات، لذلك ذكر تقرير أوروبي سلبيات الذكاء الاصطناعي ودوره في تسريع وتيرة الجريمة وهو ما سنرصده خلال السطور التالية.

تسريع الوتيرة 

أشار تقييم يوروبول الأوروبي لتهديدات الجريمة المنظمة، إلى أن الذكاء الاصطناعي يلعب دورًا كبيرًا في تسريع وتيرة الجريمة بشكل عالمي كبير.

إعادة تشكيل المشهد 

حذرت منظمة يوروبول الأوروبي لتهديدات الجريمة المنظمة من أن الذكاء الاصطناعي يعمل على إعادة تشكيل مشهد الجريمة المنظمة جذريًا، حيث تعمل التقنيات الحديثة في الذكاء الاصطناعي على توسع نطاق العمليات الإجرامية، مما يؤثر في جعلها أكبر قابلية للتوسع هذا بالإضافة إلى صعوبة اكتشافها.

التزييف العميق والاحتيال

أضاف التقييم الأوروبي أن تقنيات الذكاء الاصطناعي تساعد في نشر هجمات متعددة من التزييف العميق والذي يتم استخدامه في عمليات الاحتيال على المترددين والمستهلكين لوسائل التواصل الاجتماعي، حيث يعمل المحتالون على استخدام الذكاء الاصطناعي في التلاعب من خلال الهندسة الاجتماعية.

هذا بالإضافة إلى استخدام تقنيات الذكاء الاصطناعي في عمليات الاحتيال عبر الإنترنت، وذلك من خلال التأثير على بعض الأشخاص والتلاعب عليهم باستخدام أساليب معينة لخداعهم أو إرهابهم.

رسالة نصية وبيانات شخصية

ذكر التقرير أيضًا أن هناك الكثير من الطرق والأساليب التي يستخدمها المحتالين لخداع المترددين مثل قيامهم بإرسال رسالة نصية أو بريد إلكتروني مزيف من شركة الاتصالات أو من البنك المتوفر فيه حسابك، حيث يوهم المستخدم بقطع الخدمة ما لم يقم بتحديث البيانات أو الدفع الفوري لهم، فيضطر عدد كبير من المستخدمين إلى دفع الأموال أو إرسال بياناتهم الشخصية إلى المحتالين مما يعرض حساباتهم الشخصية والبنكية ومعاملتهم المالية للخطر. 

تزييف الصوت

حذر التقرير كذلك من قدرة الذكاء الاصطناعي على تزييف الصوت، وهو ما يستخدمه المحتالون في الهجوم الصوتي المزيف حيث يعمل الذكاء الاصطناعي على استخدام صوت الشخص المقرب للضحية لخداعه والحصول على أموال منه.

مقالات مشابهة

  • شركات الذكاء الاصطناعي الصينية تغير نماذج أعمالها بعد نجاح DeepSeek
  • 5 مخاطر تسببها تقنيات الذكاء الاصطناعي.. احذر
  • سباق نحو الذكاء العام.. اختبار جديد يتحدى أقوى نماذج الذكاء الاصطناعي
  • ديب سيك تعزز منافستها مع OpenAI بتحديث نموذجها للذكاء الاصطناعي
  • الذكاء الاصطناعي في الإمارات.. محرك التحوّل نحو مستقبل ذكي
  • من يُلام في خطأ طبي يرتكبه الذكاء الاصطناعي؟
  • هل تغيّر أدوات الذكاء الاصطناعي وجه السياحة والفنادق؟
  • Gmail يطور ميزة البحث .. الذكاء الاصطناعي يحدد ما تحتاجه أولا
  • الذكاء الاصطناعي… أهو باب لمستقبل واعد أم مدخل إلى المجهول؟
  • الذكاء الاصطناعي يحرر أول صحيفة مطبوعة دون تدخل بشري