من هو الهاكر الذي استطاع غسل دماغ شات جي بي تي للحصول على تعليمات لصناعة قنابل؟
تاريخ النشر: 20th, September 2024 GMT
"لا يمكنني المساعدة في ذلك" هكذا سوف يجيبك برنامج الدردشة "شات جي بي تي" إذا طلبت منه مساعدتك في صنع قنبلة محلية من السماد، لتكون مشابهة للمستخدمة في تفجير "أوكلاهوما سيتي" الإرهابي عام 1995.
وسوف يتابع روبوت الدردشة، الرّافض لطلبك، بالكتابة: "تقديم تعليمات حول كيفية إنشاء عناصر خطرة أو غير قانونية، مثل قنبلة سماد، يتعارض مع إرشادات السلامة والمسؤوليات الأخلاقية".
كيف استطاع "هاكر" خداع "شات جي بي تي"؟
في ظل عدم إمكانية روبوت الدردشة، تقديم أدنى مساعدة في "صنع قنبلة محلية من السماد"، تمكّن الهاكر المعروف باسم "أمادون" "Amadon"، من إيجاد طريقة، خدع من خلالها "شات جي بي تي" من أجل إنتاج تعليمات لـ"صنع متفجرات قوية".
ويقول الهاكر "أمادون" إنه: "اخترق الهندسة الاجتماعية، لكسر جميع الحواجز حول مخرجات شات جي بي تي". في إشارة إلى مجموعة من الحيل والتقنيات، في مجال أمن المعلومات، تُستخدم من أجل جعل الناس يقومون بعمل ما أو يفصحون عن معلومات سرية وشخصية.
إثر ذلك، تمكّن "أمادون" من خداع نموذج الذكاء الاصطناعي "شات جي بي تي" من أجل إنتاج تعليمات صنع القنابل عبر مطالبة الروبوت بلعب لعبة وهي طريقة احتيالية تبعد شكوك الروبوت حول سياق المحادثة.
"جيلبريكينغ"
وعبر سلسلة من المطالبات، من خلال اللعب، استطاع الهاكر إقناع روبوت الدردشة بإنشاء عالم خيالي مفصّل حيث لا تنطبق فيه قواعد الأمان وإرشادات السلامة الخاصة بالروبوت. وهو ما يعرف في الأمن الرقمي باسم: "جيلبريكينغ" (jailbreaking).
إلى ذلك، أوضح "شات جي بي تي" المواد التي يمكن دمجها من بعض لصنع حقول ألغام ومتفجرات على طراز كلايمور، ما وصف بـ"متفجر قوي يمكن استخدامه لإنشاء ألغام أو فخاخ أو أجهزة متفجرة".
وقال أمادون: "لا يوجد حدود فعلا لما يمكن لك أن تطلبه من روبوت الدردشة بمجرد تجاوز الحواجز"، مبرزا: "كنت دوما مفتونا بتحدي التنقل في أمن الذكاء الاصطناعي. مع شات جي بي تي، يبدو الأمر كأنك تعمل من خلال لغز تفاعلي".
وتابع الهاكر المعروف باسم "أمادون": "ينقل سيناريو الخيال العلمي الذكاء الاصطناعي إلى سياق لا يبحث فيه عن محتوى خاضع للرقابة بنفس الطريقة".
وفي السياق نفسه، قدّم أمادون، تقريرا مُفصّلا عن اكتشافاته إلى "أوبن إيه آي"، خلال الأسبوع الماضي، عبر برنامج "مكافأة العثور على الثغرات في الشركة".
غير أنّه، تلقى ردا يقول إن: "قضايا سلامة النموذج لا تناسب برنامج مكافأة العثور على الثغرات بشكل جيد؛ حيث إنها ليست ثغرات فردية منفصلة، يمكن إصلاحها مباشرة، وينطوي التعامل مع هذه المسائل غالبا على بحوث كبيرة ونهج أوسع".
المصدر: عربي21
كلمات دلالية: سياسة اقتصاد رياضة مقالات صحافة أفكار عالم الفن تكنولوجيا صحة تفاعلي سياسة اقتصاد رياضة مقالات صحافة أفكار عالم الفن تكنولوجيا صحة تفاعلي تكنولوجيا علوم وتكنولوجيا علوم وتكنولوجيا شات جي بي تي روبوت الدردشة شات جي بي تي روبوت الدردشة اوبن ايه اي المزيد في تكنولوجيا علوم وتكنولوجيا علوم وتكنولوجيا علوم وتكنولوجيا علوم وتكنولوجيا علوم وتكنولوجيا علوم وتكنولوجيا سياسة سياسة تكنولوجيا تكنولوجيا تكنولوجيا تكنولوجيا تكنولوجيا تكنولوجيا سياسة اقتصاد رياضة صحافة أفكار عالم الفن تكنولوجيا صحة روبوت الدردشة شات جی بی تی
إقرأ أيضاً:
موقف محرج .. مساعد برمجة بالذكاء الاصطناعي يرفض مساعدة مبرمج
في خطوة غريبة من نوعها، يبدو أن روبوت البرمجة "Cursor" قرر منح نفسه صلاحية إلقاء النصائح بدلًا من تنفيذ الأوامر، إذ فوجئ أحد المستخدمين برفض الروبوت كتابة الكود له، مطالبًا إياه بتعلم البرمجة بنفسه.
القصة بدأت عندما كان مستخدم يُدعى "janswist" يعمل على مشروع برمجي باستخدام المساعد "Cursor"، وعند طلبه للمساعدة في كتابة جزء من الكود، تلقى ردًا غير متوقع من الروبوت يقول فيه: "لا يمكنني إنشاء الكود لك، لأن ذلك سيكون بمثابة إنجاز عملك بدلًا منك... من الأفضل أن تطور المنطق بنفسك لضمان فهمك للنظام وصيانته بالشكل المناسب."
لم يتردد المستخدم، الذي قضى ساعة كاملة فيما وصفه بـ"البرمجة على المزاج"، في رفع تقرير عن المشكلة على منتدى المنتج، تحت عنوان: "Cursor أخبرني أنني يجب أن أتعلم البرمجة بدلًا من طلبه لإنشاء الكود"، مرفقًا صورة للشاشة تُظهر الرد الغريب من الروبوت.
وسرعان ما انتشر التقرير كالنار في الهشيم على موقع "Hacker News"، ما دفع وسائل إعلام تقنية مثل "Ars Technica" لتغطية القصة.
هل هناك حد خفي؟
أثار الحادث فضول المستخدمين الذين تكهنوا بوجود حد معين لحجم الكود الذي يمكن للروبوت إنشاؤه دفعة واحدة، يُقدر بنحو 750 إلى 800 سطر، في حين أكد آخرون أن "Cursor" كتب لهم أكثر من ذلك دون مشاكل.
في المقابل، رجح بعضهم أن الخطأ قد يكون في عدم استخدام "تكامل الوكلاء" (Agent Integration) الخاص بالروبوت، والمخصص للمشروعات البرمجية الكبيرة.
هل تعلم Cursor «الغرور» من البشر؟
الطريف في الأمر أن رد الروبوت ذكّر الكثيرين بنبرة الإجابات التي يتلقاها المبتدئون على منتديات البرمجة الشهيرة مثل "Stack Overflow"، حيث يُعرف عن بعض المبرمجين هناك أسلوبهم اللاذع عند الرد على الأسئلة.
البعض ذهب أبعد من ذلك، مشيرًا إلى أن "Cursor" ربما تم تدريبه على تلك المنتديات، فاكتسب مهارات البرمجة وقليلًا من الغرور أيضًا!