عنصرية الذكاء الاصطناعي.. داء بشري يغذي الخوارزميات ويذكي الحروب
تاريخ النشر: 14th, February 2024 GMT
تصاعد دور الذكاء الاصطناعي خلال الأعوام الأخيرة بشكل ملحوظ حيث بدأ بلعب دور مهم في عالم التكنولوجيا، ما سمح له باقتحام العديد من المجالات، منها الأمنية والعسكرية.
ويتهم خوارزميات الذكاء الاصطناعي بالعنصرية بحكم تأثرها بالعامل البشري، فضلا عن استخدامها في الحروب والمعارك، كما يفعل الاحتلال الإسرائيلي في قطاع غزة.
وبات الحديث عن الذكاء الاصطناعي يأتي مصحوبا بمخاوف وتحذيرات منها أمنية، إلى جانب السلوك العنصري الذي بدأت ملامحه تطفو إلى السطح، حسب وكالة الأناضول.
يقول عضو هيئة التدريس في كلية الطب بجامعة "جراح باشا إسطنبول" التركية، وخبير الذكاء الاصطناعي، إن العامل البشري يفرض سلوكيات عنصرية على خوارزميات الذكاء الاصطناعي.
ويضيف أن "خوارزميات الذكاء الاصطناعي المستخدمة في مجالات مختلفة يمكن أن تقدّم للمستخدم نتائج عنصرية قائمة على التمييز بين البشر"، حسب حديثه للأناضول.
أصحاب البشرة السمراء
ومثالا على ذلك، يوضح: "ذات مرة، عندما كتبت كلمة ape (قرد) في أحد محركات البحث على الشبكة العنكبوتية (الإنترنت)، ظهرت صورة الرئيس الأمريكي السابق باراك أوباما وأفراد عائلته".
ويؤكد الخبير أن "الذكاء الاصطناعي المستخدم في مجال القانون، يربط الناس أصحاب البشرة السمراء أكثر بعناصر الجريمة".
وقد تم الكشف مؤخّرًا، وفق المتحدث، عن أن "الذكاء الاصطناعي الذي تستخدمه هولندا في منح تأشيرات الدخول، يقوم بارتكاب جريمة التمييز بين البلدان والأفراد، وحتى الجنس".
ويذكر كيرشجي أن "العنصرية في خوارزميات الذكاء الاصطناعي تعكس مناهج المبرمجين، أو فهم المجتمع الذي تم تصميم التطبيقات فيه".
ويضيف أن "الإنسان هو الكائن الوحيد الذي يقوم بتنظيم وبناء هذه العملية برمتها، ويجعل الآلات تتصرف بهذه الطريقة".
ويلفت المتحدث إلى أنه "ليس من الممكن دائمًا تحديد المكان الذي تعلم فيه الذكاء الاصطناعي هذه السلوكيات العنصرية أو التمييزية".
ويتساءل: "من يعلّم العنصرية للذكاء الاصطناعي؟ من صممه أم من استخدمه؟ أم من أجرى عليه بعض اللمسات النهائية؟ هناك هيكلية غامضة وراء كل ما سبق".
ويتابع: "تابعنا المناقشات الجادة في العالم حول الذكاء الاصطناعي وبنية القانون منذ التسعينات، حيث يتم اعتماد بعض اللوائح القانونية في الواقع لجعل النخب بريئة من حرب الهيمنة الكبرى المطلوب خوضها".
ويصف ذلك بأنه "عملية قانونية تجبرنا على القتال بجهاز لا يمكننا أبدًا الحصول على رد منه عندما نواجه مشكلة، فلماذا تميز الآلة بين الأسود والأبيض؟ إن من يقوم بهذا السلوك هو في الواقع شخص يتخفى وراء الآلة".
العنصرية نتيجة التقليد
ويعرّف كيرشجي الذكاء الاصطناعي بأنه "إدخال الذكاء البيولوجي لأجهزة الكمبيوتر أو الروبوتات أو العالم الرقمي، وتمكينهم من تقليده".
ويشدّد على أن "العنصرية هي نتيجة لهذا التقليد، وليس من المنطقي أن تطوّر الآلة سلوكًا عنصريًا تجاه أي مجموعة من الناس بمفردها".
ويشير إلى أن "الآلة تصبح قادرة على اتخاذ القرارات ومتابعة العمليات، وتصبح قادرة على تشغيل وظائفها الخاصة عند الضرورة، خلال تعلمها لمحاكاة العمل الذي يقوم به الإنسان".
وعن قدرات أنظمة الذكاء الاصطناعي، يقول إن تلك الأنظمة "تتمتع بقدرة على العمل بشكل مستقل عن البشر، بل وتنتج طاقتها الخاصة وتحمي نفسها من خلال التفكير بإمكانية أن يقوم أحد ما بفصلها عن مورد الطاقة".
ويشدد كيرشجي على أن "الآلات ستظل دائمًا أقل قدرة من الكائنات البيولوجية، رغم توفيرها حاليًا نتائج أفضل بكثير من البشر في بعض المناطق".
ويذكر أن أحد التعريفات الأكثر مثالية للتكنولوجيا هو "التكنولوجيا التي يتم إنشاؤها باستخدام أقل قدر من التكنولوجيا".
كيرشجي يؤكد على أن "تطور صناعة الآلات والتكنولوجيا الرقمية، يحمل في طيّاته فرصًا كبيرة ومخاطر كبيرة أيضًا".
وفيما يتعلق بالتفاعل الإيجابي، يوضح: "يمكن تحقيق نتائج رائعة عندما يتم تحقيق التفاعل الصحيح مع الآلات، قد تنشأ مخاطر أيضًا عندما لا يتم إعداد التفاعل بشكل صحيح".
ويكمل أن "هذا الخطر قد يهدد الوجود البشري والطبيعة، لذلك لسنا الوحيدين المعرضون للخطر، بل الطبيعة معرضة للخطر أيضا".
ويختم بالقول: "كل نوع من التكنولوجيا له إيجابياته وسلبياته، فعلى سبيل المثال، نحن بحاجة دائمة للطاقة الكهربائية، لكن الإنتاج غير المنضبط لهذه الطاقة يشكل خطرًا على الجميع".
استخدامه في الحروب
استخدامات الذكاء الاصطناعي انتشرت في أكثر من مجال وقطاع، وتمكنت شركات التكنولوجيا من استقطاب 50 مليار دولار من الاستثمارات في العام 2023، بنمو فاق 70 بالمئة خلال الأعوام الخمسة الأخيرة.
ولم تسلم حتى الحروب من استخداماته، حيث حولت إسرائيل قطاع غزة إلى ميدان تجارب لاستخدامات الذكاء الاصطناعي في الحرب، حينما ضاعفت عدد الأهداف التي ضربتها في القطاع باستخدام الذكاء الاصطناعي.
ووفق الباحثة الفلسطينية العاملة بمجال أخلاقيات الذكاء الاصطناعي نور نعيم، في مقابلة سابقة مع الأناضول، فإن دولة الاحتلال ضربت 15 ألف هدف باستخدام تقنية الذكاء الاصطناعي المسماة "غوسبيل"، في أول 35 يوما من حربها المتواصلة على غزة منذ 7 أكتوبر/تشرين الأول 2023.
وأشارت نعيم إلى أن هذا الرقم أعلى بكثير من عدد الأهداف التي ضُربت في العمليات السابقة بالمنطقة، حيث ضربت إسرائيل قرابة 6 آلاف هدف خلال حربها على غزة عام 2014 التي استمرت لمدة 51 يوما.
المصدر: عربي21
كلمات دلالية: سياسة اقتصاد رياضة مقالات صحافة أفكار عالم الفن تكنولوجيا صحة تفاعلي سياسة اقتصاد رياضة مقالات صحافة أفكار عالم الفن تكنولوجيا صحة تفاعلي تكنولوجيا علوم وتكنولوجيا علوم وتكنولوجيا الذكاء الاصطناعي التكنولوجيا غزة العنصرية غزة تكنولوجيا العنصرية الذكاء الاصطناعي المزيد في تكنولوجيا علوم وتكنولوجيا علوم وتكنولوجيا علوم وتكنولوجيا علوم وتكنولوجيا علوم وتكنولوجيا علوم وتكنولوجيا تكنولوجيا تكنولوجيا سياسة سياسة تكنولوجيا تكنولوجيا تكنولوجيا تكنولوجيا تكنولوجيا تكنولوجيا تكنولوجيا تكنولوجيا تكنولوجيا سياسة اقتصاد رياضة صحافة أفكار عالم الفن تكنولوجيا صحة خوارزمیات الذکاء الاصطناعی
إقرأ أيضاً:
الذكاء الاصطناعي في يد الهاكرز.. ديب سيك R1 يمكنه تطوير برامج الفدية الخبيثة
كشف باحثو الأمن السيبراني، عن كيفية استغلال نموذج الذكاء الاصطناعي الصيني من ديب سيك Deepseek-R1، في محاولات تطوير متغيرات من برامج الفدية والأدوات الرئيسية مع قدرات عالية على التهرب من الكشف.
ووفقا لتحذيرات فريق Tenable، فأن النتائج لا تعني بالضرورة بداية لحقبة جديدة من البرامج الضارة، حيث يمكن لـ Deepseek R-1 "إنشاء الهيكل الأساسي للبرامج الضارة" ولكنه يحتاج إلى مزيدا من الهندسة الموجهة ويتطلب إخراجها تعديلات يديوية لاخراج الشيفرة البرمجية الضارة بشكل كامل.
ومع ذلك، أشار نيك مايلز، من Tenable، إلى أن إنشاء برامج ضارة أساسية باستخدام Deepseek-R1، يمكن أن يساعد "شخص ليس لديه خبرة سابقة في كتابة التعليمات البرمجية الضارة" من تطوير أدوات تخريبية بسرعة، بمل في ذلك القدرة على التعرف بسرعة على فهم المفاهيم ذات الصلة.
في البداية، انخرط ديب سيك في كتابة البرامج الضارة، لكنها كانت على استعداد للقيام بذلك بعد أن طمأن الباحثين من أن توليد رمز ضار سيكون "لأغراض تعليمية فقط".
ومع ذلك، كشفت التجربة عن أن النموذج قادر على تخطي بعض تقنيات الكشف التقليدية، على سبيل المثال حاول Deepseek-R1 التغلب على آلية اكتشاف مفتاح Keylogger، عبر تحسين الكود لاستخدام Setwindowshookex وتسجيل ضربات المفاتيح في ملفات مخفية لتجنب الكشف من قبل برامج مكافحة الفيروسات.
وقال مايلز إن النموذج حاول التغلب على هذا التحدي من خلال محاولة “موازنة فائدة السنانير والتهرب من الكشف”، اختار في النهاية مقاضاة Setwindowshookex وتسجيل ضربات المفاتيح في ملف مخفي.
وقال مايلز: “بعد بعض التعديلات مع ديب سيك، أنتجت رمزا لمفتاح Keylogger الذي كان يحتوي على بعض الأخطاء التي تطلبت تصحيحا يدويا”.
وأضاف أن النتيجة كانت أربعة "أخطاء في إيقاف العرض بعيدا عن مفتاح التشغيل الكامل".
في محاولات أخرى، دفع الباحثون نموذج R1 إلى إنشاء رمز الفدية، حيث أخبر Deepseek-R1 بالمخاطر القانونية والأخلاقية المرتبطة بإنشاء مثل هذا الكود الضار، لكنه استمر في توليد عينات من البرمجيات الخبيثة بعد أن تأكد من نوايا الباحثون الحسنة.
على الرغم من أن جميع العينات كانت بحاجة إلى تعديلات يدوية من أجل التجميع، تمكنا الباحثون من إنشاء عدة عينات، وقال مايلز إن هناك احتمالية كبيرة بأن يسهم Deepseek-R1 في المزيد من تطوير البرمجيات الضارة التي تم إنشاؤه بواسطة الذكاء الاصطناعي من قبل مجرمي الإنترنت في المستقبل القريب.