"أبرزها الحرب".. أخطر 3 أشياء سيفعلها الذكاء الاصطناعي 2024| تعرف عليها
تاريخ النشر: 1st, January 2024 GMT
على الرغم من أن عام 2023 كان عام تغيير قواعد اللعبة بالنسبة للذكاء الاصطناعي، إلا أنه كان مجرد البداية، حيث من المقرر أن يبدأ عام 2024 بمجموعة من التطورات المخيفة في مجال الذكاء الاصطناعي والتي من أبرزها التزييف العميق الأكثر واقعية والحرب.
يقول العلماء إن الذكاء الاصطناعي هذا العام قد يؤدي وظائف معينة بشكل أفضل من معظم البشر.
وفقًا لتقرير على موقع Live Science، إن عام 2024 ربما سيكون عام الاختراق بالنسبة للذكاء الاصطناعي حيث أنه من المتوقع أن يفعل ثلاث أمور مخيفة خلال الأشهر المقبلة.
التزييف الواقعي العميق وتزوير الانتخاباتأحد التهديدات السيبرانية الأكثر إلحاحًا في مجال الذكاء الاصطناعي هي تهديد التزييف العميق للواقع إلى الحد الذي يجعلك تشعر بأنه واقعًا بالفعل- الصور أو مقاطع الفيديو الملفقة بالكامل لأشخاص قد تحرفهم أو تجرمهم أو تتنمر عليهم. لم تكن تقنية التزييف العميق للذكاء الاصطناعي جيدة بما يكفي لتشكل تهديدًا كبيرًا من قبل، لكن هذا قد يكون على وشك التغيير خلال هذا العام.
فيمكن للذكاء الاصطناعي الآن إنشاء صور مزيفة عميقة - أي بث فيديو مباشر. بعبارة أخرى - قد أصبح الذكاء الاصطناعي الآن جيدًا جدًا في إنشاء وجوه بشرية لدرجة أن الأشخاص لم يعد بإمكانهم التمييز بين ما هو حقيقي وما هو مزيف.
وكشفت دراسة أخرى، نشرت في مجلة العلوم النفسية في 13 نوفمبر الماضي، عن ظاهرة "الواقعية المفرطة"، حيث من المرجح أن يُنظر إلى المحتوى الناتج عن الذكاء الاصطناعي على أنه "حقيقي".
وبالتالي فأحد الاحتمالات المخيفة للذكاء الاصطناعي هو أن يتمكن البشر من نشر التزييف العميق له لمحاولة التأثير على الانتخابات.
فذكرت صحيفة فايننشال تايمز، على سبيل المثال، أن بنجلاديش تستعد لانتخابات في يناير/كانون الثاني المقبل، بينما تستعد الولايات المتحدة لإجراء الانتخابات الرئاسية في نوفمبر 2024، وهناك احتمال أن يؤدي الذكاء الاصطناعي والتزييف العميق إلى تغيير نتيجة هذا التصويت الحاسم.
على سبيل المثال، تراقب جامعة كاليفورنيا في بيركلي استخدام الذكاء الاصطناعي في الحملات الانتخابية، وذكرت شبكة إن بي سي نيوز أيضًا أن العديد من الولايات تفتقر إلى القوانين أو الأدوات اللازمة للتعامل مع أي زيادة في المعلومات المضللة الناتجة عن الذكاء الاصطناعي.
أدوات الحروبتعمل الحكومات في جميع أنحاء العالم على دمج الذكاء الاصطناعي بشكل متزايد في أدوات الحرب. وأعلنت الحكومة الأمريكية في 22 نوفمبر الماضي أن 47 ولاية قد أيدت إعلانًا بشأن الاستخدام المسؤول للذكاء الاصطناعي في الجيش، والذي تم إطلاقه لأول مرة في لاهاي في فبراير 2023.
إذًا، لماذا كانت هناك حاجة لمثل هذا الإعلان؟ لأن الاستخدام "غير المسؤول" هو احتمال حقيقي ومرعب. فقد رأينا، على سبيل المثال، طائرات بدون طيار تعمل بالذكاء الاصطناعي تطارد جنودًا في ليبيا دون تدخل بشري.
في عام 2024، من المحتمل أننا لن نرى استخدام الذكاء الاصطناعي في أنظمة الأسلحة فحسب، بل أيضًا في الأنظمة اللوجستية وأنظمة دعم القرار، فضلاً عن البحث والتطوير.
الروبوتات القاتلةأحد مجالات التطوير الأكثر إثارة للخوف هو مجال أنظمة الأسلحة الفتاكة المستقلة (LAWS) - أو الروبوتات القاتلة. وقد حذر العديد من العلماء والتقنيين البارزين من الروبوتات القاتلة، بما في ذلك ستيفن هوكينج في عام 2015 وإيلون ماسك في عام 2017، لكن التكنولوجيا لم تتحقق بعد على نطاق واسع.
ومع ذلك، تشير بعض التطورات المثيرة للقلق إلى أن هذا العام قد يكون بمثابة انطلاقة للروبوتات القاتلة. على سبيل المثال، في أوكرانيا، زُعم أن روسيا نشرت طائرة Zala KYB-UAV بدون طيار، والتي يمكنها التعرف على الأهداف ومهاجمتها دون تدخل بشري، وفقًا لتقرير صادر عن نشرة علماء الذرة. وقد طورت أستراليا أيضًا Ghost Shark، وهو نظام غواصة مستقلة من المقرر أن يتم إنتاجه "على نطاق واسع"، وفقًا لما ذكرته مجلة Australia Financial Review.
المصدر: صدى البلد
كلمات دلالية: الذكاء الاصطناعي تزوير الانتخابات الحرب للذکاء الاصطناعی الذکاء الاصطناعی على سبیل المثال التزییف العمیق
إقرأ أيضاً:
كيف يغير الذكاء الاصطناعي دور محترفي الأمن السيبراني؟
مع زيادة الاعتماد على المنصات الرقمية، أصبحت الحاجة إلى تدابير حماية إلكترونية أقوى أكثر أهمية من أي وقت مضى.
ومع التزايد المستمر للتهديدات السيبرانية مثل التصيد الاحتيالي وسرقة الهوية وهجمات الفدية، ينضم الذكاء الاصطناعي - لا سيما الذكاء الاصطناعي التوليدي - إلى ساحة الصراع، مما يتيح فرصًا جديدة لمكافحة التهديدات، لكنه يضيف أيضًا تحديات جديدة، وذلك بحسب “forbes”.
دور الذكاء الاصطناعي التوليدي في تحسين مهام الأمن السيبرانيوفقًا لإطار عمل CISSP، يتم تقسيم الأمن السيبراني إلى ثمانية مجالات رئيسية، تتأثر جميعها بظهور الذكاء الاصطناعي التوليدي:
إدارة الأمن والمخاطر: يمكن للذكاء الاصطناعي التوليدي إجراء تقييمات آنية للمخاطر والتوصية باستراتيجيات الوقاية.
أمن الأصول: تُستخدم الأدوات الذكية لتصنيف المعلومات الحساسة وتحديد نقاط الضعف في البنية التحتية.
هندسة الأمن: الذكاء الاصطناعي يمكنه اقتراح تدابير الأمان، وحتى محاكاة الهجمات لاختبار فعاليتها.
أمن الاتصالات والشبكات: يعمل الذكاء الاصطناعي على تحليل حركة المرور بحثًا عن أنماط مريبة، وإنشاء تقارير لحظية للإبلاغ عن محاولات الاختراق.
إدارة الهوية والوصول: يتيح تتبع سلوك المستخدمين وتحديد الأنماط غير الاعتيادية، إضافة إلى اكتشاف محاولات التصيد من خلال تحليل محتوى الرسائل.
تقييم الأمن والاختبار: يقوم الذكاء الاصطناعي بتحديد جداول اختبار الأمن وتقديم توصيات للإجراءات التصحيحية.
عمليات الأمن: يمكن لأدوات الذكاء الاصطناعي توليد خطط استجابة تلقائية، مما يقلل من وقت التعامل مع الاختراقات.
أمن تطوير البرمجيات: تسهم الأدوات الذكية في مراجعة الأكواد آلياً واختبارها للكشف عن الثغرات في مرحلة التطوير.
كيف تحمي حسابك على LinkedIn من الاختراق وتستعيد السيطرة عند حدوثه دليل الأمن السيبراني لحماية الشركات من الهجمات كيف سيغير الذكاء الاصطناعي دور محترفي الأمن السيبراني؟من المتوقع أن يصبح الذكاء الاصطناعي جزءًا أساسيًا في العمل اليومي لمحترفي الأمن السيبراني، مما يسمح لهم بتفويض المهام الروتينية وتركيز وقتهم على المهام التي تتطلب خبرة بشرية.
تشمل هذه المهام العمل مع الفرق الأخرى لفهم المسؤوليات الأمنية، واتخاذ القرارات الاستراتيجية، والتعامل مع التهديدات الجديدة التي لا يمكن للذكاء الاصطناعي التعرف عليها بسهولة.
التحديات والفرص المستقبليةفي حين أن الذكاء الاصطناعي يقدم فرصًا جديدة، فإنه يفرض تحديات تتطلب مهارات جديدة.
يعتبر التكيف مع هذه التغيرات أمرًا أساسيًا، مع التنبؤ بتهديدات مستقبلية مثل تحديات الحوسبة الكمومية لمعايير التشفير، والمخاطر المرتبطة بزيادة تخزين المعلومات الشخصية على الإنترنت.