الذكاء الاصطناعي الثورة القادمة في مكافحة الفساد
تاريخ النشر: 3rd, November 2024 GMT
الذكاء الاصطناعي الثورة القادمة في مكافحة الفساد.
المصدر: شفق نيوز
كلمات دلالية: العراق هاكان فيدان تركيا محمد شياع السوداني انتخابات مجالس المحافظات بغداد ديالى نينوى ذي قار ميسان اقليم كوردستان السليمانية اربيل نيجيرفان بارزاني إقليم كوردستان العراق بغداد اربيل تركيا اسعار الدولار روسيا ايران يفغيني بريغوجين اوكرانيا امريكا كرة اليد كرة القدم المنتخب الاولمبي العراقي المنتخب العراقي بطولة الجمهورية الكورد الفيليون الكورد الفيليون خانقين البطاقة الوطنية مطالبات العراق بغداد ذي قار ديالى حادث سير الكورد الفيليون مجلة فيلي عاشوراء شهر تموز مندلي
إقرأ أيضاً:
تطورات ديبسيك.. هل أعد الذكاء الاصطناعي لأغراض خبيثة؟
يشير تقرير بارز أعده خبراء الذكاء الاصطناعي إلى أن احتمال استخدام أنظمة الذكاء الاصطناعي لأغراض خبيثة في تزايد مستمر. وحذّر المؤلف الرئيسي للدراسة، يوشوا بنجيو، من أن تطورات شركة "ديبسيك" وغيرها من الشركات الناشئة قد تؤدي إلى زيادة المخاطر المتعلقة بأمان الذكاء الاصطناعي.
اقرأ ايضاًميتا تعتزم استثمار 65 مليار دولار في الذكاء الاصطناعي خلال 2025
ويُعتبر بنجيو أحد "عرّابي" الذكاء الاصطناعي الحديث، وقد أعرب عن قلقه من التقدم الذي تحرزه شركة "ديبسيك" الصينية، مشيراً إلى أن هذا التطور قد يكون مصدر قلق في مجال كان يهيمن عليه الغرب، خاصة الولايات المتحدة. وقال بنجيو: "سيؤدي ذلك إلى سباق أكثر تقارباً، وهو أمر قد يؤثر سلباً على إجراءات أمان الذكاء الاصطناعي".
سباق محفوف بالمخاطر
وأوضح بنجيو أن الشركات الأميركية ومنافسي "ديبسيك" قد يركزون على استعادة ريادتهم بدلاً من التركيز على تدابير الأمان. فقد تعهدت "أوبن إيه آي"، مطوّرة "شات جي بي تي"، بتسريع إطلاق المنتجات نتيجة لهذا التنافس المتزايد.
وأضاف: "إذا تخيلنا منافسة بين كيانين، وكان أحدهما متقدمًا بفارق كبير، فإنه يستطيع أن يتحلى بالحذر ويبقى في المقدمة. ولكن إذا كانت المنافسة متقاربة، فقد يكون هناك دافع للإسراع، مما قد يقلل من التركيز على الأمان".
تقرير دولي شامل
تم إعداد تقرير دولي شامل حول سلامة الذكاء الاصطناعي من قبل مجموعة تضم 96 خبيراً، بمن فيهم الحائز على جائزة نوبل جيفري هينتون. وكان بنجيو، الحاصل على جائزة تورينغ في 2018، قد تم تكليفه من قبل الحكومة البريطانية للإشراف على التقرير، الذي تم الإعلان عنه خلال القمة العالمية حول سلامة الذكاء الاصطناعي في عام 2023. وقد تم ترشيح أعضاء اللجنة من قبل 30 دولة، بالإضافة إلى الاتحاد الأوروبي والأمم المتحدة، ومن المقرر أن تُعقد القمة العالمية المقبلة حول الذكاء الاصطناعي في باريس يومي 10 و11 شباط (فبراير).
مخاطر الاستخدام الخبيث
يشير التقرير إلى أن أنظمة الذكاء الاصطناعي العامة، مثل برامج الدردشة الذكية، أصبحت أكثر قدرة على أداء مهام قد تُستخدم لأغراض خبيثة، مثل تحديد الثغرات في البرمجيات والأنظمة الإلكترونية، وتقديم إرشادات حول إنتاج الأسلحة البيولوجية والكيميائية.
ووفقاً للتقرير، فإن النماذج الحديثة من الذكاء الاصطناعي يمكنها تقديم إرشادات تقنية مفصلة لإنشاء مسببات الأمراض والسموم، وهو ما يتجاوز قدرات العديد من الخبراء المتخصصين. كما أشارت "أوبن إيه آي" إلى أن نموذجها المتقدم "o1" قد يساعد المختصين في التخطيط لإنتاج التهديدات البيولوجية، ولكن ليس من الواضح ما إذا كان بإمكان غير المتخصصين تنفيذ هذه الإرشادات بفعالية.
تزايد التهديدات
في حديثه إلى صحيفة "الغارديان"، أوضح بنجيو أن هناك نماذج ذكاء اصطناعي قادرة، باستخدام كاميرا الهاتف الذكي، على إرشاد الأفراد لتنفيذ مهام خطيرة مثل تصنيع الأسلحة البيولوجية.
وقال: "أصبحت هذه الأدوات أسهل استخدامًا لغير المتخصصين، لأنها تستطيع تقسيم المهام المعقدة إلى خطوات صغيرة يمكن لأي شخص فهمها، ثم تقدم مساعدة تفاعلية في تنفيذها بشكل صحيح، وهو ما يختلف عن البحث في محركات البحث التقليدية".
الجرائم الرقمية
يسلط التقرير الضوء على التحسن الكبير في قدرة الذكاء الاصطناعي على اكتشاف الثغرات الأمنية في البرمجيات تلقائيًا، مما قد يساعد القراصنة في تخطيط هجمات سيبرانية. ومع ذلك، يشير التقرير إلى أن تنفيذ هجمات فعلية دون تدخل بشري لا يزال يتطلب "مستوى استثنائياً من الدقة".
كما يشير التقرير إلى زيادة في استخدام تقنية "التزييف العميق" (Deepfake)، حيث يتم استخدام الذكاء الاصطناعي لإنشاء صور أو أصوات مزيفة لأشخاص حقيقيين. وقد استُخدمت هذه التقنية في عمليات الاحتيال، والابتزاز، وإنتاج محتوى مضلل. ومع ذلك، فإن تقدير الحجم الدقيق لهذه الجرائم لا يزال صعبًا بسبب نقص البيانات والإحصائيات الشاملة.
مخاطر النماذج
يشير التقرير إلى مخاطر استخدام نماذج الذكاء الاصطناعي مغلقة المصدر، حيث قد تكون عرضة للاختراق والتحايل على ضوابط الأمان. كما أن النماذج مفتوحة المصدر، مثل نموذج "Llama" الذي طورته شركة "ميتا"، قد تُستخدم لأغراض خبيثة نظرًا لإمكانية تعديلها من قبل المستخدمين ذوي الخبرة.
إضافة مفاجئة
في إضافة أخيرة للتقرير، أشار بنجيو إلى ظهور نموذج متقدم جديد يُعرف باسم "o3" من شركة "أوبن إيه آي" في ديسمبر، بعد الانتهاء من إعداد التقرير. وحقق هذا النموذج تقدمًا كبيرًا في اختبار التفكير المجرد، وهو إنجاز لم يكن متوقعًا حتى وقت قريب.
وقال بنجيو: "الاتجاهات التي أظهرها "o3" قد تكون لها تداعيات عميقة على مخاطر الذكاء الاصطناعي"، كما أشار أيضًا إلى نموذج "ديبسيك R1"، محذراً من أن تقييمات التقرير يجب أن تؤخذ في الاعتبار مع التقدم المستمر في هذا المجال.
التأثير على سوق العمل
أوضح بنجيو أن تطور الذكاء الاصطناعي في مجال التفكير المجرد قد يكون له تأثير كبير على سوق العمل من خلال إنشاء وكلاء آليين قادرين على تنفيذ المهام البشرية. لكنه حذر أيضًا من إمكانية استغلال هذه الأنظمة من قبل جماعات إرهابية.
وأضاف: "إذا كنت إرهابياً، فستفضل امتلاك ذكاء اصطناعي يتمتع بقدر عالٍ من الاستقلالية. فكلما زادت قدرة الذكاء الاصطناعي على العمل المستقل، زادت الفوائد والمخاطر على حد سواء".
مستقبل غير مؤكد
اقرأ ايضاًالأسير المحرر زكريا الزبيدي: نحن أمام استفتاء شعبي للمقاومةيؤكد التقرير، الذي يحمل عنوان "التقرير العلمي الدولي حول سلامة الذكاء الاصطناعي المتقدم"، أن الذكاء الاصطناعي يؤثر بشكل متزايد على البيئة من خلال استهلاك مراكز البيانات للطاقة، بالإضافة إلى تأثيره المحتمل على سوق العمل.
ويخلص التقرير إلى أن مستقبل الذكاء الاصطناعي لا يزال غير مؤكد، حيث تتراوح التوقعات بين نتائج إيجابية جدًا وسلبية جدًا. لكنه يؤكد أن المجتمعات والحكومات لديها دور رئيسي في تحديد مسار هذه التكنولوجيا.
ويختتم التقرير بالقول: "هذا الغموض قد يثير مشاعر العجز، ولكن في النهاية، ستكون قرارات المجتمعات والحكومات هي التي تحدد الاتجاه الذي سنتبعه".
Via SyndiGate.info
Copyright � 2022 An-Nahar Newspaper All rights reserved.
محرر البوابةيتابع طاقم تحرير البوابة أحدث الأخبار العالمية والإقليمية على مدار الساعة بتغطية موضوعية وشاملة
الأحدثترند تطورات "ديبسيك".. هل "أعد الذكاء الاصطناعي لأغراض خبيثة"؟ سارة نتنياهو أمام تحقيق جنائي.. ما القصة؟ برج السرطان والحب ابر اوزمبك للتنحيف بين الفوائد والأضرار برج الجوزاء والحب Loading content ... الاشتراك اشترك في النشرة الإخبارية للحصول على تحديثات حصرية ومحتوى محسّن إشترك الآن Arabic Footer Menu عن البوابة أعلن معنا اشترك معنا حل مشكلة فنية الشكاوى والتصحيحات تواصل معنا شروط الاستخدام تلقيمات (RSS) Social media links FB Linkedin Twitter YouTubeاشترك في النشرة الإخبارية لدينا للحصول على تحديثات حصرية والمحتوى المحسن
اشترك الآن
© 2000 - 2025 البوابة (www.albawaba.com) Arabic social media links FB Linkedin Twitter