في السنتين الأخيرتين، انتشرت تقنيات الذكاء الاصطناعي وتطبيقاتها بشكل كبير عبر العالم، مع تسارع التطورات التكنولوجية في هذا المجال، مما فتح الباب أمام تغيرات جذرية في حياتنا اليومية. من التغيرات المتوقعة، تأثير الذكاء الاصطناعي على خدمات الحكومات للمواطنين، وطريقة قيادتنا للسيارات، وحتى طريقة تشخيص الأمراض وعلاجها من قبل الأطباء، إلى جانب طريقة إعداد الطلبة للأبحاث والكتابة الأكاديمية.

في ضوء هذه التحولات المتوقعة، يطرح المحلل الاستراتيجي الأميركي هال براندز، في تحليله الذي نشرته وكالة بلومبرغ للأنباء، سلسلة من الأسئلة الجوهرية، مثل: هل سيكون للذكاء الاصطناعي تأثير ثوري؟ وهل سيغير توازن القوى العالمية؟ وهل سيمنح الأنظمة الاستبدادية فرصة لتوسيع نفوذها على المستوى العالمي؟ وهل سيسرع الذكاء الاصطناعي ويجعل الحروب أكثر عنفًا وصعوبة في السيطرة؟ وبشكل عام، هل سيغير الذكاء الاصطناعي نمط تطورات الشؤون العالمية؟

وفي تحليله، يقول براندز، الذي يشغل منصب أستاذ كرسي هنري كيسنجر في مدرسة الدراسات الدولية المتقدمة بجامعة جونز هوبكنز الأميركية، إن الذكاء الاصطناعي قد يجعل الصراعات أكثر تدميرًا وصعوبة في التحكم بها. كما يتصور بعض المحللين مستقبلًا حيث يمكن للآلات قيادة الطائرات المقاتلة بشكل أفضل من البشر، وتسبب الهجمات الإلكترونية الآلية في تدمير شبكات المعلومات العدو، وتسريع عمليات اتخاذ القرارات العسكرية بواسطة الخوارزميات المتقدمة. وهناك تحذيرات من أن الاعتماد على الذكاء الاصطناعي في عمليات اتخاذ القرار قد يؤدي إلى تصعيد سريع للصراعات، بما في ذلك التصعيد النووي بشكل يجعل صانعي القرار أنفسهم متفاجئين من النتائج.

الذكاء الاصطناعي سيغير الحرب، بدءاً من إتاحة الصيانة الاستباقية للمعدات وحتى زيادة دقة الاستهداف بصورة مذهلة. وقد توصلت لجنة الأمن القومي المعنية بالذكاء الاصطناعي في الولايات المتحدة عام 2021، إلى أن العالم سيعيش «حقبة جديدة من الصراع» يهيمن عليها الجانب الذي يتقن «طرقاً جديدة للحرب».

ورغم ذلك، فإن تاريخ الحروب عبر العصور يقول إن الابتكارات تجعل الحروب أسرع وأشد ضراوة، لكنها لا تجعل التصعيد خارجاً عن السيطرة. وقد ناقشت الولايات المتحدة والصين ضرورة ألا تكون عمليات القيادة والسيطرة على الترسانة النووية لدى البلدين خاضعة للأنظمة الآلية، وهو التعهد الذي قطعته الولايات المتحدة على نفسها بشكل مستقل لسبب بسيط، هو أن الدول لا ترغب بالتأكيد في التخلي عن السيطرة على أسلحة يمكن أن يمثل خطرها تهديداً وجودياً للدولة نفسها في حال انطلاقها.

والحقيقة هي أن الذكاء الاصطناعي يمكن أن يقلل مخاطر التصعيد العالمي من خلال مساعدة صناع القرار على تجاوز الغموض المحيط بأي أزمة أو صراع. وتعتقد وزارة الدفاع الأميركية أن الأدوات الاستخباراتية والتحليلية المدعومة بالذكاء الاصطناعي يمكن أن تساعد البشر على تدقيق المعلومات المربكة أو المجزأة المتعلقة باستعدادات العدو للحرب، أو ما إذا كان هناك بالفعل هجوم صاروخي مخيف. وهذا ليس ضرباً من الخيال العلمي، لأن الولايات المتحدة استفادت من الذكاء الاصطناعي في اكتشاف نوايا الرئيس الروسي فلاديمير بوتين لمهاجمة أوكرانيا عام 2022. معنى هذا أن الذكاء الاصطناعي يمكنه أن يخفف حدة التصعيد بالقدر نفسه الذي يمكن أن يسهم في زيادتها.

وهذا الأمر ينقلنا إلى السؤال الثاني المتعلق بمدى استفادة الدول المستبدة من الذكاء الاصطناعي لفرض هيمنتها على الشؤون الدولية. يحذر محللون مثل يوفال نواه هراري، من أن الذكاء الاصطناعي سيقلل تكلفة الاستبداد، ويزيد من عائده. فأجهزة الاستخبارات في الدول المستبدة التي تمتلك أجهزة ذكاء اصطناعي قوية لن تحتاج إلى قوة بشرية كبيرة لجمع وتحليل كميات ضخمة من البيانات عن شعوبها، بما يتيح لها، على سبيل المثال، رسم خرائط دقيقة لشبكات الاحتجاجات وتفكيكها. كما يمكنها استخدام تقنيات الذكاء الاصطناعي في التعرف إلى ملامح الوجه في مراقبة مواطنيها والسيطرة عليهم. وكذلك يمكنها استخدام التكنولوجيا في اختلاق مواد مزيفة ونشرها بهدف تشوية سمعة معارضيها.

في الوقت نفسه، فإن بعض التقنيات تضيق الفجوة بين المجتمعات الأكثر تقدماً والأشد تخلفاً. على سبيل المثال سمح الذكاء الاصطناعي لدولة مثل كوريا الجنوبية بتعويض التفوق الاقتصادي والعسكري الذي تمتلكه قوة عظمى مثل الولايات المتحدة وحلفائها. ولذلك يشعر المسؤولون الأميركيون بالقلق من استخدام الجماعات الإرهابية لأنظمة الذكاء الاصطناعي من أجل تطوير أسلحة بيولوجية.

وعن مدى تأثير الذكاء الاصطناعي في توازن القوى في العالم، يقول المحللون في مركز الأمن والتكنولوجيا الناشئة في جامعة جورج تاون الأميركية إن الولايات المتحدة وحلفاءها تستطيع التفوق على الصين في مجال التكنولوجيا إذا وحدت جهودها، لذلك فإن أمل الصين هو أن ينقسم العالم المتقدم فيما يتعلق بتكنولوجيا الذكاء الاصطناعي. والحقيقة أن الخلافات بين الولايات المتحدة وأوروبا في هذا المجال لا تدعو للتفاؤل.

. سمح الذكاء الاصطناعي لدولة مثل كوريا الجنوبية بتعويض التفوق الاقتصادي والعسكري الذي تمتلكه قوة عظمى مثل الولايات المتحدة وحلفائها.

الإمارات اليوم

إنضم لقناة النيلين على واتساب

المصدر: موقع النيلين

كلمات دلالية: الذکاء الاصطناعی فی الولایات المتحدة یمکن أن

إقرأ أيضاً:

معلومات الوزراء: 254.8 مليون شخص استخدموا أدوات الذكاء الاصطناعي عالمياً عام 2023

أصدر مركز المعلومات ودعم اتخاذ القرار بمجلس الوزراء، تحليلاً جديداً تناول من خلاله تقنية التزييف العميق، وذلك بدءًا من زيادة اعتماد المستخدمين على تقنيات الذكاء الاصطناعي، ثم الانتقال إلى مفهوم التزييف العميق، وكيف تعمل هذه التقنية، واستخدامات التزييف العميق، والمخاطر الناجمة عنها، وطرق الكشف عنها.

وأوضح التحليل أن استخدام مجالات التكنولوجيا المختلفة -مثل الحوسبة السحابية والذكاء الاصطناعي والأمن السيبراني- أصبح أمرًا مهمًّا في كل مناحي الحياة، بما في ذلك الاتصالات، والصناعة، والتجارة، والتعليم، والطب، والترفيه، وغيرها.

وعلى الرغم من أهمية استخدام التكنولوجيا والفوائد المترتبة عليها، فإنها يقابلها العديد من التحديات التي تتعلق بحفظ الخصوصية، والبيانات المزيفة، ومن بين هذه التحديات استخدام تقنيات التزييف العميق، حيث فرضت هذه التقنيات تحديات جديدة تتعلق بالأمان والخصوصية والمصداقية.

وذكر المركز أن زيادة اعتماد المستخدمين على تقنيات الذكاء الاصطناعي تعكس التطور السريع في مجال التكنولوجيا وتأثيره العميق في حياتنا اليومية. هذه الزيادة تعكس الثقة المتزايدة في القدرات التي يمكن أن يوفرها الذكاء الاصطناعي في تحسين الكفاءة وتبسيط العمليات في مختلف المجالات.

وفي هذا الإطار، فقد بلغ عدد الأشخاص الذين يستخدمون أدوات الذكاء الاصطناعي عالميًّا نحو 254.8 مليون مستخدم عام 2023، أي أكثر من الضعف مقارنة بعام 2020. ومن المتوقع أن يستمر هذا النمو في عدد مستخدمي أدوات الذكاء الاصطناعي، ليتجاوز 700 مليون بحلول 2030.

وأضاف التحليل أن تقنية التزييف العميق هي تقنية تقوم على صنع صور أو مقاطع فيديو مزيفة باستخدام البرامج الرقمية والتعلم الآلي وتبديل الوجه. وتعتمد هذه التقنية على دمج الصور لإنشاء لقطات جديدة تصور أحداثًا أو تصريحات أو أفعالًا لم تحدث في الواقع. ومع ذلك هناك صعوبة في معرفة وتحديد مدى صحة أو واقعية هذه الصور والفيديوهات.

وبناءً على ذلك، أصبح الاعتقاد بتوثيق الصوت والفيديو للواقع بأنه دليل على مصداقية البيانات والمعلومات، اعتقاد يشوبه الشك، فقد استغل مجرمو الإنترنت هذه التقنيات في زيادة القدرات الاحتيالية، والتي أصبحت تمثل تهديدات جديدة على مستوى الأفراد والمؤسسات والمجتمعات، سواء من خلال تصنيع المواد الإباحية للتشهير بشخص معين بغرض الانتقام أو الابتزاز، أو من خلال تصنيع ونشر البيانات والتصريحات والمعلومات المضللة لأغراض إثارة الفوضى والاحتيال المالي وإفساد الانتخابات وخلق الأزمات الدبلوماسية.

وأشار التحليل إلى اختلاف أنواع تقنيات التزييف العميق، والتي يمكن أن تقع في إحدى الفئات الآتية:

- المحتوى المرئي: حيث يتم استخدام تقنيات التزييف العميق في إنشاء الصور ومقاطع الفيديو، ويمكن أن يتم ذلك من خلال الآتي:

- تبديل الوجه: يتم تركيب الوجه غير الحقيقي على الرأس المستهدف في الصور أو مقاطع الفيديو التي يتم تبديل الوجه بها.

- صور يتم إنشاؤها بالكامل: يتم إنشاء الوجه الجديد بالكامل من البداية ليبدو واقعيًّا بدلًا من تبديل الوجه.

- مقاطع فيديو مزامنة الشفاه: هي مقاطع تظهر شخصًا يؤدي كلمات أو نصًا معينًا بالتزامن مع حركات الشفاه لجعل الأمر يبدو واقعيًّا، وذلك على الرغم من عدم وجود هذا النص في الفيديو الرئيس.

2- المحتوى الصوتي: ويتم تحريف الصوت وتعديله إما من خلال استخدام ملف صوتي يتضمن حديثًا مزيفًا بنفس صوت الشخص، لكنه لم يقله في الواقع، أو من خلال تعديل نبرة صوت الشخص لإظهار مشاعر أو سلوك غير حقيقي.

وأشار التحليل إلى أن إنشاء فيديوهات التزييف العميق يتم باستخدام نظامين من أنظمة الذكاء الاصطناعي، المولد "Generator" والمميز "Discriminator". عندما ينتج نظام المولد فيديو جديدًا، يُرسل إلى نظام المميز لتحديد ما إذا كان الفيديو حقيقيًّا أم مزيفًا. إذا تأكد المميز من أن الفيديو حقيقي، يبدأ المولد في تعلم كيفية إنشاء فيديوهات تبدو أكثر قابلية للتصديق، وهكذا يستمر التطور في العملية.

هذا، ويُشكل النظامان معًا ما يُعرف بشبكة الخصومة التوليفية "GNN"، وتتطلب هذه التقنية مخزونًا من الفيديوهات يتم التعديل عليها. في البداية، يحتاج نظام المولد "Generator" إلى تدريب مستمر. وعندما يصل إلى مستوى مقبول من الجودة، يبدأ بإرسال فيديوهاته إلى الـمميّز "Discriminator". كلما زاد ذكاء المولد، زاد ذكاء الـمميّز بالتبعية. وبالتالي، يتم الوصول إلى فيديو معدّل بشكل كامل وقابل للتصديق للعين البشرية. ويوضح الشكل التالي كيفية عمل هذه التقنية.

وقد استعرض التحليل الاستخدامات الإيجابية التي تمتلكها تقنية التزييف العميق.

وفيما يلي أهم هذه الاستخدامات:

-الاستخدامات الطبية والتعليمية: يمكن استخدام تقنية التزييف العميق لإنشاء عمليات محاكاة تفاعلية للعمليات الجراحية أو غيرها من الإجراءات، مما يوفر لطلاب الطب والمهنيين فرص تدريب قيمة. كما يمكن استخدام هذه التقنيات في دعم وتطوير أدوات الوصول المهمة. على سبيل المثال، قامت شركة Lyrebird الكندية باستخدام التزييف العميق لمساعدة مرضى التصلب الجانبي الضموري على التواصل عندما يفقدون قدرتهم على التحدث، وذلك من خلال استنساخ أصواتهم، حيث يمكن للأشخاص الاستمرار في "التحدث" من خلال تقنيات التزييف العميق.

-صناعة الترفيه: يمكن استخدام تقنيات التزييف العميق في صناعة الأفلام والإعلانات وتقديم الأخبار. كما يمكن إنشاء تأثيرات خاصة أكثر واقعية والسماح للممثلين بإعادة تمثيل أدوارهم حتى بعد وفاتهم.

-الصحافة: يمكن أن تساعد تقنية التزييف العميق في إعادة إنشاء الأحداث التاريخية وجذب الانتباه إلى القضايا المهمة. فعلى سبيل المثال، يحاكي مشروع "التعاطف العميق Deep Empathy" - مشروع مشترك بين اليونيسف ومعهد ماساتشوستس للتكنولوجيا- الشكل الذي ستبدو عليه المدن الأخرى إذا واجهت صراعات مماثلة لتلك الموجودة في الأحياء السورية أثناء الحرب. تهدف هذه الصور الاصطناعية لنيويورك ولندن وبوسطن وغيرها من المدن التي دمرتها نفس الظروف المزعزعة للاستقرار إلى إثارة التعاطف مع الضحايا الحقيقيين في جميع أنحاء العالم في سوريا أو مناطق أخرى.

-خدمة العملاء: من خلال خدمة المساعد الافتراضي، الذي يستخدم لتقديم خدمة العملاء في مراكز الاتصال.

كما أبرز التحليل أهم مخاطر تطبيق تقنيات التزييف العميق فيما يلي:

-التسبب في أزمات سياسية: يمكن أن تُستخدم تقنيات التزييف العميق في التضليل السياسي.

-تهديدات أمنية: تعد تكنولوجيا التزييف العميق بمثابة سلاح جديد قادر على التأثير في كل الأشياء، من أسعار البورصة حتى الانتخابات. فقد أصبحت هذه التقنية قادرة على استخراج الكلمات والتصريحات المثيرة من رجال الأعمال والسياسيين. ومن أشكال هذه التهديدات الأمنية: فبركة تصريحات مسيئة لسياسيين، أو خلق مشاهد كاذبة لأحداث عنف أو اعتداء، أو التأثير في أسهم الشركات والأعمال من خلال خلق صور وتصريحات مفبركة لمديري هذه الشركات.

-الابتزاز الإلكتروني: يمكن فبركة مقاطع فيديو من خلال عرض شخصيات في الفيديو غير موجودة في الأصل، ويمكن استخدامها للتسبب في مشكلات للضحايا.

-توافر برامج وتقنيات التزييف العميق: يتم ذلك من خلال انتشار البرامج المستخدمة لتقنية التزييف العميق أو المواقع المنشأة حديثًا لهذا الغرض، وهو ما سهل من استخدام هذه التقنيات وانتشارها.

-صعوبة اكتشاف التزييف العميق: على الرغم من أنه يمكن لأي شخص استخدام تقنيات التزييف العميق، فإنه من الصعوبة اكتشاف التزييف العميق، إلا في حالة توافر برامج خاصة للكشف عنه.

-تسهيل عمليات الاحتيال: يتم التلاعب بالأفراد للقيام بأشياء ضارة، على سبيل المثال مشاركة المعلومات السرية.

-فقدان الثقة والتشكيك في المصداقية: بالطبع في حالة نشر أي مقطع فيديو أو صور على شبكة الإنترنت، سيتساءل الأفراد عن مدى مصداقية هذه الصور والفيديوهات، وبالتالي التشكيك في صحة كل الصور والفيديوهات حتى الحقيقي منها.

-التأثير في الانتخابات: حيث تستخدم تقنية التزييف العميق لتشويه صورة بعض السياسيين للتأثير في سير العملية الانتخابية لصالح طرف معين أو أيدولوجية محددة، وذلك من خلال خلق فيديوهات يتم بث إشاعات من خلالها عن أحد المرشحين، وتزييف الوعي أثناء الانتخابات.

وأضاف التحليل إنه مع تطور تقنيات التزييف العميق يقابلها أيضًا تطور في طرق الكشف عن التزييف العميق. وفيما يلي أهم خمس طرق للكشف عن التزييف العميق:

-منصة Sentinel: يتم السماح للمستخدمين بتحميل الوسائط الرقمية من خلال موقع الويب الخاص بهم، ثم يتم تحليلها تلقائيًّا للتعرف على مدى صحة هذه الوسائط. ويتم في هذا الصدد استخدام خوارزميات الذكاء الاصطناعي المتقدمة لتحليل الوسائط التي تم تحميلها وتحديد ما إذا كان قد تم التلاعب بها.

-كاشف التزييف العميق من إنتل في الوقت الحقيقي " FakeCatcher": تُمكن هذه التقنية من اكتشاف مقاطع الفيديو المزيفة بمعدل دقة يبلغ 96٪، مما يؤدي إلى إرجاع النتائج في أجزاء من الثانية. وتعمل هذه التقنية من خلال ما يعرف بتدفق الدم، حيث إنه عند تحدث الشخص في أي مقطع فيديو يتغير لون العروق نتيجة لتدفق الدم من القلب، لذا يتم جمع إشارات تدفق الدم هذه من جميع أنحاء الوجه وتقوم الخوارزميات بترجمة هذه الإشارات إلى خرائط زمانية مكانية، ويتم بعد ذلك اكتشاف مدى مصداقية الفيديو.

-نحن نتحقق "WeVerify": حيث يتم تحليل الوسائط الاجتماعية ووضعها في سياق النظام البيئي الأوسع على شبكة الإنترنت، كما أنه يعتمد على قاعدة بيانات عامة قائمة على blockchain للمزيفات المعروفة.

-أداة مصادقة الفيديو من Microsoft: يمكن من خلال هذه الأداة تحليل مقطع فيديو أو صورة ثابتة، ويتم ذلك من خلال تحليل عناصر التزييف العميق والعناصر الرمادية الدقيقة التي لا يمكن اكتشافها بالعين البشرية وذلك بشكل فوري.

-استخدام عدم التطابق Phoneme-Viseme: تستغل هذه التقنية حقيقة أن البصمات، التي تشير إلى ديناميكيات شكل الفم، تكون أحيانًا مختلفة أو غير متوافقة مع الصوت المنطوق. ويعد هذا التناقض عيب في التزييف العميق. لذا تعتمد هذه التقنية على خوارزميات متقدمة للذكاء الاصطناعي لتحليل الفيديو واكتشاف التناقضات.

وأوضح التحليل في ختامه أن التزييف العميق يظهر بوصفه تقنية مثيرة للجدل تجمع بين الإبداع الفني والتحديات الأخلاقية والأمنية. رغم فوائد استخدامه في العديد من المجالات مثل الفن والتسلية والتعلم والطب، فإن القلق الأساسي يبقى حول استخدامه في التلاعب بالمعلومات والتأثير في الرأي العام.

لذا، يتطلب الأمر تحديد وتطوير استراتيجيات مبتكرة لمواجهة هذه التحديات بشكل فعّال، سواء عبر تطوير تقنيات الكشف عن التزييف أو تعزيز الوعي الجماهيري بمخاطره، وفي نهاية المطاف، يبقى التوازن بين التقدم التكنولوجي والحفاظ على الأمان والنزاهة واحدًا من أهم التحديات التي تواجهنا في عصر التزييف العميق.

اقرأ أيضاًرئيس COP28 يتحدث عن أهمية الذكاء الاصطناعي في تعزيز كفاءة الطاقة

بعد إبداع الروبوتات في الطهي.. أبرز 5 مجالات يعمل بها الذكاء الاصطناعي

مقالات مشابهة

  • مسؤول: الولايات المتحدة تناقش مع إسرائيل الإفراج عن شحنة قنابل معلقة
  • 45 طالباً في برنامج تدريبي بجامعة محمد بن زايد للذكاء الاصطناعي
  • الذكاء الاصطناعي يدخل عالم الكوميديا والإعلان
  • معلومات الوزراء: 254.8 مليون شخص استخدموا أدوات الذكاء الاصطناعي عالميا عام 2023
  • معلومات الوزراء: 254.8 مليون شخص استخدموا أدوات الذكاء الاصطناعي عالمياً عام 2023
  • خبير أميركي: الذكاء الاصطناعي نفط المستقبل
  • جامعة السلطان قابوس والذكاء الاصطناعي
  • هكذا تعترض على استخدام بيانات الذكاء الاصطناعي على شبكات ميتا
  • الفن والذكاء الاصطناعي
  • الذكاء الاصطناعي (AI) وأهميته في حياتنا اليومية