كشفت شركة "مايكروسوفت" مطلع فبراير، عن تفاصيل عملية قرصنة لبث تلفزيوني في دولة الإمارات، استخدم القراصنة فيها تقنيات التزييف العميق بواسطة الذكاء الاصطناعي لإظهار مذيع مفترض يقرأ تقريرا إخباريا مزيفاً يتناول الحرب بين إسرائيل وحماس في غزة، ويحاول التلاعب بمشاعر الرأي العام بالدولة الخليجية.

وفي الوقت ذاته، كانت ولاية نيوهامشير الأميركية شاهدة على عملية تزييف مشابهة باستخدام تقنيات الذكاء الاصطناعي لمخادعة، عبر استنساخ صوت الرئيس الأميركي، جو بايدن، في اتصالات هاتفية مزيفة دعت الناخبين إلى عدم المشاركة في الانتخابات الرئاسية التمهيدية.

وبين الواقعتين وقبلهما، شهد العالم عشرات الأحداث المشابهة التي تخللتها عمليات احتيال ومخادعة للجمهور بشكل عام أو للأفراد بصورة شخصية، كان المشترك الوحيد بينها، اعتمادها على الأدوات والإمكانات التي بات يتيحها الذكاء الاصطناعي لاسيما التوليدي منه، في عملية تزييف الحقائق والصور والأصوات، مما يضع العالم وجها لوجه أمام سيناريوهات مخيفة.

الغارديان: قراصنة مدعومون من إيران يخترقون خدمات بث تلفزيوني في الإمارات ذكرت شركة "مايكروسوفت" أن مجموعة قرصنة مدعومة من قبل الحرس الثوري الإيراني تمكنت من اختراق منصات بث تلفزيوني في الإمارات باستخدام بث إخباري مُزيف عن حرب غزة أنشئ بواسطة الذكاء الاصطناعي، وفاق لصحيفة "الغارديان".

ولطالما حذر الخبراء من الدور الذي يمكن أن يلعبه التطور التقني للذكاء الاصطناعي في خدمة الجريمة والاحتيال الإلكتروني، وفي حماية العصابات والقراصنة من الكشف والملاحقة.

وبينما كانت المخاوف تتركز على دور الذكاء الاصطناعي في تطوير حملات التضليل ودعم الأخبار الزائفة للتلاعب بالجمهور والتأثير على الرأي العام وتزييف الحقائق بصورة شاملة، باتت المخاوف اليوم تتركز على ما يمكن أن يستهدف الأفراد والعائلات والشركات والكيانات بصورة خاصة وفردية وممنهجة، من قبل المحتالين والمبتزين باستخدام هذه التقنيات.

"من سيئ إلى أسوأ"

وبالنظر إلى الإمكانيات التي بات يوفرها الذكاء الاصطناعي تبدو المخاوف السابقة واقعية ومنطقية، بل وفي بعض الأحيان دون مستوى توقعات الخبراء في هذا المجال، الذين يرون أن ما يجري حالياً "ليس سوى البداية".

وبحسب الخبير في التحوّل الرقمي وأمن المعلومات، رولان أبي نجم، فإن الذكاء الاصطناعي مع كل ما ينتج عنه حالياً "لا يزال في مرحلة البدايات، والتطور المقبل سيجعل كشفه أصعب بكثير، وتأثيره أكبر أيضاً".

وأوضح: "سيصبح من المستحيل التمييز بين الحقيقة والتزييف"، وهو ما سينطبق على كل ما هو موجود على الإنترنت من فيديوهات، وصور، ونصوص، ومعلومات.

وأضاف في حديثه لموقع "الحرة"، أن الأمور تتجه "من سيئ إلى أسوأ"، في ظل التنامي والتطور اليومي لقدرات الذكاء الاصطناعي، مقابل التأخر العام عن المواكبة السريعة في تقنيات الكشف، وآليات المكافحة، وتشريعات التنظيم والمحاسبة.

وحذر أبي نجم من أن الذكاء الاصطناعي التوليدي لديه قدرة عالية على التزوير وعلى خداع الرأي العام وتسهيل عمليات احتيال كبيرة جداً.

يتعلم من البشر ليتفوق عليهم.. كيف يعمل الذكاء الاصطناعي؟ مع التقدم التكنولوجي، أصبح الذكاء الاصطناعي (AI) أحد أسرع تطوراته. فكرة الجهاز الذي يتعلم ويتخذ قرارات مستقلة قد تبدو مثيرة للاهتمام للغاية، ولكن كيف يعمل بالضبط؟

من جانبه، يؤكد الخبير بالذكاء الاصطناعي والرئيس التنفيذي لشركة "Zaka" التكنولوجية، كريستوفر زغبي، أن أدوات الذكاء الاصطناعي أصبحت تمكن عصابات الاحتيال أكثر من القيام بعملياتهم، وتسهل الجرائم الإلكترونية وترفع وتيرتها.

وأضاف في حديث لموقع "الحرة"، أن "استخدام التكنولوجيا في عمليات الاحتيال والجرائم أمر سابق لظهور الذكاء الاصطناعي وأدواته التوليدية، وهو الحال مع كل تقنية جديدة يجري استخدامها".

واستدرك: "إلا أن الذكاء الاصطناعي بات أداة أسرع وأقوى بكثير، وبالتالي هي تقدم أساليب أكثر إقناعاً وإتقاناً".

وفي حين كان التزييف يصل إلى حد استنساخ الشكل وبعض الحركات أو إنتاج صور مزيفة، فإن الذكاء الاصطناعي، بحسب زغبي، جعل بالإمكان "استنساخ أسلوب الشخص في التحدث أو الكتابة، وتقليد سلوكه والتنبؤ بالأطباع والتصرفات بالإضافة إلى تزييف الصوت والصورة"، وهو ما بات يمكّن عصابات الاحتيال من أن يتحدثوا إلى معارف الشخص، أو زملاء العمل، أو أصدقائه، أو عائلته بأسلوبه والكلمات التي يستخدمها عادة.

احتيال بلا حدود

وكان العالم قد ضج بعملية احتيال أدت إلى خسارة شركة متعددة الجنسيات في هونغ كونغ نحو 26 مليون دولار أميركي بعد أن تعرض موظفوها لخداع من عصابة محتالين عبر مكالمة فيديو جماعية مزيفة عبر تقنية التزييف العميق، حيث انتحلوا شخصية المدير المالي للشركة وأشخاصاً آخرين في المكالمة، وأقنعوا الضحية بإجراء ما مجموعه 15 تحويلاً إلى 5 حسابات مصرفية، بحسب ما نقلت وكالة "بلومبيرغ".

"مكالمات من مديرك".. أحدث موجة من عمليات "نصب الذكاء الاصطناعي" يبحث اللصوص والمحتالون عبر الإنترنت باستمرار عن طرق جديدة لخداع الأشخاص، ومن أحدث تلك الخدع انتحال شخصيات آخرين عن طريق محاكاة أصواتهم بواسطة تقنيات الذكاء الاصطناعي، ومن ثم النصب على الضحايا من خلال إيهامهم أن المتحدث هو قريبهم أو مديرهم أو أحد معارفهم، وفقا لما ذكرت وكالة "بلومبيرغ".

وبحسب "بلومبيرغ"، فإن أدوات تعديل الفيديوهات المدفوعة بالذكاء الاصطناعي فتحت مجالات أمام المحتالين كانت تعتبر آمنة في الماضي، مما يبرز سرعة تطور تقنية التزييف العميق خلال العام الماضي وحده، حيث أصبح الإعداد لعمليات الاحتيال المعقدة أسهل نسبياً، مما يدفع نحو عصر جديد من التشكيك.

ووفقاً لتقرير سابق نشره موقع "تالوس" بشأن كيفية استفادة المجرمين من التقدم الكبير لتقنيات الذكاء الاصطناعي، فإن تلك البرامج تساعد المستخدمين على إنشاء نصوص برمجية وتعديل الصور، وتبسيط عمليات المجرمين، وجعلها أكثر كفاءة وتطورا وقابلية للتوسع مع السماح لهم بالتهرب من الاكتشاف.

وتشمل الأعمال الخبيثة للمجرمين نشر المعلومات المضللة، وتعديل الصور بهدف الابتزاز الجنسي، وإنشاء برامج ضارة وخبيثة، وفقا لمتخصصين بقطاع التكنولوجيا والأمن السيبراني.

ويتطرق كل من أبي نجم والزغبي في حديثهما، للعديد من الأمثلة على ما يجري من جرائم تعتمد التزييف العميق باستخدام الذكاء الاصطناعي، من بينها عمليات تزييف الخطف، وذلك من خلال اتصالات مزيفة تتضمن مقاطع صوتية مستنسخة للضحايا المفترضين، بغية ابتزاز عائلاتهم والحصول على فدية مالية.

وكذلك بالنسبة إلى عمليات الاحتيال التي تقوم على تزييف طلب صديق أو قريب أو فرد من العائلة، للأموال بصورة عاجلة من خلال اتصالات وهمية أو فيديوهات أو مقاطع صوتية مفبركة بالتزييف العميق لخداع الضحايا.

وأصدرت لجنة الاتصالات الفيدرالية الأميركية في الثامن من فبراير الجاري، قرارا يحظر "فوريا" المكالمات الآلية الاحتيالية التي تتضمن أصواتا مزيفة تم إنشاؤها بواسطة الذكاء الاصطناعي، واتخذت إجراءات صارمة بشأن ذلك. 

وتمنح هذه الخطوة المدعين العامين المزيد من الأدوات القانونية، لملاحقة المتصلين الآليين غير القانونيين الذين يستخدمون الأصوات الناتجة عن الذكاء الاصطناعي لخداع الأميركيين.

قرار أميركي بحظر المكالمات الآلية الاحتيالية المزيفة بالذكاء الاصطناعي أصدرت لجنة الاتصالات الفيدرالية الأميركية، الخميس، قرارا يحظر "فوريا" المكالمات الآلية الاحتيالية التي تتضمن أصواتا أصواتا مزيفة تم إنشاؤها بواسطة الذكاء الاصطناعي، واتخذت إجراءات صارمة ضد ما يسمى بتكنولوجيا "التزييف العميق" التي يقول الخبراء إنها قد تقوّض أمن الانتخابات أو تزيد من عمليات الاحتيال.

وقالت رئيسة لجنة الاتصالات الفيدرالية، جيسيكا روزنورسيل، في بيان: "تستخدم الجهات السيئة الأصوات التي يولدها الذكاء الاصطناعي في مكالمات آلية غير مرغوب فيها لابتزاز أفراد الأسرة الضعفاء، وتقليد المشاهير، وتضليل الناخبين"، مضيفة "نحن ننبه المحتالين الذين يقفون وراء هذه المكالمات الآلية". 
 
ومع تزايد قدرات أدوات التوليد الآخذة بالتطور، ما عادت عمليات التزييف والاحتيال تقتصر على جانب أو تنحصر بحدود أو نطاق، وإنما باتت تطال كافة جوانب الحياة الرقمية والتعاملات عبرها.

فعلى سبيل المثال، يمكن لأي شخص اليوم عبر "الويب المظلم" أن يحصل على هوية مزيفة صادرة عن أي دولة في العالم، تحاكي تلك الحقيقية، مقابل دولارات قليلة، بحسب ما يؤكد زغبي، ويتم استخدامها على نطاق واسع في عمليات التوثيق والتحقق التي تجري عبر الإنترنت باستخدام صور الهويات وجوازات السفر.

وعليه يمكن اليوم لأي جهة أن تخلق حسابات وهمية على مواقع التواصل الاجتماعي بصور أشخاص غير موجودين فعلياً مولدة بتقنيات الذكاء الاصطناعي، مرفقة بهويات تعريف خاصة بهم، وتحويلهم إلى أشخاص موجودين وموثقين، وفقاً لزغبي، الذي يلفت إلى توفر مواقع تقدم هذه الخدمة، من خلال تقديم وجوه بملامح غير موجودة في الحقيقة لاستخدامها.

وبدوره، يشير أبي نجم إلى أن هذه الهويات والأوراق الثبوتية المزورة بحرفية عالية وبأدق التفاصيل عبر تقنيات الذكاء الاصطناعي، "تستخدم على نطاق واسع على مواقع ومنصات تداول العملات الرقمية، حيث يطلب من المستخدمين صور عن جوازات سفرهم ليتعرفوا إليهم".

ويعود ذلك لكون العملات الرقمية المشفرة تستخدم في عمليات الابتزاز والاحتيال، وبالتالي "لتجنب إبراز هويات حقيقية (بطاقات شخصية أو جوازات سفر) يلجؤون إلى مواقع تصدر هذا النوع من الهويات، مقابل 15 دولاراً، ويرسلونها إلى منصات التداول التي لا تملك الداتا (البيانات) الموجودة في المطارات للتأكد من صحة الجوازات والأوراق الثبوتية فيتم استغلال هذه الثغرة"، وفق أبي نجم.

وكذلك، لفت الخبير في الأمن السيبراني إلى أساليب احتيال جديدة باستخدام تقنيات التزييف العميق، تقوم على تزييف إعلانات لمشاهير وشخصيات معروفة، مثل مارك زوكربرغ أو إيلون ماسك، وهم يروجون لتطبيق أو منتج معين عبر الحديث عنه والادعاء أنهم يستخدمونه أو ينصحون به، من أجل كسب ثقة الناس والاحتيال عليهم.  

كذلك أشار أبي نجم إلى ظاهرة ما يسمى "AI إنفلونسرز"، وهم عبارة عن حسابات لأشخاص غير موجودين في الحقيقة صورهم وشخصيتهم بالكامل مولدة عبر الذكاء الاصطناعي، يؤدون دور المؤثرين، ويقومون بأعمال تسويق وعرض أزياء ومنتجات وخدمات وما إلى ذلك، ولديهم متابعين بمئات الآلاف وعملاء يعملون معهم، وأشخاص يحاولون التحدث إليهم أو التقرب منهم، في حين أنهم غير موجودين في الحقيقة.

تجسس وابتزاز و"خطف وهمي".. كيف جعل الذكاء الاصطناعي عالم الجريمة "أكثر خطرا وقربا" من الناس؟ رغم أن التطور المستمر في التكنولوجيا يسهل من حياة الإنسان ويمكن أن يقدم خدمات جليلة للبشرية، إلا أن ذلك يبقى سلاحا ذو حدين. التزييف العميق الآني.. أمر واقع

وما عاد التزييف يقتصر فقط على المحتوى المنتج مسبقاً، إذ باتت تقنيات الذكاء الاصطناعي تتيح التزييف المباشر أو الآني، الذي يتم في الوقت الحقيقي، حيث يمكن تزييف اتصالات صوتية أو فيديو في لحظة إجراء المكالمة، مما يفرض مزيداً من التحديات والتهديدات، ويزيد من فرص استفادة المجرمين والمحتالين.

وبينما كانت هذه التقنية أقرب إلى قصص أفلام الخيال العلمي، فإن إمكانية تنفيذها تقنيا اليوم أصبحت أمرا واقعاً، بحسب ما يؤكد الخبراء.
 
ولفت زغبي إلى أن التزييف العميق الآني لا يزال صعب التنفيذ، لكنه أكد أنه أصبح قابلاً تقنيا للتحقيق،" فيحتاج إلى تقنيات متقدمة ومكلفة وجهد كبير لاستنساخ الصوت والصورة وملاءمتها مع الحركات خلال إجراء الاتصال أو البث، ولكن تقنياً الأمر مقدور عليه".

وفي مثال على ذلك، يستشهد أبي نجم ببرامج وتطبيقات "الفلتر" للصور والفيديوهات، مؤكداً أنها نوع من أنواع التزييف الآني للوجوه وأشكالها، لافتاً إلى أن إصدار شركة آبل من النظارات الذكية تحمل دليلاً أيضاً على القدرة التقنية على التزييف العميق الآني، حيث تتيح تلك النظارات تبديل صورة وجه الشخص الذي تتحدث إليه على أرض الواقع في اللحظة نفسها.

وفي هذا السياق، قالت وكالة بلومبيرغ إنه "يكاد يكون يقيناً أن عملية الاحتيال التي وقعت في هونغ كونغ، استخدمت التزييف العميق الآني، مما يعني أن المدير المزيف كان يماشي حركات المحتال في إنصاته وحديثه وإيماءاته خلال الاجتماع".

وفي هذا الصدد، قال أستاذ علم الجريمة في جامعة ولاية جورجيا، ديفيد مايمون، إن المحتالين عبر الإنترنت "يستخدمون التزييف العميق الآني في مكالمات الفيديو منذ العام الماضي على الأقل، في عمليات احتيال أصغر، ومنها الخداع العاطفي". 

عجز عن المواجهة 

وأمام التطور التقني الذي يقدمه الذكاء الاصطناعي لعمليات التزييف، لا يبدو أن الأدوات المتاحة حالياً وفي المدى المنظور قادرة على كشف ذلك التزييف أو المحتوى المولد بالذكاء الاصطناعي بصورة حاسمة، وفقاً للخبراء.

ويجزم الزغبي بعدم وجود قدرة تقنية على كشف التزييف المولد بالذكاء الاصطناعي، إذ لا يزال من الصعب مكافحة هذه الأدوات أو كشفها، "خاصة أن هذه التقنيات في طور التقدم والتحسن يوماً بعد يوم، مما يجعل كشفها أصعب، وبالتالي ما من حل تقني متاح حالياً للاستخدامات السلبية لهذه الأدوات".

وتابع: "فيسبوك حاولت قبل عام تقريباً إجراء منافسة من أجل تدريب الذكاء الاصطناعي لكشف التزييف المولد عبر الذكاء الاصطناعي، لكنهم لم يصلوا إلى نتيجة بفعالية عالية، وبالتالي لا يزال الاعتماد الأكبر على التدقيق البشري الأكثر جدوى في رصد التزييف العميق والهفوات التي قد تظهر فيه".

ويتأسف الخبير بالذكاء الاصطناعي لكون "أغلب الجمهور غير مدرب أو قادر أو مستعد لتدقيق كل ما يتلقاه في العالم الرقمي من معلومات ومحتوى، وثمة فئات لا تعلم بأمر التزييف وتقنياته من أصلها.. وسيتابع هؤلاء حياتهم دون التوقف عند صحة ما يتلقونه، وهنا ستكمن المشكلة".

وبدوره، أكد أبي نجم أن الناس لن تكون قادرة على تمييز ما ينتج عبر الذكاء الاصطناعي وما هو حقيقي في العالم الرقمي، مضيفاً "اليوم وصلنا إلى مرحلة نحتاج فيها إلى روبوتات الذكاء الاصطناعي لكشف إنتاجات الذكاء الاصطناعي".

وتابع: "كل ذلك ولم نصل بعد إلى مرحلة الكوانتوم كومبيوتر، الأسرع بملايين المرات عما لدينا اليوم، حينها سيكون الذكاء الاصطناعي مرعب، وسيكون من الاستحالة التمييز بين الحقيقة والتزييف، وهنا التأثير الكارثي".

 أما عن سبل المواجهة المتاحة، فهي ببساطة غير موجودة، بحسب ما يؤكد أبي نجم، مضيفاً أن اتجاه الجرائم الإلكترونية على مدى أكثر من 30 عاماً من عمر الإنترنت "كان تصاعدياً واستمر دون تراجع حتى اليوم، بالرغم من محاولات أطراف عدة لوضع تنظيمات وتشريعات وقوانين تضبط تلك الجرائم "دون جدوى، فليس للجرائم الإلكترونية حدود جغرافية معينة لضبطها".

وتابع: "فلنتفرض أن الاتحاد الأوروبي أتم تشريعاته المرتبطة بضبط استخدام الذكاء الاصطناعي، ماذا عن باقي الدول؟ ماذا عن الصين مثلاً أو كوريا الشمالية؟ كيف سينجح فرض تلك القوانين عليهم أو التحكم بما ينتج هناك؟.. يمكن وضع القوانين لكن تطبيقها ليس بالسهولة نفسها".

ورأى زغبي أن الناس بحاجة لهذا النوع من التشريعات لكي يتم ضبط استخدامات هذه الأدوات المتاحة اليوم أمام الجميع، من قبل جهات موثوقة لدى الناس.

في المقابل، اعتبر أبي نجم أن سرعة التشريع "لا تناسب السرعة التي تتطور بها تلك التقنيات، فما يتم تشريعه اليوم، يختلف واقعه غداً".

ويخلص الخبراء إلى أن السبيل الوحيد لمواجهة مخاطر وتأثيرات هذه التقنيات هو "الوعي التام، وعدم الثقة بكل ما يتلقونه من محتوى رقمي عبر الإنترنت"، داعين الناس إلى عدم تصديق كل ما لا يرونه مباشرة بالعين، وليس بالصوت والصورة أو عبر الإنترنت.

وأردف أبي نجم: "حتى بالجانب الشخصي، مثل اتصالات مع ارقام نعرفها أو فيديوهات أو مقاطع صوتية لأشخاص نعرفهم، ما عاد بالإمكان الثقة بكل ما هو رقمي".

واعتبر أنه أصبح مطلوباً اليوم من كل شخص أن يكون مدقق معلومات وحقائق، "وهذا يحتاج إلى تثقيف وتدريب".

نصائح عامة

وكانت وكالة "بلومبيرغ" قد نشرت في تقرير عدداً من النصائح التي من شأنها أن تساعد في كشف التزييف العميق الآني على وجه الخصوص، الذي قد يكون الأكثر استخداماً في عمليات الاحتيال في الفترة المقبلة، أبرزها: 

استخدام الإشارات البصرية للتحقق من هوية المتحدث، إذ أن التزييف العميق الآني لا يزال عاجزاً عن تمثيل حركات معقدة، لذا يمكن في حالة الشك الطلب من الطرف الآخر، خلال مكالمة الفيديو، أن يلتقط كتاباً على مقربة منه، أو أن يؤدي حركة ليست معتادة في هذه المكالمات. مراقبة حركة الفم، حيث من الممكن أن يظهر عدم التناغم في تزامن حركة الشفاه مع الكلمات أو في تعبيرات الوجه الغريبة التي ليست ناجمةً عن خللٍ اعتيادي في الاتصال.  استخدام مصادقة متعددة المصادر، خاصة في الاجتماعات ذات الطبيعة الحساسة، ولا بأس بالتأكد من هوية المحدث عبر محادثة جانبية عبر البريد الإلكتروني أو الرسائل النصية أو تطبيق مصادقة بغرض التثبت من هوية المشاركين. استخدام قنوات آمنة أخرى لتأكيد القرارات وتبادل المعلومات الحساسة، مثل تطبيقات الرسائل المشفرة. التحديث الدائم للبرامج والتطبيقات، لاسيما تلك الخاصة بمكالمات الفيديو لضمان توفر أحدث الخصائص الأمنية المدرجة للكشف عن التزييف العميق.  تجنب منصات مكالمات الفيديو غير المعروفة، حيث يفضل اختيار منصات معروفة تتمتع بإجراءات أمنية قوية نسبياً، خصوصاً في الاجتماعات التي تتسم بالحساسية.  الانتباه للتصرفات والأنشطة المثيرة للريبة، مثل الانتباه إلى الطلبات العاجلة لتحويل الأموال، والاجتماعات التي تُعقد فجأة وتشمل قرارات مهمة، وتغير نبرة شخص ما أو لغته أو أسلوبه في الكلام. كما يستخدم المحتالون عادةً أساليب ضغط، لذا يجب الحذر أيضاً من أي محاولة لتسريع التوصل إلى قرار.

المصدر: الحرة

كلمات دلالية: تقنیات الذکاء الاصطناعی بواسطة الذکاء الاصطناعی بالذکاء الاصطناعی المکالمات الآلیة عملیات الاحتیال عبر الإنترنت فی عملیات لا یزال بحسب ما من خلال إلى أن

إقرأ أيضاً:

تحذير أممي من تأثير الذكاء الاصطناعي على 40% من الوظائف

يُتوقع أن يصل حجم سوق الذكاء الاصطناعي العالمي بحلول عام 2033 إلى 4,8 تريليون دولار ليعادل تقريبا حجم اقتصاد ألمانيا، وفق تقرير لوكالة الأمم المتحدة للتجارة والتنمية (أونكتاد) حذر من أن نحو نصف الوظائف ستتأثر بهذه التقنية في سائر أنحاء العالم.
وفي الوقت الذي يُحدث فيه الذكاء الاصطناعي تحولا في الاقتصادات ويستحدث فرصا هائلة، إلا أن هناك مخاطر من أن تعمِّق هذه التكنولوجيا الرائدة أوجه عدم المساواة القائمة، وفق التقرير الصادر الخميس.
وحذر التقرير، بصورة خاصة، من أنّ "الذكاء الاصطناعي قد يؤثر على 40% من الوظائف حول العالم، مما يُحسّن الإنتاجية، ولكنه يُثير أيضا مخاوف بشأن الاعتماد على الآلة والاستعاضة عن الوظائف".
وفي حين أنّ موجات التقدم التكنولوجي السابقة أثرت بشكل رئيسي على الوظائف اليدوية أو التي تتطلب مهارات عملية، قالت وكالة "أونكتاد" إنّ القطاعات التي تعتمد على المعرفة، مثل الأعمال المكتبية والوظائف الإدارية ستكون الأكثر تضررا من الذكاء الاصطناعي.
وهذا يعني، وفق التقرير، أن الضرر الأكبر سيلحق بالاقتصادات المتقدمة، علما أن هذه الاقتصادات في وضع أفضل للاستفادة من فوائد الذكاء الاصطناعي مقارنة بالاقتصادات النامية.
وأضافت الوكالة الأممية "في أكثر الأحيان، يحصد رأس المال الفائدة من الأتمتة المُعتمدة على الذكاء الاصطناعي وليس العمال والأُجراء، وهو ما من شأنه توسيع فجوة التفاوت وتقليل الميزة التنافسية للعمالة منخفضة التكلفة في الاقتصادات النامية".
وشددت ريبيكا غرينسبان، رئيسة الوكالة، في بيان، على أهمية ضمان أن يكون الإنسان محور تطوير الذكاء الاصطناعي، وحثّت على تعزيز التعاون الدولي "لتحويل التركيز من التكنولوجيا إلى الإنسان، وتمكين البلدان من المشاركة في إنشاء إطار عالمي للذكاء الاصطناعي".
وأضافت "أظهر التاريخ أنه على الرغم من أن التقدم التكنولوجي يُحرك النمو الاقتصادي، إلا أنه لا يضمن بمفرده توزيعا عادلا للدخل أو يُعزز التنمية البشرية الشاملة".
4,8 تريليون دولار أميركي
في عام 2023، بلغت قيمة سوق التقنيات الرائدة، مثل الإنترنت وسلسلة الكتل (بلوك تشين) وشبكات الجيل الخامس (5G) والطباعة ثلاثية الأبعاد والذكاء الاصطناعي، 2,5 تريليون دولار، ومن المتوقع أن يزداد هذا الرقم ستة أضعاف في العقد المقبل ليصل إلى 16,4 تريليون دولار، وفقا للتقرير.
وبحلول عام 2033، سيكون الذكاء الاصطناعي التكنولوجيا الرائدة في هذا القطاع، وسينمو ليبلغ 4,8 تريليون دولار، وفقا للتقرير.
لكنّ "أونكتاد" حذّرت من أن البنية التحتية للذكاء الاصطناعي والمهارات والمعرفة المتقدمة في مجال الذكاء الاصطناعي ما زالت محصورة في عدد قليل من الاقتصادات، وتتركز في أيدي 100 شركة فقط. وهذه الشركات تنفق حاليا 40% من مجمل ما تنفقه الشركات في العالم على البحث والتطوير.
ودعت الوكالة الدول إلى أن "تتحرك الآن"، مؤكدة أنه "من خلال الاستثمار في البنية التحتية الرقمية، وبناء القدرات، وتعزيز حوكمة الذكاء الاصطناعي"، يمكنها "تسخير إمكانات الذكاء الاصطناعي لتحقيق التنمية المستدامة".
وأضافت أنه لا ينبغي النظر إلى الذكاء الاصطناعي على أنه "مجرد تهديد للوظائف"، فهذه التكنولوجيا "يمكنها أيضا تحفيز الابتكار عن طريق استحداث قطاعات جديدة وتمكين العمال".
وأكدت أن "الاستثمار في إعادة تأهيل المهارات، وتطويرها، وتكييف القوى العاملة أمرٌ أساسي لضمان تعزيز الذكاء الاصطناعي لفرص العمل بدلا من القضاء عليها".
وشددت الوكالة الأممية على ضرورة مشاركة جميع الدول في المناقشات حول سبل إدارة الذكاء الاصطناعي وحوكمته.
وأضافت أن "الذكاء الاصطناعي يرسم مستقبل العالم الاقتصادي، ومع ذلك، فإن 118 دولة غائبة عن المناقشات الرئيسية حول حوكمة الذكاء الاصطناعي".
وتابعت "مع تبلور اللوائح المنظمة لعمل الذكاء الاصطناعي وأطره الأخلاقية، يجب أن يكون للدول النامية دورٌ فاعلٌ في ضمان أن يكون الذكاء الاصطناعي في خدمة التقدم العالمي، وليس فقط مصالح فئة قليلة".

أخبار ذات صلة الذكاء الاصطناعي.. سلاح ذو حدين أمام تحديات الصحة النفسية دراسة جديدة.. موظف واحد مدعوم بالذكاء الاصطناعي يضاهي أداء فريق كامل المصدر: آ ف ب

مقالات مشابهة

  • الصين ترد على رسوم ترامب بأغاني وفيديوهات من إنتاج الذكاء الاصطناعي
  • كيف وقع الذكاء الاصطناعي ضحية كذبة أبريل؟
  • تحذير أممي من تأثير الذكاء الاصطناعي على 40% من الوظائف
  • بيل غيتس يكشف المهن التي ستظل بعيدة عن تأثير الذكاء الاصطناعي: 3 فقط
  • اتهامات لعمالقة الذكاء الاصطناعي بالتورط مع إسرائيل بإبادة غزة
  • بيل غيتس يستثني 3 مهن من هيمنة الذكاء الاصطناعي
  • بيل غيتس: 3 مهن ستصمد في وجه الذكاء الاصطناعي
  • بيل غيتس عن الذكاء الاصطناعي: 3 مهن ستنجو من إعصار
  • خبر سيئ للأفريقيات في هذا القطاع.. بسبب الذكاء الاصطناعي
  • تقرير أممي: الذكاء الاصطناعي سيؤثر على قرابة نصف الوظائف في العالم