دبي:«الخليج»

أكد خبراء في قطاعات الذكاء الاصطناعي والأتمتة والتعلّم الآلي خلال مشاركتهم في «منتدى دبي للمستقبل 2023»، أكبر تجمع عالمي لخبراء ومصممي المستقبل، أن العمل ضمن إطار مبتكر من التعاون، سيمكن البشر من الاستفادة المثلى من الذكاء الاصطناعي والتحكم الآلي، للمضي نحو المستقبل بخطى ثابتة وواثقة، وتحقيق هدف إعادة تصميم أشكال وأنظمة وأطر التعاون بين البشر في الجيل الواحد أو بين الأجيال المختلفة، وبين البشر والآلات، وبين الآلات نفسها.

وخلص المتحدثون في جلسات اليوم الأول، ضمن محور «علاقة الإنسان والآلة» أن التكامل بين الإنسان والآلة هو العلاقة المثالية التي تتطلع إليها المجتمعات حاضراً ومستقبلاً، للوصول إلى أفضل نتائج التحول الرقمي والذكي، وتعزيز استخدامات الذكاء الاصطناعي في مختلف مسارات التنمية ومناحي الحياة اليومية.

وناقشت جلسات المحور موضوعات «الاستعداد لعصر الذكاء الاصطناعي»، و«إمكانات محاسبة التكنولوجيا على قراراتها»، و«فرص تزويد التكنولوجيا القابلة للارتداء لنا بحاسة سادسة»، و«كيف يمكن للحكومات توظيف أدوات استشراف المستقبل؟»

باسكال فونج: علينا أن نتقدم بحذر ولكن بتفاؤل

وفي جلسة «الاستعداد لعصر الذكاء الاصطناعي، التي أدارها فيصل كاظم، من مركز الإمارات للثورة الصناعية الرابعة، قالت البروفيسورة باسكال فونج، مديرة مركز الذكاء الاصطناعي في جامعة هونغ كونغ «نحن بحاجة إلى أن نكون واعين لما نطوّره، ولكن في نهاية المطاف، تطرح الأسئلة الأخلاقية في مرحلة التنفيذ، وليس التطوير. ومن ثم، علينا أن نتقدم بحذر، ولكن بتفاؤل».

ويرلي: نحتاج لموقف متوازن تجاه التكنولوجيا في العالم الحقيقي

وقال ويرلي، من شركة «سترينغ ووركس»، إننا نمر بلحظة مهمة من الزمن، مع وجود مدة وجيزة للتأثير في التكنولوجيا، داعياً إلى أخذ الأخلاقيات في الحسبان، مع مواصلة التطوير والتقدم. واستشهد بنهج اليابان المتساهل تجاه لوائح الذكاء الاصطناعي عندما دعا إلى اتخاذ موقف متوازن تجاه تنفيذ التكنولوجيا والذكاء الاصطناعي في العالم الحقيقي.

هدى الخزيمي: تطبيق مبدأ السيادة في تطوير الذكاء الاصطناعي

وقالت البروفيسور هدى الخزيمي، من مركز «إماراتسيك للأبحاث»، إن الذكاء الاصطناعي كشف عن كثير من القضايا العالمية التي تحتاج إلى معالجة، مع وجود إرادة لدى الجميع كي يكونوا جزءاً من المشاركة في تطوير الحل. داعيةً إلى تطبيق مبدأ من الحلول التي تتمتع بالسيادة التكنولوجية، حيث تتماشى البنية التحتية لتكنولوجيا للمعلومات والاتصالات والتكنولوجيا مع قوانين ولوائح الدول.

أوليفييه ديسبي: الحياة مملوءة بالمخاطر والمستقبل ليس واحداً منها

وفي جلسة «هل يمكن محاسبة التكنولوجيا على قراراتها؟»، قال أوليفييه ديسبي من مجموعة «أكسا» إن الحياة مملوءة بالمخاطر ولكن المستقبل ينبغي أن لا يكون واحداً منها. لأن حوكمة قطاع التكنولوجيا من المخاطر العالمية. مؤكداً الحاجة إلى حلول عالمية.

جوون براونر: أنظمته مبنية على بيانات ينتجها البشر ويصنفونها

وقالت الدكتورة جوون براونر، من الجمعية الملكية «لا يوجد شيء مصطنع في الذكاء الاصطناعي. فأنظمته بشرية مبنية على البيانات التي ينتجها البشر ويجمعونها ويصنفونها. وهنا يتسلل التحيز. ويجب تبادل أفضل الممارسات بين الحكومات في هذا المجال الحيوي للمستقبل.

باول سويبودا: الأجهزة القابلة للارتداء تعزز حياة الإنسان

وضمن جلسة «هل تزوّدنا التكنولوجيا القابلة للارتداء بحاسة سادسة جديدة؟»، قال باول سويبودا، مؤسس شركة «نيوسنشوري»، إن الأجهزة القابلة للارتداء تشبه الرفاق، وهي أربع فئات تشمل الأجهزة القابلة للابتلاع، والأطراف الإلكترونية، والأجهزة القابلة للارتداء كما نعرفها، وأجهزة المرافقة الذكية خارج الجسم. لافتاً إلى أنهاليست هدفاً في حد ذاتها، بل هي تقنيات تعزز حياة الإنسان.

باولو داريو: وصلنا إلى 1.1 مليار جهاز قابل للارتداء عام 2022

وقال البروفيسور باولو داريو، كبير العلماء في «مختبرات دبي للمستقبل»، إن مفهوم الأجهزة القابلة للارتداء قائم على تحقيق الهدف منها وهو تحسين القدرات البشرية للتعامل مع التحديات. ومنافعها واستخداماتها المتزايدة أسهمت في دفع القطاع للوصول إلى 1.1 مليار جهاز قابل للارتداء عام 2022.

كين تشوا: للأجهزة القابلة للارتداء وظائف محددة بمختلف الفئات

والأنواع وقال كين تشوا، مؤسس ومدير إدارة شركة «ذيز أبيليتيز»، إن الحاجة تنمو إلى الأجهزة القابلة للارتداء، فهي تؤدي وظائف محددة، عبر مختلف الفئات والأنواع. ومن الضرورة اختبارها من المجتمع لضمان اعتمادها.

أراثي كريشنان: مخاطر المستقبل مترابطة

وفي ختام جلسات اليوم الأول التي حملت عنوان «كيف يمكن للحكومات توظيف أدوات استشراف المستقبل؟» أكدت أراثي كريشنان، خبيرة توقع المخاطر واستشراف المستقبل، أن أنظمتنا الحسية بشراً ومجتمعات، ليست مهيأة لفهم المخاطر الناشئة بشكل شمولي للتعاطي معها، لأنها تنظر إلى المخاطر في صوامع منفصلة، وتصنفها مخاطر اقتصادية وصحية وطبيعية وما إلى ذلك، في حين أنها مترابطة في الواقع.

شيريل تشونغ: تكامل مراحل سلسلة القيمة في منظومة استشراف

المستقبل وأكدت شيريل تشونغ، المتخصصة في استشراف مستقبل السياسات العامة، ضرورة التمييز بين استشراف المستقبل لمجرد الاستشراف واستخدام هذا الاستشراف من أجل التقدم البشري. داعية إلى تكامل كل مراحل سلسلة القيمة في منظومة استشراف المستقبل ومأسستها على مختلف المستويات لبناء المستقبل الذي نتطلع إليه.

ديميتري لورنزاني: الذكاء الجمعي يترجم إلى رؤى تبني المستقبل

وأكد ديميتري لورنزاني، من فريق عمل نائب الرئيس التنفيذي للمفوضية الأوروبية، أن الذكاء الجمعي يترجم الوعي العام إلى رؤى وطموحات قادرة على بناء المستقبل الذي تتطلع إليه المجتمعات البشرية. داعياً إلى التفاؤل والإيجابية في مقاربة تحديات المستقبل وتحويلها إلى فرص.

المصدر: صحيفة الخليج

كلمات دلالية: فيديوهات دبي للمستقبل إمارة دبي الأجهزة القابلة للارتداء استشراف المستقبل الذکاء الاصطناعی

إقرأ أيضاً:

صناعة الأوهام.. كيف تستغل الدول الذكاء الاصطناعي في أجندتها الإعلامية؟

في نوفمبر/تشرين الثاني الماضي أطلقت أولغا لويك -وهي طالبة من أوكرانيا تدرس في جامعة بنسلفانيا- قناتها الشخصية على منصة يوتيوب.

لم تحصل أولغا على الجمهور الذي كانت تنتظره، لكنها بعد فترة وجيزة من إطلاق القناة وجدت أن معظم جمهورها يأتي من منصات التواصل الاجتماعي في الصين، والأهم أنها لم تكن هي من تظهر في مقاطع الفيديو، بل كانت نسخة من صورتها نسجها الذكاء الاصطناعي، كما أشار تقرير لرويترز.

كانت شبيهاتها الرقميات مثل "ناتاشا" يدعين أنهن نساء روسيات يتقن اللغة الصينية بطلاقة ويشكرن الصين على دعمها لروسيا ضد الغرب، ويحاولن كسب بعض الأموال عبر بيع منتجات مثل الحلوى الروسية.

والمثير للدهشة أكثر أن تلك الحسابات الوهمية امتلكت مئات الآلاف من المتابعين في الصين، أكثر بكثير من متابعي أولغا نفسها على منصة يوتيوب.

وتمثل تلك الواقعة نموذجا لعدد كبير مما يبدو للوهلة الأولى أنهن فتيات روسيات على وسائل التواصل الاجتماعي في الصين يعبرن عن حبهن لها باللغة الصينية بطلاقة ويذكرن أنهن يسعين إلى دعم روسيا في الحرب من خلال بيع الواردات من وطنهن الأم، ولكن لا وجود لأي منهن.

ويذكر الخبراء أن صور تلك الفتيات مولدة بالذكاء الاصطناعي عبر انتحال وسرقة مقاطع لنساء حقيقيات على الإنترنت، وغالبا دون علمهن، وتُستخدم مقاطع الفيديو المزيفة للترويج لمنتجات للرجال في الصين، وفقا لتقرير رويترز.

ويذكر جيم تشاي الرئيس التنفيذي لشركة "إكسموف" -وهي شركة تعمل على تطوير تقنيات الذكاء الاصطناعي- أن تقنية إنتاج مثل تلك الصور أصبحت "شائعة للغاية لأن كثيرين يستخدمونها في الصين".

وعلى نطاق أوسع، لفتت تلك الواقعة الانتباه إلى مخاطر تقنيات الذكاء الاصطناعي التي تتطور بوتيرة متسارعة للغاية، فقد ازدادت المخاوف بشأن مساهمة الذكاء الاصطناعي في نشر المعلومات المضللة والأخبار المزيفة والاستخدام في نشر السرديات الموجهة أو في الدعاية الإعلامية خلال الأشهر الماضية، وسط تزايد انتشار أنظمة الذكاء الاصطناعي التوليدي مثل روبوت المحادثة "شات جي بي تي".

زاد انتشار أنظمة الذكاء الاصطناعي التوليدي مثل روبوت المحادثة "شات جي بي تي" (شترستوك) مكسب الكاذب

تستعين الحكومات والأطراف والجهات السياسية المؤثرة في مختلف دول العالم -سواء في الأنظمة الديمقراطية أو السلطوية- بالذكاء الاصطناعي لتوليد النصوص والصور والفيديو بهدف توجيه الرأي العام لصالحها ولفرض رقابة آلية على المحتوى المنتقد لها على الإنترنت.

وفي التقرير السنوي -الذي صدر في أكتوبر/تشرين الأول العام الماضي- وثق الباحثون في منظمة فريدوم هاوس -وهي إحدى منظمات الدفاع عن حقوق الإنسان- استخدام الذكاء الاصطناعي التوليدي في 16 دولة "لزرع الشك أو تشويه سمعة المعارضين أو التأثير على الحوار العام".

وقد توصل التقرير إلى أن حرية الإنترنت العالمية انخفضت للعام الـ13 على التوالي مدفوعة جزئيا بانتشار تقنيات الذكاء الاصطناعي.

ويذكر الباحثون أن واحدة من أهم النتائج التي توصلوا إليها تتعلق بتغير أسلوب استخدام الحكومات الذكاء الاصطناعي، ومع تطور تلك التقنيات بصورة متزايدة تواصل جهات سياسية استغلالها لتضخيم المعلومات المضللة لتخدم مصالحها.

ورغم أن تلك التطورات ليست مفاجئة بالضرورة فإن إحدى أكثر النتائج إثارة للاهتمام هي أن سهولة الوصول إلى الذكاء الاصطناعي التوليدي على نحو واسع النطاق قد تضعف الثقة في الحقائق التي يمكن إثباتها، وفقا للتقرير.

ومع انتشار المحتوى الذي يولده الذكاء الاصطناعي على الإنترنت بصورة طبيعية قد يسمح هذا للجهات السياسية بالتشكيك في المعلومات الموثوقة والحقيقية، وهي ظاهرة تعرف بـ"مكسب الكاذب"، إذ يؤدي الحذر من التزييف إلى زيادة تشكك الجمهور في المعلومات الصحيحة، خاصة في أوقات الأزمات أو الصراعات السياسية عندما تتفشى المعلومات الكاذبة.

الذكاء الاصطناعي يسهل المهمة

تعمل تقنيات الذكاء الاصطناعي على أتمتة صناعة الأخبار المضللة، مما أدى إلى انفجار في محتوى المواقع على شبكة الإنترنت الذي يحاكي مقالات حقيقية لكنها تنشر في المقابل معلومات كاذبة عن الانتخابات والحروب والكوارث الطبيعية.

وخلال العام الماضي ازدادت المواقع التي تنشر مقالات مضللة من إنتاج الذكاء الاصطناعي بأكثر من 1000%، إذ ارتفع عددها من 49 موقعا إلى أكثر من 600 موقع، وفقا لتقرير من منظمة "نيوز غارد" التي تتعقب المعلومات المضللة.

ومن الناحية التاريخية، اعتمدت عمليات الدعاية على جيوش من العاملين بأجور منخفضة أو منظمات استخباراتية شديدة التنسيق لإنشاء مواقع على الإنترنت تبدو كأنها حقيقية.

لكن تقنيات الذكاء الاصطناعي تسهّل على أي شخص تقريبا -سواء كان جزءا من وكالة تجسس أو مجرد مراهق في قبو منزله- إنشاء تلك المواقع وإنتاج محتوى يصعب أحيانا التفرقة بينه وبين الأخبار الحقيقية.

كما أظهرت تجارب في ورقة بحثية جديدة صدرت في فبراير/شباط الماضي أن النماذج اللغوية بإمكانها توليد نصوص مقنعة للجمهور الأميركي بنفس درجة إقناع المحتوى الناتج من حملات الدعاية الخارجية السرية الحقيقية.

كما أن إستراتيجيات العمل المشترك بين الإنسان ونماذج الذكاء الاصطناعي مثل تعديل التوجيهات لروبوت المحادثة وتنسيق النتائج أسفرت عن مقالات مقنعة بقدر الدعاية الأصلية أو أكثر إقناعا منها.

وتشير شركة "أوبن إيه آي" المطورة لروبوت المحادثة "شات جي بي تي" إلى أنها تملك الآن أكثر من 100 مليون مستخدم نشط أسبوعيا، وتعمل أدواتها على تسهيل وسرعة إنتاج كم ضخم من المحتوى، كما يمكن استخدامها لإخفاء الأخطاء اللغوية وتوليد تفاعل وهمي.

الحكومات والجهات السياسية المؤثرة في مختلف دول العالم تستعين بالذكاء الاصطناعي لتوليد النصوص والصور والفيديو (شترستوك) حملات سرية للتأثير

في نهاية مايو/أيار الماضي كشفت شركة "أوبن إيه آي" عن 5 عمليات سرية من روسيا والصين وإيران وإسرائيل استخدمت فيها تلك الدول تقنيات الذكاء الاصطناعي الخاصة بالشركة بغرض التأثير على الرأي العام العالمي، وذكرت الشركة أنها تمكنت من إيقافها، وفقا لما ذكرته صحيفة تايم.

وأوضحت الشركة في تقريرها الجديد كيف استخدمت هذه المجموعات -التي يرتبط بعضها بحملات دعائية معروفة- تقنيات الشركة في العديد من "الأنشطة المضللة"، وشملت تلك الأنشطة إنتاج تعليقات ومقالات وصور على وسائل التواصل الاجتماعي بلغات عدة، بالإضافة إلى ابتكار أسماء ونبذات تعريفية لحسابات وهمية، وتعديل الأكواد البرمجية، إلى جانب ترجمة النصوص وتدقيقها لغويا.

وركزت هذه العمليات على مجموعة من القضايا، منها الدفاع عن الحرب الدائرة على قطاع غزة والغزو الروسي لأوكرانيا، وتوجيه الانتقادات لمعارضي الحكومة الصينية، بالإضافة إلى نشر تعليقات بشأن السياسات في الهند وأوروبا والولايات المتحدة في إطار محاولاتها للتأثير على الرأي العام هناك.

وكشفت الأمثلة التي أوردها محللو "أوبن إيه آي" كيف تستخدم تلك الجهات تقنيات الذكاء الاصطناعي في نفس أنواع عمليات التأثير على الإنترنت التي تنفذها منذ عقد من الزمان، وتركز هذه الجهات على استخدام الحسابات والتعليقات والمقالات المزيفة بهدف التأثير على الرأي العام والتلاعب بالنتائج السياسية.

وكتب الباحث المسؤول عن فريق الاستخبارات والتحقيقات في "أوبن إيه آي" في التقرير "تكشف هذه التوجهات عن ساحة تهديدات تتسم بالتطور وليس الثورية، تستخدم تلك الجهات منصتنا لتحسين جودة محتواها والعمل بكفاءة أكبر".

وعلى سبيل المثال، أوضح تقرير الشركة بالتفصيل كيف استخدمت الشركة الإسرائيلية "ستويك" -وهي شركة للتسويق السياسي في تل أبيب- أدوات "أوبن إيه آي" لتوليد محتوى مؤيد لإسرائيل بشأن حرب الإبادة الدائرة على قطاع غزة.

واستهدفت تلك الحملة -التي كانت باسم "زيرو زينو"- الجمهور في الولايات المتحدة وكندا وإسرائيل، كما ذكرت شركة ميتا أنها حذفت 510 حسابات على فيسبوك و32 حسابا على إنستغرام ارتبطت بنفس الشركة الإسرائيلية.

وكانت مجموعة الحسابات المزيفة -التي تضمنت حسابات لأشخاص يتظاهرون بأنهم أميركيون من أصل أفريقي وطلاب في الولايات المتحدة وكندا- غالبا ترد على شخصيات بارزة أو مؤسسات إعلامية في منشورات تشيد بإسرائيل وتنتقد معاداة السامية في الجامعات الأميركية وتندد بتيارات "الإسلام الراديكالية".

وبحسب تقرير "أوبن إيه آي"، يبدو أن تلك الحملة قد فشلت في الوصول إلى أي تفاعل يذكر معها.

كما استخدمت إحدى حملات التأثير الروسية التي أوقفتها الشركة وأطلقت عليها اسم "قواعد سيئة" نماذج الذكاء الاصطناعي الخاصة بها لتصحيح الأكواد البرمجية لتشغيل روبوت على تطبيق تليغرام يتولى عملية نشر تعليقات سياسية قصيرة باللغتين الإنجليزية والروسية، وتقول الشركة إن العملية استهدفت أوكرانيا ومولدوفا والولايات المتحدة ودول البلطيق.

واستخدمت عملية روسية أخرى تعرف باسم "دوبلغنغر" وربطتها وزارة الخزانة الأميركية بالكرملين نماذج "أوبن إيه آي" لتوليد عناوين الأخبار وتحويل المقالات الصحفية إلى منشورات على فيسبوك، بالإضافة إلى كتابة التعليقات باللغات الإنجليزية والفرنسية والألمانية والإيطالية والبولندية.

كما استغلت شبكة صينية معروفة -وهي شبكة "سباموفلاغ" أدوات "أوبن إيه آي" للبحث في أنشطة وسائل التواصل الاجتماعي، وتوليد نصوص باللغات الصينية والإنجليزية واليابانية والكورية نشرت عبر منصات مختلفة، منها "إكس"، و"ميديم"، و"بلوغسبوت".

مقالات مشابهة

  • صناعة الأوهام.. كيف تستغل الدول الذكاء الاصطناعي في أجندتها الإعلامية؟
  • قراصنة يخترقون الذكاء الاصطناعي
  • رهان “أشباه الموصلات”.. إلى أين وصل سباق السعودية والإمارات؟
  • بسبب الذكاء الاصطناعي.. ارتفاع انبعاثات غوغل الكربونية 48%
  • شات «جي بي تي» ليس الوحيد.. 5 بدائل متاحة لمحادثات الذكاء الاصطناعي
  • أدمغتنا تميز بين أصوات البشر والروبوتات
  • أخلاقيات الذكاء الاصطناعي
  • من الحروب التجارية إلى الذكاء الاصطناعي: المنافسة الأمريكية- الصينية
  • العصيمي وبلهول يبحثان توظيف تقنيات المستقبل في خدمة «أصحاب الهمم»
  • "التعاون الإسلامي" تدعو إلى حوكمة أخلاقية للذكاء الاصطناعي