في وقت يتنامى فيه بث البروباغندا من قبل جهات حكومية في دول مثل روسيا وإيران، واستهداف الجمهور بها عبر الإنترنت الذي بات المصدر الأول للمعلومات، يعرب صناع سياسات وتكنولوجيون وباحثون عن قلقهم من أن أدوات الذكاء الاصطناعي الجديدة يمكن أن تزيد من حملات البروباغندا السرية، من خلال تسهيل عمل منتجي الدعاية وتخفيض التكاليف عليهم.

في هذا السياق، أجرت مجلة وقائع الأكاديمية الوطنية للعلوم في الولايات المتحدة الأميركية، PNAS NEXUS، تجربة استقصائية في إطار دراسة مسجلة مسبقا، للتحقق من مدى اقتناع عينة واسعة من الجمهور بالمقالات الإخبارية المولدة باستخدام الذكاء الاصطناعي مقارنة مع مقالات دعائية أخرى من إنتاج بشري، وذلك في سبيل تبيان الدور الذي يمكن للذكاء الاصطناعي أن يلعبه في عملية توليد البروباغندا من جهة، وإقناع الجمهور بها من جهة أخرى.

واعتمدت الدراسة على أداة GPT-3 davinci الصادرة عن OpenAI، لتبيان ما إذا كانت هذه النماذج اللغوية الكبيرة المعتمدة على الذكاء الاصطناعي، قادرة على تسهيل مهمة الجهات الأجنبية لتوليد دعاية مقنعة تستهدف الجماهير في الولايات المتحدة، وذلك من خلال تجربة مسح أجريت على 8221 مشاركا أميركيا لمقارنة مدى اقتناعهم بالمقالات الدعائية السرية الأجنبية المنشورة باللغة الإنكليزية بإنتاج بشري، مع تلك المولدة بالذكاء الاصطناعي.

وأشارت الدراسة إلى أن حملات التأثير عبر الذكاء الاصطناعي يمكن أن تكون فعالة في إقناع الناس، حيث تكون الدعاية التي يولدها مقنعة للغاية بالنسبة لمجموعة واسعة من الفئات المجتمعية، بتكاليف أقل، وقدرة إنتاجية أكبر.

الكشف عن حملات التضليل الروسية على وسائل التواصل الاجتماعي التي استهدفت الولايات المتحدة في عام 2016 أدى، بحسب الدراسة، إلى زيادة الوعي بهذه الجهود ودفع منصات إلكترونية إلى تخصيص المزيد من الموارد للعثور على هذه العمليات وتعليقها.

وتواجه بعض منصات التكنولوجيا ضغوطا لإزالة الدعاية التي يولدها الذكاء الاصطناعي، وقد أعلنت شركات تكنولوجية كبرى مؤخرا عن إطار عمل للرد على التزييف العميق الناتج عن الذكاء الاصطناعي والذي يخدع الناخبين عمدا.

ومع ذلك، تظل فعالية هذا الإطار غير مؤكدة، حيث لم تغير بعض المنصات بشكل كبير نهجها في مكافحة الذكاء الاصطناعي الخادع، وبالتالي يستمر بث البروباغندا المدعومة من جهات حكومية على شبكة الإنترنت ومنصات التواصل الاجتماعي، وتطبيقات المراسلة المشفرة، فضلا عن العديد من القنوات الأخرى، وذلك في سبيل الترويج الذاتي أو تقويض الثقة في المؤسسات الديمقراطية.

وبينما أجريت العديد من الدراسات التي ترصد مدى وعي الناس بمصداقية المقالات المولدة بالذكاء الاصطناعي، تعتبر هذه الدراسة الأولى في نوعها التي تركز على مدى إقناع الدعاية التي يولدها الذكاء الاصطناعي مقارنة بتلك التي ينتجها البشر.

وقد ركزت على المقالات الدعائية (البروباغندا)، بدلاً من المقتطفات مثل التغريدات، نظرًا لكون أداء نماذج اللغة يتراجع عادةً مع زيادة طول النص.

وحددت الدراسة ستة مقالات (يتراوح طولها من 151 إلى 308 كلمات) سبق أن كشف عنها صحفيون استقصائيون أو باحثون كجزء من حملات دعائية سرية محتملة مدعومة من دول مثل إيران أو روسيا، تم انتاجها بجهود بشرية، وتروج تلك المقالات للمواضيع التالية:

– الطائرات المسيرة.. استهدفت معظم ضربات الطائرات الأميركية المسيرة في الشرق الأوسط المدنيين، وليس الإرهابيين.

– إيران.. ساعدت العقوبات الأميركية ضد إيران وروسيا الولايات المتحدة في السيطرة على الشركات والحكومات في أوروبا.

– المواد الكيميائية السورية.. لتبرير هجومها على قاعدة جوية في سوريا، أنشأت الولايات المتحدة تقارير كاذبة تقول إن الحكومة السورية استخدمت الأسلحة الكيميائية.

– الوضع الصحي في سوريا.. أدت العقوبات الغربية إلى نقص الإمدادات الطبية في سوريا.

– نفط سوريا.. شنت الولايات المتحدة هجمات في سوريا للسيطرة على منطقة غنية بالنفط.

– جدار حدودي.. التزمت السعودية بالمساعدة في تمويل الجدار الحدودي بين الولايات المتحدة والمكسيك.

تلخص هذه المواضيع، بحسب الدراسة، النقطة الرئيسية التي كان يحاول المروج إقناع الجمهور المستهدف بها، في حين أن العديد من هذه الجمل إما كاذبة أو قابلة للنقاش.

وللتخفيف من مخاطر احتمال تصديق المشاركين للأكاذيب، أبلغ المشاركون بعد إكمال الاستطلاع أن المقالات جاءت من مصادر دعائية وربما تحتوي على معلومات كاذبة.

واستخدم الباحثون برنامج GPT-3 لإنشاء مقالات حول نفس المواضيع الستة. بالنسبة لكل موضوع، قام الباحثون بتزويد GPT-3 بجملة أو جملتين من المقالة الدعائية الأصلية المنتجة بشرياً، والتي تشكل النقطة الرئيسية للمقال، بالإضافة إلى ثلاث مقالات دعائية أخرى حول مواضيع غير ذات صلة.

وطلب من GPT-3 إنشاء ثلاث مقالات حول كل موضوع، بدلاً من مقال واحد، لضمان عدم تكرار نتيجة واحدة، بكون كل مقال يتم إنشاؤه بواسطة الذكاء الاصطناعي فريد في نوعه. كما تم تجاهل النتائج التي كانت أقل من 686 حرفًا أو أكثر من 1936 حرفًا، لإبقاء المقالات في حدود 10% من أقصر وأطول المقالات من مجموعة الدعاية الأصلية أو المحررة بشرياً.

بعد ذلك، بدأت مرحلة دراسة مدى الإقناع، بين محتوى البروباغندا الأصلي وذلك المولد بالذكاء الاصطناعي.

واستعان الباحثون بشركة Lucid، وهي شركة مسح تركز على تحقيق التمثيل الجغرافي والديموغرافي لإجراء مقابلات، وتم توجيه أسئلة للمشاركين عن مدى الموافقة أو عدم الموافقة على 4 من موضوعات الدعاية الـ 6، والتي تم اختيارها عشوائيًا، دون قراءة مقال حول هذه المواضيع. بعد ذلك، قدمت لكل مشارك مقالات حول الموضوعين المتبقيين.

وقام الباحثون بعد ذلك بتقدير كيفية تأثر المشاركين بالمحتوى المعروض عليهم، على مقياسين للاتفاق، الأول مئوي يبين النسبة المئوية للمستجيبين الذين وافقوا أو وافقوا بشدة على كل عبارة مطروحة، والثاني عبر الموافقة المقاسة على مقياس مكون من 5 نقاط ابتداء من صفر، وتبدأ بعدم الموافقة بشدة وتتدرج إلى الموافقة بشدة.
نتائج متقاربة.. الإقناع ممكن

وقارنت الدراسة في تقييمها بين تأثير قراءة الدعاية الأصلية مقارنة بعدمه، لناحية الموافقة على الجمل المختصرة للموضوعات، وفي حين أن 24.4% فقط من المشاركين الذين لم يُعرض عليهم المقال الأصلي وافقوا أو وافقوا بشدة على بيان الأطروحة، قفز معدل الموافقة إلى 47.4% (زيادة قدرها 23 نقطة مئوية) بين المشاركين الذين قرأوا الدعاية الأصلية.

أما الدعاية الناتجة عن GPT-3 فقد جاءت أيضًا مقنعة للغاية بدورها، حيث وافق 43.5% من المشاركين، الذين قرأوا مقالًا تم إنشاؤه بواسطة هذا البرنامج، أو وافقوا بشدة على الجمل المطروحة عليهم، مقارنة بـ 24.4% ممن لم يقرأوا مقالات الذكاء الاصطناعي.

ويشير ذلك بحسب الدراسة إلى أنه يمكن لمروجي البروباغندا استخدام GPT-3 لإنشاء مقالات مقنعة بأقل جهد بشري، وذلك باستخدام المقالات الموجودة حول موضوعات غير ذات صلة واستغلال البرنامج لناحية أسلوب وطول المقالات الجديدة.

وبينما كانت الدعاية الناتجة عن GPT-3 مقنعة للغاية، كانت أقل إقناعًا قليلاً من الدعاية الأصلية (بفارق 3.9٪ نقطة). وتبين أن التأثيرات المقنعة للدعاية الأصلية ودعاية البرنامج كانت متسقة إلى حد ما عبر الفئات الاجتماعية.

ولم يكن هناك فروقات ملحوظة في النتائج عند تقسيم العينات، حسب المتغيرات الديموغرافية، والحزبية والأيديولوجية، ومستوى قراءة الأخبار، والوقت الذي يقضيه المستخدمون على وسائل التواصل الاجتماعي، وهو ما يشير إلى أن الدعاية التي يولدها الذكاء الاصطناعي يمكن أن تكون مقنعة لمجموعة واسعة، حتى مع اختلاف المواضيع المعروضة، فيما بعض المواضيع مثل النفط السوري وبناء الجدار الحدودي مع المكسيك كان أداء المحتوى المولد بالذكاء الاصطناعي أسوأ بكثير من الدعاية الأصلية.

وتقول الدراسة إن 3 مقالات أنتجت بواسطة الذكاء الاصطناعي أعطت نتائج متساوية، وهو ما يشير إلى إمكانية استفادة مروجي البروباغندا من النتائج المتعددة التي يقدمها البرنامج، واختيار المقالات عالية الجودة التي توضح وجهة نظر المروج، كما يمكن لهم الانخراط في تعاون بين الإنسان والذكاء الاصطناعي، لزيادة كفاءة الدعاية مع الاستمرار في الحصول على قدر من الإشراف البشري ومراقبة الجودة.

ومن بين النتائج التي توصلت إليها الدراسة أن المحتوى الناتج عن GPT-3 يمكن أن يندمج في بيئات المعلومات عبر الإنترنت على قدم المساواة مع المحتوى الذي تبثه حملات البروباغندا المنتجة بشرياً. وتضيف الدراسة أن هناك تطور مستمر في نماذج اللغة المدعومة بالذكاء الاصطناعي وهي تتحسن بسرعة، وإذا تم إجراء دراسة مماثلة باستخدام نماذج أكثر قوة في المستقبل، فمن المرجح أن يكون أداء الدعاية التي يولدها الذكاء الاصطناعي أفضل.

واستنتجت الدراسة أن الذكاء الاصطناعي يمكن أن يولد نصًا يكاد يكون مقنعًا للجمهور الأميركي مثل المحتوى الذي يتم بثه من حملات دعاية أجنبية سرية في العالم الحقيقي. علاوة على ذلك، أنتجت استراتيجيات التعاون بين الإنسان والآلة مقالات كانت مقنعة بقدر الدعاية الأصلية أو أكثر.

وفيما درست هذه التجربة تأثير قراءة مقال واحد، يمكن لمروجي البروباغندا استخدام الذكاء الاصطناعي لتعريض الناس للعديد من المقالات وبتكلفة زهيدة ودون إلمام لغوي.

كما أن إمكانية توليد الذكاء الاصطناعي لمقالات عدة تقدم رواية واحدة، وتختلف بالأسلوب والصياغة، من شأنها أن تزيد من حجم الدعاية، بينما يزيد من صعوبة اكتشافها، لأن المقالات التي تختلف في الأسلوب والصياغة قد تبدو أشبه بآراء أشخاص حقيقيين أو مصادر أخبار حقيقية، وفق الدراسة.

ويمكن للذكاء الاصطناعي أيضاً، بحسب الدراسة، توفير الوقت والمال، وتمكين مروجي البروباغندا من إعادة توجيه الموارد، ومن إنشاء المحتوى إلى بناء البنية التحتية (مثل الحسابات المزيفة، والمواقع “الإخبارية”) التي تبدو ذات مصداقية ويمكن تجنب اكتشافها.

الحرة

المصدر: موقع النيلين

كلمات دلالية: بالذکاء الاصطناعی الولایات المتحدة فی سوریا إقناع ا یمکن أن

إقرأ أيضاً:

حَوكمة الذكاء الاصطناعي: بين الابتكار والمسؤولية

يشهد العالم اليوم تطورا مُتسارعا في مجال الذكاء الاصطناعي، حيث أصبحت تطبيقاته تتغلغل في مختلف القطاعات، من الرعاية الصحية إلى التعليم والصناعة والخدمات المالية وغيرها من القطاعات. ومع هذا التوسع الهائل، تتزايد الحاجة إلى وضع أطر تنظيمية تضمن الاستخدام الآمن والمسؤول لهذه التقنية، وهو ما يُعرف بحوكمة الذكاء الاصطناعي.

إن التحدي الرئيس الذي تواجهه الحكومات والمؤسسات يتمثل في إيجاد توازن بين تشجيع الابتكار التكنولوجي من جهة، وضمان الامتثال للمبادئ الأخلاقية والقانونية التي تحمي الأفراد والمجتمعات من المخاطر المحتملة من جهة أخرى. وقد عرفت منظمة الأمم المتحدة للتربية والعلم والثقافة (اليونسكو) حوكمة الذكاء الاصطناعي بأنها «مجموعة من السياسات والإجراءات والمعايير القانونية التي تهدف إلى تنظيم تطوير واستخدام أدوات الذكاء الاصطناعي بطريقة مسؤولة وشفافة، مع ضمان احترام القيم الإنسانية وحماية الحقوق الأساسية».

ووفقا لتوصية منظمة اليونسكو بشأن أخلاقيات الذكاء الاصطناعي لعام 2021، فإن الحوكمةَ الفعالةَ للذكاء الاصطناعي ينبغي أن تستند إلى مبادئ الشفافية والمساءلة والأمان لضمان تحقيق الفائدة للمجتمع دونَ المساس بالحقوق الفردية. تهدفُ هذه الحوكمة إلى ضمان العدالة والشفافية وحماية البيانات واحترام حقوق الإنسان في جميع مراحل تطوير واستخدام هذه التقنيات. وتبرز أهمية الحوكمة في ضوء المخاطر المحتملة للذكاء الاصطناعي، مثل التحيز الخوارزمي وانتهاك الخصوصية والتأثير على سوق العمل، الأمر الذي يستدعي وضع تشريعات صارمة لضمان عدم إساءة استخدام هذه التقنية.

وفي سياق الجهود الدولية لتنظيم الذكاء الاصطناعي، صدر التقرير الدولي حول سلامة الذكاء الاصطناعي في يناير 2025 عن المعهد الدولي لسلامة الذكاء الاصطناعي (International AI Safety Report)، الذي شارك في إعداده 30 دولة من بينها منظمات دولية بارزة مثل هيئة الأمم المتحدة والاتحاد الأوروبي ومنظمة التعاون الاقتصادي والتنمية، حيث تناول الحالة الراهنة للفهم العلمي المتعلق بالذكاء الاصطناعي العام، وهو ذلك «النوع من الذكاء الاصطناعي القادر على تنفيذ مجموعة واسعة من المهام». وقد هدف التقرير إلى بناء فهم دولي مشترك حول المخاطر المرتبطة باستخدام الذكاء الاصطناعي المتقدم، مع تقديم تحليل شامل للوسائل العلمية والتقنية المتاحة لإدارتها والتخفيف منها بفعالية، وتوفير معلومات علمية تدعم صانعي القرار في وضع سياسات تنظيمية فعالة. وعلى الرغم من الفوائد العديدة التي يقدمها الذكاء الاصطناعي العام، فإن التقرير يحذر من المخاطر المتزايدة المرتبطة باستخدامه.

فمن الناحية الأمنية، قد يُستغل الذكاء الاصطناعي في تنفيذ هجمات سيبرانية متقدمة أو في تسهيل عمليات الاحتيال الإلكتروني، من خلال إنتاج محتوى مزيف (Fake content) يصعب تمييزه عن الحقيقي. كما أن هناك مخاطر اجتماعية تتمثل في إمكانية تعميق التحيزات الموجودة في البيانات التي تُستخدم في تدريب هذه الأنظمة. إضافة إلى ذلك، مخاوف تتعلق بفقدان السيطرة على أنظمة الذكاء الاصطناعي المتقدمة، حيث يمكن أن يؤدي التطور المتسارع لهذه الأنظمة إلى سلوكيات غير متوقعة قد يصعب التحكم بها. أما على المستوى الاقتصادي، فإن الذكاء الاصطناعي قد يتسبب في اضطرابات كبيرة في سوق العمل، حيث يؤدي إلى استبدال العديد من الوظائف التقليدية بالأنظمة الآلية، ففي قطاع خدمة العملاء مثلا، تعتمد الشركات الكبرى مثل أمازون وجوجل على روبوتات الدردشة (Chatbots) لتقديم الدعم الفني والتفاعل مع العملاء بكفاءة عالية، مما يقلل الحاجة إلى الموظفين البشريين.

أما في مجال التصنيع والتجميع، فقد أصبحت الروبوتات الصناعية تقوم بمهام الإنتاج بدقة وسرعة تفوق القدرات البشرية، كما هو الحال في مصانع تسلا وفورد التي تستخدم أنظمة مؤتمتة لتنفيذ عمليات اللحام والتجميع، مما يقلل التكاليف ويرفع كفاءة الإنتاج. ومع استمرار تطور الذكاء الاصطناعي، يُتوقع أن يمتد تأثيره إلى المزيد من القطاعات.

ومع تزايد الاعتماد على الذكاء الاصطناعي في مختلف القطاعات، أصبح من الضروري تبني استراتيجيات وحلول لمواجهة تحديات فقدان الوظائف التقليدية. ويُعد إعادة تأهيل القوى العاملة من أهم هذه الحلول، إذ يجب الاستثمار في برامج تدريبية تُمكن الموظفين من اكتساب مهارات رقمية وتقنية جديدة، مثل تحليل البيانات وتطوير البرمجيات، مما يساعدهم على التكيف مع متطلبات سوق العمل المتغير. إلى جانب ذلك، يمثل تعزيز ريادة الأعمال والابتكار حلا فعالا، حيث يُمكن تشجيع إنشاء مشاريع صغيرة ومتوسطة تعتمد على الذكاء الاصطناعي، مما يخلق فرص عمل جديدة.

كما يعد تبني نموذج العمل الهجين ضرورة مُلحة، إذ يُمكن دمج الذكاء الاصطناعي مع القدرات البشرية بدلا من الاستبدال الكامل، مما يعزز الإنتاجية مع الحفاظ على دور العنصر البشري. كما أن تطوير الأطر القانونية والتنظيمية يعد خطوة مهمة، حيث ينبغي صياغة قوانين تضمن الاستخدام العادل والمسؤول للذكاء الاصطناعي، وتحمي العمال من التمييز الناتج عن الأتمتة. بالإضافة إلى ذلك فإن التعليم المستمر يُسهم في تأهيل القوى العاملة الوطنية لمواكبة التحولات في سوق العمل، حيث ينبغي تعزيز ثقافة التعلم المستمر لضمان قدرة القوى العاملة على التكيف مع المتطلبات المستقبلية للتكنولوجيا المتقدمة. وغيرها من الاستراتيجيات الجديدة لدمج الإنسان مع الآلة في بيئة العمل.

من جانب آخر، هناك مخاطر تتعلق بالخصوصية، حيث يمكن للذكاء الاصطناعي تحليل كميات كبيرة من البيانات الشخصية، مما يزيد من احتمالات انتهاك الخصوصية وسوء استخدام المعلومات. ولتقليل هذه المخاطر، من الضروري تبني مجموعة من الاستراتيجيات التقنية والتنظيمية التي تعزز شفافية وأمان أنظمة الذكاء الاصطناعي. ومن أبرزها، تطوير تقنيات تتيح فهما أعمق لآليات اتخاذ القرار لدى الذكاء الاصطناعي، مما يسهل عملية المراجعة والمساءلة. بالإضافة إلى ذلك، تبرز أهمية تعزيز الأمن السيبراني عبر تصميم بروتوكولات حماية متقدمة لمواجهة التهديدات المحتملة.

كما يجب العمل على تصفية البيانات وتقليل التحيز لضمان دقة وعدالة أنظمة الذكاء الاصطناعي في اتخاذ القرارات. ومن أجل حماية بيانات المستخدمين، يتوجب استخدام تقنيات التشفير القوية وآليات الحماية الحديثة التي تضمن الامتثال لمعايير الخصوصية. بالإضافة إلى ضرورة الحفاظ على دور الإنسان في عمليات اتخاذ القرار، لضمان عدم الاعتماد الكامل على الذكاء الاصطناعي في الأمور الحساسة، مما يقلل من المخاطر المحتملة الناجمة عن التحكم الذاتي للأنظمة. إن التطور السريع لهذه التقنية يتطلب نهجا شاملا يجمع بين البحث العلمي والسياسات التنظيمية والتقنيات المتقدمة لضمان الاستخدام الآمن والمسؤول لهذه الأنظمة، بحيث تتحقق الفائدة المرجوة منها دون التعرض للمخاطر المحتملة.

وقد اعتمدت العديد من الدول سياسات مُتقدمة لتنظيم الذكاء الاصطناعي، حيث اتخذ الاتحاد الأوروبي خطوات رائدة في هذا المجال عبر قانون الذكاء الاصطناعي الأوروبي الذي دخل حيز التنفيذ عام 2024م والذي يُعدُ أول إطار قانوني شامل يهدف إلى تَنظيم استخدام الذكاء الاصطناعي وفق معايير صارمة تحمي الخصوصية وتحد من التحيز الخوارزمي. وفي المقابل، تبنت الولايات المتحدة الأمريكية نهجا يعتمد على توجيهات إرشادية لتعزيز الشفافية والمساءلة، مع منح الشركات حرية الابتكار ضمن حدود أخلاقية محددة. أما الصين، فقد ألزمت الشركات التقنية بمراجعة وتقييم خوارزميات الذكاء الاصطناعي المُستخدمة في المنصات الرقمية، لضمان الامتثال لمعايير الأمان السيبراني.

عليه فإنه يُمكن الإشارة إلى مجموعة من التوصيات والمُبادرات التي يُمكن أن تُسهم في تعزيز حوكمة الذكاء الاصطناعي بشكل فعال، ومن أبرزها: وضع أطر قانونية مَرنة تُتيح تطوير الذكاء الاصطناعي دون عرقلة الابتكار، مع ضمان حماية حقوق الأفراد والمجتمع وتعزيز الشفافية والمساءلة من خلال فرض معايير تضمن وضوح كيفية عمل أنظمة الذكاء الاصطناعي، وإتاحة آليات لمراجعة القرارات التي تتخذها هذه الأنظمة وتعزيز التعاون الدولي لإنشاء منصات مشتركة لمراقبة تطورات الذكاء الاصطناعي وتبادل المعلومات بين الدول حول المخاطر المحتملة وتشجيع البحث والتطوير المسؤول عبر دعم الأبحاث التي تركز على تطوير تقنيات ذكاء اصطناعي أكثر أمانا واستدامة وتعزيز تعليم الذكاء الاصطناعي الأخلاقي من خلال دمج مقررات حوكمة الذكاء الاصطناعي في مناهج المؤسسات الأكاديمية والتعليمية، لضمان وعي المطورين الجدد بالمسؤوليات الأخلاقية المترتبة على استخدام هذه التقنية.

إن حوكمة الذكاء الاصطناعي تُشكل ركيزة أساسية لضمان تحقيق أقصى الفوائد من هذه التقنية، مع الحد من المخاطر المرتبطة بها. وبينما يستمر الابتكار في التقدم بوتيرة غير مسبوقة، فإن المسؤولية تقتضي وضع سياسات وتشريعات تنظيمية تضمن الاستخدام العادل والمسؤول لهذه التقنيات، بما يتوافق مع القيم الأخلاقية والقوانين الدولية. ويُعد تحقيق التوازن بين الابتكار والمسؤولية التحدي الأكبر الذي يواجه الحكومات وصناع القرار، لكن من خلال التعاون الدولي ووضع سياسات متقدمة، يمكن بناء مستقبل مستدام للذكاء الاصطناعي يعود بالنفع على البشرية جمعاء.

عارف بن خميس الفزاري كاتب ومتخصص في المعرفة

مقالات مشابهة

  • الخبرات النادرة والمعادلة الجديدة في الذكاء الاصطناعي
  • ترامب يوقف التمويل الاتحادي عن الكليات والمدارس التي تسمح باحتجاجات “غير قانونية”
  • الخوارزمية الأولى: أساطير الذكاء الاصطناعي
  • حَوكمة الذكاء الاصطناعي: بين الابتكار والمسؤولية
  • “النقل” تُعلن فرض عقوبات وغرامات مالية للشاحنات الأجنبية المخالفة التي تُمارس نقل البضائع داخل المملكة
  • الذكاء الاصطناعي يتحدى إبداع البشر في مزاد فني دولي
  • أفغانستان ترد على ترامب: المعدات العسكرية التي تركتها اميركا هي “غنائم حرب”
  • السنوار يتسبب بإغلاق “الذكاء الاصطناعي”في التعليم الديني الإسرائيلي
  • فريدة سيف النصر تهاجم صناع “العتاولة” وتفجّر غضبها!
  • فريدة سيف النصر تهاجم صناع مسلسل “العتاولة”.. فيديو