تطالعنا الأخبار في مختلف وسائل الإعلام عن مستجدات تخص الذكاء الاصطناعي، منها ما يُسعدنا، ومنها ما يثير قلقنا بشأن مستقبل هذا الكائن الرقمي المستمر في تطوراته ومفاجآته المدهشة، ونكاد نصبح كل يوم على مستجدات غير معهودة يأتي بها هذا الكائن الرقمي. ذكرت في مقالات سابقة أن بجانب ما تحمله نماذج الذكاء الاصطناعي من منافع تساهم في الرقي بالحضارة الإنسانية؛ فإنها تحمل جانبًا سلبيًا يهدد البشرية ووجودها، وهذا التهديد يمتد ليشمل الماهية الإنسانية الشاملة لنظام القيم والأخلاق، ويشمل الجانب المعيشي بفقدان الكثير من البشر لوظائف ومهن كانت مصدرا للدخل والمعيشة، ويشمل حياة الإنسان ووجوده من حيث الدمار الذي يمكن أنْ يأتي نتيجة لتطويرات الذكاء الاصطناعي غير المحكومة والمحسوبة.
سبق الحديث عن مخاطر الذكاء الاصطناعي -عبر مقالات سابقة نشرتها في جريد عُمان-، والتي لم تعد بعض تلك المخاوف مجرد افتراض، بل بدأ بعضها يتحقق واقعا، مثل تزييف المرئيات «مقاطع الفيديو»، والصوتيات عبر تطبيقات الذكاء الاصطناعي، وكذلك فقدان بعض الوظائف -لصالح الذكاء الاصطناعي- التي كان يشغلها الإنسان، والتطوير العسكري المتسارع بسبب نماذج الذكاء الاصطناعي الذي بات هاجسا يقلق المجتمع الإنسان عمومًا. أذكر أن بعض هذه المخاطر التي ذكرتها لم تكن قبل أشهر قليلة سوى مجرد توقعات مبنية على متابعة سير التطويرات الرقمية التي تشمل الذكاء الاصطناعي، وتأتي هذه التوقعات -في غضون فترة قصيرة- لتصبح واقعًا مهددًا للإنسانية؛ فنحتاج إلى رفع مستوى الوعي لفهم مثل هذه التقنيات المتقدمة، وتسريع وتيرة القدرة على مواجهة تحدياتها ومخاطرها. نعود إلى أمثلة من الماضي؛ فنجد -مثلا- البدايات الأولى لظهور الإنترنت وما حمله من هاجس أقلق المجتمع الصناعي الذي دخل مراحله الرقمية الأولى بعد المرحلة الإلكترونية، والذي لم يكن جاهزًا بشكل كامل لمواجهة تحديات تقنية مصحوبة بظهور الإنترنت، مثل القدرة على التعامل مع الفيروسات والاختراقات الإلكترونية التي تُهاجِم الأفراد والمؤسسات وأنظمتهم الرقمية، ولم يكن كذلك الوعي العام بالمستوى الجيد الذي يمكّن الكثير من مستخدمي هذه الأنظمة من القدرة على التعامل مع هذه التحديات ومواجهتها إلا بعد فترة من الزمن التي جاءت نتيجة للوسيلة التي تبرر الغاية.
نعود إلى زمننا الحاضر وتحدياته الرقمية الجديدة المتمثلة في الذكاء الاصطناعي؛ فنجد أن المجتمعات الإنسانية تحمل قلقا من نوع جديد، وهذه المرة تجاه مخاطر الذكاء الاصطناعي ونماذجه الكثيرة، وأحد أنواع هذا القلق ما يتعلق بالتعرض لخصوصيات الإنسان سواء عبر الولوج المباشر إلى خصوصياته الواقعية أو تزييفها لدرجة عدم القدرة على تمييزها من الواقع غير المزيّف.
تمتلك نماذج الذكاء الاصطناعي الحالية القدرة على تزييف المحتويات المنشورة التي تشمل المقاطع المرئية، والصوتية، وكذلك المكتوبة؛ فثمّة انتشار كبير لنماذج الذكاء الاصطناعي وتطبيقاته خاصة بتزييف الصور والمرئيات والصوتيات، وتعمل على صناعة محتويات غير حقيقية، وعبر انتشاره يقود إلى تزييف الحقائق، وإرباك الرأي العام وتغيير مساره الصحيح وفقًا لأهداف إما شخصية أو حتى عامّة (اقتصادية وسياسية)؛ إذ نرى مقاطع مرئية وصوتية لشخصيات سياسية واقتصادية ورياضية تنتشر لا يتوقع المشاهد -في بداية الأمر- أنها مزيّفة إلا في حالة تجاوزها الحد المعقول من قانون عدم التناقض الذي يمكن قياسه مع المقطع المرئي أو الصوتي المنسوب لتلك الشخصية والمقاطع الأصلية السابقة التي تعكس شخصيته الحقيقية.
تجاوز الأمر -مؤخرا- في تطبيقات ذكية -يمكن أن تصل بسهولة إلى يد أصحاب النفوس الضعيفة- تعمل على تزييف الصور وفق ظروف ومشاهد لا تناسب الذوق العام والأسس الأخلاقية، وهذا ما يسبب قلقا جمعيا داخل المجتمعات الإنسانية التي باتت خصوصيتها ونظامها الأخلاقي مهددا. لا أريد التشعّب في هذه المخاطر التي أظن أنها أصبحت معلومة عند معظم الناس -في زماننا-، إلا أنني أسعى إلى رفع مستويات الوعي بوجودها ومخاطرها وطرق مواجهتها؛ إذ إن من المهم أن ندرك أن مثل هذه المخاطر المتعلقة بتزييف الصور والمرئيات والصوتيات مجرد مخاطر مؤقتة وظرفية؛ حيث بدأت تظهر وسائل رقمية كاشفة لمثل هذه التزييفات تعمل بواسطة الذكاء الاصطناعي أيضًا؛ فهناك مختصون يعملون على مواجهة مثل هذه المخاطر الرقمية التي تمتد مخاطرها إلى عمليات الابتزاز ونشر الإشاعات والأخبار الزائفة التي يُسْعَى عبرها إلى زرع الخلل النفسي والاجتماعي، بل يشمل الجانب السياسي والاقتصادي؛ إذ صارت مثل هذه التقنيات الذكية أدوات وأسلحة رقمية تهدد الأفراد والمؤسسات والمجتمعات الإنسانية، وهذا أيضا ينطبق على المحتويات المكتوبة التي يمكن إنشاؤها بواسطة نماذج الذكاء الاصطناعي التوليدية، وسبق لي الإشارة إلى طرق مواجهة تحديات الانتحال والتزييف في النصوص المكتوبة في مقال نشرته في الملحق العلمي -التابع لجريدة عُمان- العدد الثالث. كما ذكرت فهذه المخاطر يمكن مواجهاتها من قبل المُختصِّين، ولكن من الصعب التحكم في تأثيرها السلبي في مراحلها الأولى؛ لذا يُعوّل على نشر الوعي لكونه الوسيلة الأساسية لكبح هذا التأثير إلى أدنى مستوياته.
نلحظ في جانب آخر تسارع تطويرات القطاعات العسكرية التي تعمل بواسطة نماذج الذكاء الاصطناعي، ونتوجس ممَّا يمكن لهذه الأنظمة الذكية أن تُحدثه في قطاع الأسلحة وتبعاتها التي ستلحق الضرر في المجتمعات الإنسانية ووجودها؛ إذ نرى عبر ما يُنشر في وسائل الإعلام والدراسات العلمية أن مثل هذه التقنيات العسكرية بمساعدة خوارزمياتها الذكية يمكن أن تخرج عن السيطرة؛ فتعمل وفق استراتيجية من الممكن أن تفوق الإنسان شراسة وقسوة، ولا تملك أي مبادئ أخلاقية. أجد أن مثل هذه المخاطر المتعلقة بالقطاعات العسكرية وصناعة الأسلحة خطرها يقود إلى كارثة وجودية للإنسان وحضارته، ومن المهم أن أفرد مقالا مستقلا عن هذا النوع من المخاطر الرقمية ونشر الوعي فيما يتعلق بها.
د. معمر بن علي التوبي أكاديمي وباحث عُماني
المصدر: لجريدة عمان
كلمات دلالية: نماذج الذکاء الاصطناعی هذه التقنیات هذه المخاطر القدرة على مثل هذه
إقرأ أيضاً:
عندما يقتحم الذكاء الاصطناعي أسرارنا وخصوصياتنا!
مؤيد الزعبي *
الكثيرُ منا يستخدم يوميًّا أحد أنظمة الذكاء الاصطناعي التوليدي؛ مثل: (Chat GPT) و(Gemini) وغيرهما من الأنظمة المشابهة؛ وبالطبع تأخذ هذه الاستخدامات في الكثير من الأحيان طابعًا شخصيًّا مُحمَّلًا بالخصوصية والأسرار والمعلومات الحساسة، فأحدنا يذهب ليطلب منها أن تصوغ له خطابًا رسميًّا، وآخر يطلب كتابة بريد إلكتروني احترافي، والبعض يسألها عن أمور شخصية وكيف يتعامل في بعض المواقف العائلية أو حتى العملية.
وتخيَّل عزيزي القارئ، كم هي الأسرار التي قد تحملها مثل هذه المحادثات، وهنا يكمُن التساؤل المهم: هل أسرارنا وخصوصياتُنا في مأمن؟ أم يُمكن للذكاء الاصطناعي أن يعود علينا يومًا ويستغل مثل هذه الأسرار؟ وحتى إن لم يستغلها، فهل مُحادثاتنا في مأمن من أيدي العابثين من قراصنة وهاكرز؟.. سوف أحاول أن أتناقش معك عزيزي القارئ حول كل هذا من خلال هذا الطرح.
قبل أيام خُضتُ عدة تجارب مع أحد أنظمة الذكاء الاصطناعي التوليدي؛ فبعد سلسلة من الطلبات حول تصحيح صياغة بريد إلكتروني أو صياغة طلب خاص بعملي، وجدتُ أن النظام بدأ يَعرفني ويعرف وظيفتي وما هي طبيعة عملي، وبدأ يجيب عن تساؤلاتي من منظور أنني صحفي يعمل في جهة إعلامية هو يعرفها ويصيغ تصحيحاته واقتراحاته وحواراته بناءً على ما لديه من معلومات شخصية تخصني، حتى إنني تفاجأت بأنني قد قُمت بطلب مُعيَّن قبل أشهر ولا يزال هو يبني إجاباته معي بناءً على ذلك الطلب، وبالنسبة لي لا يشكل هذا الأمر أيَّ تخوف بالنسبة لي، فمثل هذه الأشياء لا تشكل سرًّا ولا معلومة فيها مَضرَّة لي لا من قريب ولا من بعيد، ولكن لنفترض عزيزي القارئ أنَّ شخصًا يطلب من الذكاء الاصطناعي كلَّ يوم طلبًا؛ فمرة طلب في مكان عمله، ومرة في بيته، ومرة يطلب منه حلًّا لمشكلة تواجهه أو يُحاوره حول فكرة تخطر في باله، وربما يذهب بعيدًا فيبدأ بالتحدُّث معه عن مشاعره أو يبُوح له بأحد أسراره، تخيَّل كمية المعلومات التي بات يعرفها عنك هذا النظام التوليدي، ومثل هذه المعلومات قد يتم استخدامها لاحقًا لملاحقتك من قبل المعلنين وأصحاب الملاحقات الإلكترونية وهم كُثر من شركات تَبيع منتجات وخدمات، وها هي اليوم تَعْرف أدق التفاصيل حتى عن مكنوناتك وأسرارك وخصوصياتك.
تخيَّل أن يكون الشخصُ الذي يستخدم هذه الأنظمة رجلًا يعمل في وظيفة حساسة، أو يُرسل إيميلات فيها أسرار عمله أو شركته، أو فيها أسرار لاختراعات أو حلول تقنية أو علمية أو حتى طبية، كم هي الأسرار التي سيكون بمقدور الذكاء الاصطناعي أن يصل لها دون أي مجهود، فنحن من ننسخ ونلصق ونطلب منه التحسين والتجميل وإعادة الصياغة، وتخيَّل كم صحفي أو مُدوِّن أو كاتب يبدأ بتوليد نصوصه عبر هذه الأنظمة وهو يضع نتاج أفكاره ونتاج أعماله بين يدي الذكاء الاصطناعي طوعًا، فمن يضمن لنا أننا في مأمن؟!!!
الشكلُ الآخر الذي أجد فيه خطورة: أنَّ محادثاتنا الشخصية والخاصة مع الذكاء الاصطناعي التوليدي سيتم استخدامها في تدريب الذكاء الاصطناعي نفسه على طريقة تفاعله وإجاباته ومنطقه، ولا أستبعد أن يأتي الوقت الذي لن نميز فيه ما إذا كنا نحادث نظامًا توليديًّا يعمل بالذكاء الاصطناعي، من أن نجده أقرب للإنسان أو شخص يُشبهنا نحن شخصيًّا، وهنا أكرِّرها من الذي سيضمن لنا سلامة بياناتنا وأسرارنا ونحن في عالم مستعد لأن يستغل كل حرف نكتبه على أجهزتنا ليلاحقنا ويروِّج لنا منتجات المعلنين، أو يستغل هذه الداتا البشرية ليطوِّر بها نظامًا أكبر وأشمل وأعقد؟!! في الحقيقة لا أحد يضمن لنا ذلك.
نحن نتحدث اليوم عن محادثات بسيطة بات الذكاء الاصطناعي من خلالها يخترق خصوصياتنا وأسرارنا، فما هي الحال ونحن نستخدم أنظمة أكثر شمولية وأكثر تعقيدًا وترابطًا (؟!) بالطبع سيخترق الذكاء الاصطناعي كلَّ ما فينا من مشاعر وأسرار وخبرات ومعلومات حساسة، وما نقوم به اليوم لن يتوقف، فإذا كانت مُحرِّكات البحث تستغل كل ما نكتبه ونبحث عنه فها هي اليوم أنظمة الذكاء الاصطناعي التوليدي تعرف عنا الكثير، ليس فقط ما نبحث عنه، ها نحن قد أدخلناها بيوتنا ومكاتبنا ومعاملنا ومدارسنا ومستشفياتنا، حتى إننا أدخلناها قلوبنا وعقولنا، وأنا أعلم عزيزي القارئ أنَّ هذا الأمر لن يتوقف، ولكن أضع بين يديك هذا الطرح لنتفكَّر في حجم الاختراق الذي بات الذكاء الاصطناعي يخترقنا به.
* المنسق الإعلامي ومنتج الأخبار لصالح مجموعة الصين للإعلام - الشرق الأوسط
رابط مختصر