في الذكاء الاصطناعي.. الإنسان هو نقطة الانطلاق ويجب أن يظل نقطة الوصول
تاريخ النشر: 8th, April 2024 GMT
لم يعد هناك خطاب حول الابتكار أو التكنولوجيا الرقمية أو الذكاء الاصطناعي لا يجعل من «الإنسان» حجر الزاوية والغاية التي تبرّر وجودها. إن الرؤية «المتمركزة حول الإنسان» تجعل من التكنولوجيا أداةً في خدمة الإنسان، وفي إطار هذه الرؤية يندرج تقرير «الذكاء الاصطناعي: طموحنا من أجل فرنسا» الذي سلّمته اللجنة حول الذكاء الاصطناعي إلى رئيس الجمهورية في الثالث عشر من شهر مارس المنصرم، والذي تضمّن فصلا بعنوان «النّزعة الإنسانية: لنجعل الذكاء الاصطناعي في خدمتنا».
بدايةً، إن الشيء أو الخدمة الرقميّين ليسا -ولم يكونا أبدا- مجرّد أدوات بسيطة، فشبكة الإنترنت ومنصّات التواصل الاجتماعي وبرمجيات الذكاء الاصطناعي هي أدوات تقنية اجتماعية وسياسية من تصميم البشر. غير أن التكنولوجيا الرقمية تجعل الحسابات (الرياضية والأخلاقية والمالية...) الكامنة وراءها غير مرئية؛ ولذا، يتعيّن علينا أن «نكشف الغطاء» عن هذه الحسابات لكي يظلّ الإنسان، الذي يشكّل نقطة انطلاق أي جهاز رقمي، نقطة الوصول أيضا.
ثم إن النزعة الإنسانية التي تكمن وراء التقدّم من خلال الذكاء الاصطناعي، وفق ما نفهمه من تقرير اللجنة، هي أقرب إلى النزعة الإنسانية الوجودية، التي تركّز على الفرد وحرية الاختيار والمسؤولية الشخصية، منها إلى النزعة الإنسانية كما يمكن فهمها من خلال اللغة اليومية، والتي تُحيل إلى معاني العطف والإيثار والاهتمام بالصالح العام، من منظور كوني وليس محلي. وتقف النزعة الإنسانية وفقا للرؤية التي تبنّاها التقرير عند حدود الأمة وعند الفرد.
إن ادّعاء الاهتمام بالبشر يعني تحمّل المسؤولية تجاههم. ولذا، فلا بد من تحسيس مصمّمي أنظمة الذكاء الاصطناعي بالعواقب الاجتماعية والمعرفية والأخلاقية وحتى البيئية التي تترتّب على اختياراتهم التقنية. عندما ينهار مبنًى ما، فإن التحقيق في الحادث يشمل مسؤولية المهندس المعماري. لكن عندما تقوم خوارزمية ما بالترويج لمعلومات مضلّلة أو تزيد من مخاطر نفسية واجتماعية عدّة، فماذا عن مسؤولية مهندسيها حينها؟
ولهذا السبب، يجب تدريس أساسيات العلوم والتكنولوجيا والأنثروبولوجيا وعلم الاجتماع لطلاب المسالك التقنية على نطاقٍ أوسع مما هو عليه الواقع اليوم. ومن شأن مشاركة مثل هذه الثقافة أن يجعل أيضا من الممكن التحرّر من الأحلام التقنوية والاستنتاجات المتهافتة التي تجعل من أي موجة من الاستخدامات الجديدة ثورة جديدة.
غير أن هذا التحسيس بالمسؤولية لا يمكن أن يتحقّق من دون زيادة شفافية أنظمة الذكاء الاصطناعي، ممّا يستدعي تعاونا وثيقا بين المنظمات الدولية والحكومات من أجل وضع معايير واضحة ومتاحة حول تطوير واستخدام الذكاء الاصطناعي. إن توظيف رمز الإنسان مسألة عملية للغاية، فهو يجسّد شخصية طوطمية مهيمنة وروحية وكونية، يُسقط عليها الجميع الصورة التي تناسبه. لكن استدعاء هذا الرّمز يتجاهل تنوع البشر الذين يسكنون عالمنا المشترك.
يلعب ما يُدعى بعمّال النّقرات دورا حاسما في تطوير برمجيات الذكاء الاصطناعي التوليدي، حيث أنهم يشتغلون كعمال غير مرئيين يسهرون على تغذية هذه الأنظمة بالبيانات وعلى تحسين أدائها. إنهم بأدائهم للمهام المتكررة، مثل توسيم البيانات وتصنيف الصور وتصحيح النصوص، يساهمون في تدريب خوارزميات الذكاء الاصطناعي وزيادة دقّتها.
إن عملهم، الذي يتقاضون عليه أجورا زهيدة وغير مستقرة في كثير من الأحيان، يعدّ ضروريا من أجل إنشاء قواعد بيانات واسعة ومتنوعة، تسمح لأنظمة الذكاء الاصطناعي بتوليد محتويات موثوقة ومناسبة للمستخدمين. وكلّما زاد اندماج الذكاء الاصطناعي التوليدي في حياتنا اليومية، فإنه لن يصير من المقبول تجاهل هذه الاعتبارات الأخلاقية المتعلقة بظروف العمل والأجور العادلة لهؤلاء العمال.
ثمة أمر آخر يتعلق بالتلوث الكبير الذي يتسبّب فيه الذكاء الاصطناعي التوليدي. لا ريب أن طرق الحساب المعتمدة في هذا المجال هي معقّدة وقابلة للنقاش وبالإمكان تحسينها، كما أنها تختلف بحسب مراحل دورة الحياة، لكن الاتجاهات تبقى معروفة. ولذلك، فعلى الرغم من تقديم الذكاء الاصطناعي كفرصة للكوكب، ومن كون بعض وجهات النظر إيجابية بالنظر إلى النماذج مفتوحة المصدر التي يتم تدريبها أو التعلم من خلال نقل المعارف، ممّا يمكن أن يقلّل بشكل كبير من الأثر الطّاقي للذكاء الاصطناعي، فإن مقرّري اللجنة قد تجاهلوا حقيقة الانفجار الحاصل على مستوى استهلاك المواد الخام والطاقة اللازمين طوال دورة حياة أي جهاز رقمي.
وفضلا عن هذا، لم يُشر ولو بكلمة واحدة إلى الأثر الارتدادي، أو مفارقة جيفونز، على الرغم من كونها معروفة في مجال التكنولوجيا الرقمية. وتشير هذه المفارقة إلى أنه حتى لو انخفض الاستهلاك لكل وحدة، فإن الاستهلاك الإجمالي يرتفع بسبب زيادة مستخدمي هذه التقنيات. والاعتقاد بأن بوسع التكنولوجيا أن تجيب على الدوام على التحدّيات التي تطرحها التكنولوجيا من الناحية البيئية يعني الوقوع فيما ندّدت به اللجنة نفسها في الصفحات الأولى من تقريرها: «التبشيرية التكنولوجية»!
لقد أنتجت اللجنة حول الذكاء الاصطناعي رؤية اقتصادية واستراتيجية طموحة وضرورية ومفيدة. لكننا نحتاج إلى رؤية عالمية على نحوٍ أكبر، تجمع وتحترم عمق وتعقيد هذا التطور التقني الاجتماعي الذي يسمى بالذكاء الاصطناعي.
جون فرونسوا لوكا دكتور في علم الاجتماع ومندوب عام لمؤسسة اليقظة الرقمية (مجموعة تفكير حول قضايا المجتمع الرقمي)
عن صحيفة لوموند الفرنسية
المصدر: لجريدة عمان
كلمات دلالية: الذکاء الاصطناعی
إقرأ أيضاً:
كيف وقع الذكاء الاصطناعي ضحية كذبة أبريل؟
اعتاد الصحفي بن بلاك نشر قصة كاذبة في الأول من أبريل/نيسان من كل عام على موقعه الإخباري المحلي "كومبران لايف" (Cwmbran Life)، ولكنه صُدم عندما اكتشف أن الذكاء الاصطناعي الخاص بغوغل يعتبر الأكاذيب التي كتبها حقيقة ويظهرها في مقدمة نتائج البحث، وفقا لتقرير نشره موقع "بي بي سي".
وبحسب التقرير فإن بلاك البالغ من العمر 48 عاما بدأ بنشر قصصه الزائفة منذ عام 2018، وفي عام 2020 نشر قصة تزعم أن بلدة كومبران في ويلز سُجلت في موسوعة غينيس للأرقام القياسية لامتلاكها أكبر عدد من الدوارات المرورية لكل كيلومتر مربع.
ورغم أنه عدل صياغة المقال في نفس اليوم ولكن عندما بحث عنه في الأول من أبريل/نيسان، صُدم وشعر بالقلق عندما رأى أن معلوماته الكاذبة تستخدمها أداة الذكاء الاصطناعي من غوغل وتقدمها للمستخدمين على أنها حقيقة.
يُذكر أن بلاك قرر كتابة قصص كاذبة في يوم 1 أبريل/نيسان من كل عام بهدف المرح والتسلية، وقال إن زوجته كانت تساعده في إيجاد الأفكار، وفي عام 2020 استلهم فكرة قصته من كون كومبران بلدة جديدة حيث يكون ربط المنازل بالدوارات من أسهل طرق البناء والتنظيم.
وقال بلاك: "اختلقت عددا من الدوارات لكل كيلومتر مربع، ثم أضفت اقتباسا مزيفا من أحد السكان وبعدها ضغطت على زر نشر، ولقد لاقت القصة استحسانا كبيرا وضحك الناس عليها".
إعلانوبعد ظهر ذلك اليوم أوضح بلاك أن القصة كانت عبارة عن "كذبة نيسان" وليست خبرا حقيقيا، ولكن في اليوم التالي شعر بالانزعاج عندما اكتشف أن موقعا إخباريا وطنيا نشر قصته دون إذنه، ورغم محاولاته في إزالة القصة فإنها لا تزال منشورة على الإنترنت.
وقال بلاك: "لقد نسيت أمر هذه القصة التي مر عليها 5 سنوات، ولكن عندما كنت أبحث عن القصص السابقة في يوم كذبة نيسان من هذا العام، تفاجأت بأن أداة غوغل للذكاء الاصطناعي وموقعا إلكترونيا لتعلم القيادة يستخدمان قصتي المزيفة ويظهران أن كومبران لديها أكبر عدد للدوارات المرورية في العالم".
وأضاف "إنه لمن المخيف حقا أن يقوم شخص ما في أسكتلندا بالبحث عن الطرق في ويلز باستخدام غوغل ويجد قصة غير حقيقية" (..) "إنها ليست قصة خطيرة ولكن الخطير حقا هو كيف يمكن للأخبار الكاذبة أن تنتشر بسهولة حتى لو كانت من مصدر إخباري موثوق، ورغم أنني غيرتها في نفس اليوم فإنها لا تزال تظهر على الإنترنت -فالإنترنت يفعل ما يحلو له- إنه أمر جنوني".
ويرى بلاك أن الذكاء الاصطناعي أصبح يشكل تهديدا للناشرين المستقلين، حيث تستخدم العديد من الأدوات محتواهم الأصلي دون إذن وتعيد تقديمه بأشكال مختلفة ليستفيد منها المستخدمون، وهذا قد يؤثر سلبا على زيارات مواقعهم.
وأشار إلى أن المواقع الإخبارية الكبرى أبرمت صفقات وتعاونت مع شركات الذكاء الاصطناعي، وهو أمر غير متاح له كناشر مستقل.
ورغم أن بلاك لم ينشر قصة كاذبة هذا العام بسبب انشغاله، فإن هذه التجربة أثرت عليه وجعلته يقرر عدم نشر أي قصص كاذبة مرة أخرى.