في السياق الجيوسياسي المتوتّر الذي يعرفه العالم حاليا، تحتدم الحرب التكنولوجية. و«أولئك الذين سوف يتحكّمون في الذكاء الاصطناعي سيصبحون أسياد المستقبل». هكذا أعلن الرئيس الروسي فلاديمير بوتين عام 2017 أمام جمهور من الطلاب في مدينة ياروسلافل. كما يعدّ السباق من أجل ابتكار أنظمة ذكاء اصطناعي ذات كفاءة متزايدة أيضا محرّكا لتسريع القدرات واكتساب القوة في مجال المعلومات.

لقد برزت التحدّيات المتمثلة في تزايد الأخبار الزائفة مع نشر أنظمة الذكاء الاصطناعي التوليدي مثل Dall-E، و StableDiffusion للصور ومقاطع الفيديو، و«شات جي بي تي» الذي يستخدم النماذج اللغوية لشركة OpenAI. من المؤكد أن روبوت المحادثة «شات جي بي تي» قادر على إنتاج مقالات وملخصات مفيدة، غير أنه يظل من المستحيل معرفة مصادرها، ولا قياس تأثير اللغة الإنجليزية السائدة في هذه النماذج. ولذلك فقد أثار «شات جي بي تي» الشغف والمخاوف بين عامة الناس، مع طرح أسئلة من قبيل: «هل يجب حظره في المدارس؟»، «هل سيأخذ وظيفتي؟» أو حتى «هل بمقدوري أن أستغني عنه؟».

ينوي الاتحاد الأوروبي بالنسبة إلى هذه النماذج الضخمة، اقتراح مسؤولية مشتركة بين الشركات المصنّعة لهذه النماذج التي تُطرح في السوق أو تُنشر بشكل مفتوح، وبين أولئك الذين يعملون على نشرها أو استخدامها. وهذا يخالف فكرة عمالقة التكنولوجيا الرقمية الأمريكية، الذين يريدون بدلا من ذلك إلقاء المسؤولية كاملة على عاتق المستخدمين. إن خبراء التكنولوجيا في وادي السليكون من أمثال إيلون ماسك، وسام ألتمان (Sam Altman) المؤسس المشارك لشركة OpenAI، وآخرون، هم أيضا أصحاب إيديولوجيا ويملكون رؤية سياسية عالمية. تدعو الولايات المتحدة، مثلها في ذلك مثل الصين، إلى وضع معايير في هذا السباق نحو السيطرة على المشهد التكنولوجي، مع تحفيز الإبداع الضامن للقوة في الوقت نفسه.

ثلاثة مستويات من المخاطر

لدى الاتحاد الأوروبي الكثير ليكسبه من خلال وضع إطار قانوني لاستخدام الذكاء الاصطناعي، يكون معزّزا للثقة ويحترم حقوق الإنسان وسيادة القانون. يركّز قانون الذكاء الاصطناعي على تحديد التطبيقات التي تعدّ بمثابة خطر والتي تحتاج بالتالي إلى التّقنين.

ثمة ثلاثة مستويات مختلفة من المخاطر (غير مقبول، مرتفع، متوسط) تستدعي إجراءات مختلفة. تُحظر التطبيقات التي تنطوي على مخاطر غير مقبولة، مثل تلك التي تستخدم «التقنيات اللاشعورية» المتلاعبة بالعقول والتي تستغل مجموعات ضعيفة معينة، أو تلك التي تستخدمها السلطات العمومية لأغراض التقييم الاجتماعي، كما هو الحال في الصين. هذه التطبيقات عالية المخاطر سوف يتم تقنينها بشكل كبير. ومن المرغوب فيه أن يتم التعامل مع كل حالة على حِدة من أجل الإبقاء على التطبيقات المفيدة. فعلى سبيل المثال، تشكّل تقنية التعرّف على الوجوه خطرا إذا تم استخدامها بغرض مراقبة السكان، لكن قد تبيّن أنها أداة مفيدة جدا لمتابعة الأعراض لدى المرضى. يقترح قانون الذكاء الاصطناعي إذن توفير الحماية للأطراف الضعيفة. فهو يفرض مثلا التزامات على بعض أنظمة الذكاء الاصطناعي التي تتفاعل مع البشر بسبب المخاطر المحدّدة التي تنطوي عليها.

من الممكن أيضا أن يكون لمقترح القانون حول الذكاء الاصطناعي آثار هائلة في مجال البحث. فعلى سبيل المثال، في مجالي البحثي الذي يتعلّق بالمعلوميّات العاطفية، فإن هذا المقترح يضع تعريفا لأنظمة التعرّف على المشاعر، على أنها «نظام ذكاء اصطناعي يهدف إلى تحديد أو استنتاج العواطف أو الأفكار أو الحالات الذهنية أو نوايا الأفراد أو المجموعات استنادا إلى بياناتهم البيومترية». يشرح مُقترح القانون المتعلق بالذكاء الاصطناعي نقص الموثوقية والخصوصية والتعميم المحدود لأنظمة التعرف على المشاعر الحالية. ويؤكد على كون التعبيرات عن المشاعر وطرائق إدراكها يمكن أن تختلف باختلاف الثقافات والسياقات.

المفارقة القارية

وفي مجال المعلوميّات العاطفية، يحدّد القانون أيضا فئاتٍ من المخاطر غير المقبولة، مثل استخدام تقنية التعرّف على المشاعر في مكان العمل. يكمن الهدف الرئيسي في حظر التطبيقات الخطيرة، لكن الأمر لا يتعلق بحظر الأبحاث في مجال المعلوميات العاطفية، والتي يمكن أن تقودنا إلى ابتكارات إيجابية، وخاصة في مجال الصحة.

ومع ذلك، تظل هناك مفارقة كبرى قائمة: إذا كان الاتحاد الأوروبي يريد الدفاع عن مواطنيه، فإن هؤلاء حاليا يستخدمون على نحوٍ شبه حصري خدمات قادمة من الولايات المتحدة؛ ليس لدينا نظراء لـجوجل أو ميتا أو أمازون في القارة العجوز. وفي هذا السياق، يأتي قانون الذكاء الاصطناعي مع طموح متمثلٍ في اقتراح قانون يضمن أيضا الدفاع عن الصناعة الأوروبية، من أجل إنشاء «إطار تنظيمي أوروبي متين من أجل ذكاء اصطناعي جديرٍ بالثقة، والذي سيضمن أيضا شروط المنافسة العادلة».

إن قانون الذكاء الاصطناعي، الذي تقدّمت به المفوضية الأوروبية في الحادي والعشرين من أبريل 2021، وعدّله المجلس الأوروبي في نوفمبر 2022، ثم تم تعديله مرة أخرى والتصويت عليه في البرلمان الأوروبي في يونيو 2023، يثير الكثير من ردود الفعل. وسوف يتم اعتماد النص من قبل المؤسسات الأوروبية الثلاث عقب الاجتماعات الثلاثية التي ستنعقد في الأشهر المقبلة. سنحتاج إلى أن نتابع باهتمام هذا النقاش التشريعي، الذي تولّد عن تفكير مكثّف أصبح ملحّا بسبب تسارع وتيرة تطوير أنظمة الذكاء الاصطناعي.

وبعيدا عن أوروبا، فسيكون من المنطقي تماما وضع إطار تنظيمي عالمي حول الذكاء الاصطناعي يقوم على ثلاث ركائز -حواجز الحماية، والحوكمة، وتوجيه الإبداع- كما اقترحت رئيسة المفوضية الأوروبية أورسولا فون دير لاين. ثمة توتّر واضح بين تكلفة حماية المواطنين وبين الإبداع والاستثمار في أوروبا. فهل سنتمكّن من إيجاد التوازن بينهما؟

المصدر: لجريدة عمان

كلمات دلالية: الاتحاد الأوروبی فی مجال من أجل

إقرأ أيضاً:

الذكاء الاصطناعي دربنا للسعادة أم للتعاسة؟

 

مؤيد الزعبي

من الأسئلة التي أجد بأنها جوهرية في وقتنا الحالي، هل الذكاء الاصطناعي دربنا للسعادة أم للتعاسة؟ وأنا اسأل هذا التساؤل عزيزي القارئ بعد تجربتنا الإنسانية مع التكنولوجيا المتمثلة بوسائل التواصل الاجتماعي التي جعلتنا أتعس للأسف رغم أنها وفرت لنا حاجة إنسانية مهمة متمثلة بالتواصل، إلّا أنها جعلت البشر أكثر تعاسة.

أطرح هذا التساؤل في وقت بتنا ندرك أنه بحلول عام 2030 من المتوقع أن يكون مرض الاكتئاب هو المرض الأول من حيث أعداد المصابين عالميًا، واليوم مع دخولنا عصر الذكاء الاصطناعي فهل هذه التكنولوجيا هي دربنا للسعادة أم للتعاسة؟، قبل أن تشرع في قراءة هذا الطرح أطلب منك عزيزي القارئ أن تأخذ نفسًا عميقًا وتجيب بنفسك على تساؤلي ها هنا، هل أجبت نفسك إذن حان الوقت لنشرع معًا في إكمال هذا الطرح.

ومنذ قدم البشرية ونحن نبحث كبشر عن السعادة ومصادرها وتعريفاتها، ورغم ما وصلنا له من تقدم في فهم الإنسان البشري، إلا أنه ما زال محيرًا أن نفهم السعادة وما هي دروبها، فهناك شخص يجدها في صحته الجسدية وشخص آخر يجدها في صحته النفسية، وشخص يجدها في إنجازاته ومخزونه العلمي والعقلي وآخر يجدها في مخزون جيبته وأرصدة حساباته البنكية، وشخص يجدها بالرضا وقبول القدر وآخر يجدها في تحدي الواقع وتغييره، إشكالية عميقة لا يمكن فهمها أو تحديدها بشكل دقيق. ولهذا أجد في محاولتنا لاستنجاد الذكاء الاصطناعي ليبحث لنا عن معنى السعادة في كل ما كُتب في تاريخنا الإنساني ليجد لنا تعريفًا محددًا، وهذه طريقة أجدها مناسبة جدًا لنجد تعريفًا محددًا للسعادة نقارنه بتعريف أرسطو الذي كان يجد السعادة بأنها الهدف الأسمى للحياة.

هناك اتجاه آخر قد يخدمنا لنفهم السعادة وندركها أنه الآن ومع انتشار الساعات الذكية التي باتت تقيس لك نبضات قلبك ونسبة الاوكسجين في الدم ونسبة نشاطك وتقيس تحركاتك وخطواتك ولحظات سكونك وحتى نومك أجد بأننا يمكن استخدامها لتقيس لنا درجة سعادتنا أو تعاستنا بناء على معلومات دقيقة حول أجسامنا والتي هي انعكاس لأحاسيسنا أو حتى لحالتنا النفسية، وقد قام خبراء من شركة هيتاشي بتطوير تجربة مماثلة تقوم بقياس حركة الإنسان ومدى نشاطه وسرعة تحركاته ولحظات توقفه وبناء على تحليلات الذكاء الاصطناعي تقوم بقياس مدى سعادتك أو تعاستك في هذه اللحظة، صحيح أن الشركات المصنعة للساعات باتت تختبر مثل هذه المميزات في أن تقيس لك درجة توترك بناء على قراءاتك الحيوية إلا أن التجربة تحتاج سنوات من التطوير لنصل لطريقة مثلى تكشف لنا حقيقة فيما إذا كنا سعداء أم تعساء.

 

الأمر الأهم الذي يوعز له الكثيرون بأنه سيعالج الكثير من مشاكلنا النفسية يتمثل بتطبيقات الذكاء الاصطناعي التوليدي والتي ستكون حلًا لكل فاقدي التواصل وستساعدهم في التحدث والتخاطر، ولكن ما قولنا أن سابق تجربتنا كبشر مع وسائل وجدت لنتواصل وأقصد وسائل التواصل الاجتماعي بأنها أصبحت سببًا لتعاستنا فكيف سيكون حالنا ونحن نخاطب نماذ ذكاء اصطناعي توليدي وليس بشر حقيقيون، وكيف سيكون حالنا لو انعزلنا عن محيطنا وانخرطنا لنتحدث مع روبوتات الدردشة أو الروبوتات التي ستتمثل على هيئة بشر في قادم الأيام، كيف سيكون حالنا عندما نصبح نُعبر عن أحاسيسنا ومشاعرنا لنماذج إلكترونية نجدها أقرب لنا من بشر مثلنا مثلهم، هل سنصل للسعادة؟، هذا هو جوهر التساؤل الحقيقي عزيزي القارئ والذي حتى الآن لا يستطيع أي شخص أن يجيبك عليه لأن تجربتنا مازالت ناقصة فلا نحن طورنا نماذج ذكاء اصطناعي بديلة عن البشر في التواصل ولا نحن اختبرناها واختبرنا طريقة تعاطيها مع الأمور.

تخيل أن يدفعنا الذكاء الاصطناعي من خلال برمجته لأن ننتحر مثلًا، ربما ليس مقصودًا أن يُبرمج ليجعلك تنتحر ولكن لكي يختصر عليك الألم، فيكون حله أن تُقدم على هذا الأمر الشنيع، وفي المقابل ربما تكون هذه الأنظمة هي الكاشفة والمكتشفة للكثير من مشاكلنا النفسية والمتنبئة بها قبل أن تصبح مشكلة أكبر وتحاول مساعدتنا لتخطيها أو تجاوزها أو حتى علاجها؛ إذن الصورة ليست كاملة حتى الآن والأمر لا يعتمد على الذكاء الاصطناعي لوحده بل يعتمد على تعامنا معه نحن البشر.

الخلاصة- عزيزي القارئ- أننا لو انخرطنا بالذكاء الاصطناعي وتجهلنا تعريف أهم من السعادة وهو تعريف الإنسان نفسه لنفسه فحينها سنخلق لنا مشكلة أكبر بأن نفقد بوصلتنا مرة أخرى فبدلًا من أن نصنع نظامًا يمكنه أن يجعل حياتنا أفضل وأسهل وأسرع فسنحوله لأداة تجلب لنا السعادة، ولكن إذا أدركنا أن كل ما نصنعه ونطوره يجب أن يخضع لمقياس واحد هو أن يجعل حياتنا "كبشر" أكثر سعادة وصحة ويسر وأنا اقولها كبشر لا كحومات ولا كشركات ولا كأنظمة إذا صنعناه للشر فحينها سيكون الذكاء الاصطناعي دربنا لحياة سعيدة فهو سيقدم لنا الحلول والتحليلات ولكن بشرط أن نُحسن استخدامه، إما إذا اسئنا استخدامه فسنعيد التجربة مرة أخرى ونجعل ما صنعناه ليطورنا يصبح أداة تهدمنا.

رابط مختصر

مقالات مشابهة

  • جيل جديد من جيميني يحدث ثورة في الذكاء الاصطناعي
  • هندسة الأوامر التعليمية للذكاء الاصطناعي
  • غرفة الصناعات النسيجية تنظم ندوة عن استخدام الذكاء الاصطناعي في تكنولوجيا الإنتاج
  • طريقة استخدام الذكاء الاصطناعي Gemini في تطبيق الرسائل على هواتف أندرويد: تجربة ذكية لصياغة الرسائل
  • البرلمان الأوروبي يوافق على تأجيل قانون إزالة الغابات لمدة عام
  • الذكاء الاصطناعي دربنا للسعادة أم للتعاسة؟
  • الذكاء الاصطناعي يعزز تفاؤل 77% من الشركات الصغيرة والمتوسطة في الإمارات بالمستقبل دبي (الاتحاد)
  • خبير زراعي: استخدام الذكاء الاصطناعي يساعد في زيادة الإنتاجية الحيوانية
  • الاتحاد للماء والكهرباء تعزز استخدام الذكاء الاصطناعي بقطاع المرافق
  • إطلاق مبادرة لتمكين الموظفين من استخدام الذكاء الاصطناعي في بيئة العمل بشمال الباطنة