يخيم جو من التشاؤم على المناقشات التي تدور حاليا حول الذكاء الاصطناعي التوليدي. فقد وجد استطلاع أجرته مؤسسة YouGov في شهر مارس أن الأميركيين يُـبدون في المقام الأول «الحذر» أو «الانشغال» بالذكاء الاصطناعي، في حين يشعر واحد فقط من كل خمسة «بالأمل» أو «الحماس». ويشعر نحو أربعة من كل عشرة بالقلق أو القلق الشديد من أن الذكاء الاصطناعي قد يقضي على الجنس البشري.

توضح مثل هذه المخاوف ميل الإنسان إلى التركيز على الخسارة التي قد يُـفضي إليها التغير التكنولوجي بدرجة أكبر من تركيزه على ما قد يترتب عليه من مكاسب. التقدم في مجال الذكاء الاصطناعي سوف يسبب الارتباك والتعطيل لكن التدمير الخلّاق يخلق كما يدمر، وهذه العملية مفيدة في نهاية المطاف. ففي كثير من الأحيان، نجد أن المشكلات التي تخلقها أي تكنولوجيا جديدة من الممكن أن يكون فيها أيضا الحل لهذه المشكلات. ونحن نرى هذا بالفعل مع الذكاء الاصطناعي، وسنرى المزيد منه في السنوات القادمة. لنتذكر هنا الذعر الذي انتشر عبر المدارس والجامعات عندما أثبتت شركة OpenAI لأول مرة أن الأداة ChatGPT التي طرحتها قادرة على الكتابة باللغة الطبيعية. أعرب عدد كبير من القائمين على التعليم عن مخاوف مشروعة مفادها أن الذكاء الاصطناعي التوليدي من شأنه أن يساعد الطلاب على الغش في الواجبات والامتحانات، مما يؤثر سلبا على تحصيلهم التعليمي. لكن ذات التكنولوجيا التي تتيح هذا الانتهاك تمكننا أيضا من اكتشافه ومنعه. علاوة على ذلك، من الممكن أن يساعد الذكاء الاصطناعي التوليدي في تحسين جودة التعليم. يواجه نموذج التعليم في الحجرات الدراسية القائم منذ فترة طويلة تحديات خطيرة. إذ تتباين مستويات الذكاء والاستعداد بشكل كبير بين الطلاب داخل أي حجرة دراسية، كما هي الحال مع أنماط التعلم ومستويات المشاركة والانتباه والتركيز. بالإضافة إلى هذا، تتفاوت جودة التدريس من حجرة دراسية إلى أخرى، فالذكاء الاصطناعي قادر على معالجة هذه المشكلات من خلال العمل كمدرس خصوصي لكل طالب، إذا كان طالب بعينه يتعلم الرياضيات بشكل أفضل من خلال ممارسة ألعاب الرياضيات، فإن الذكاء الاصطناعي من الممكن أن يقدم له ألعاب الرياضيات، وإذا كان طالب آخر يتعلم بشكل أفضل من خلال العمل بهدوء على المشكلات وطلب المساعدة عند الحاجة، فبوسع الذكاء الاصطناعي أن يوفر له ذلك. وإذا كان أحد الطلاب متأخرا عن رفاقه بينما تمكن آخر في ذات الحجرة الدراسية من إتقان المادة بالفعل وأصبح يشعر بالملل، فبمقدور مدرسي الذكاء الاصطناعي العمل على معالجة الطالب الأول وتقديم مواد أكثر تحديا للأخير. كما ستعمل أنظمة الذكاء الاصطناعي كمساعدين تدريسيين مخصصين بمواصفات محددة، وهذا من شأنه أن يساعد المعلمين على تطوير خطط الدروس وتشكيل التعليم في حجرة الدراسة، وستكون الفوائد الاقتصادية المترتبة على هذه التطبيقات كبيرة. فعندما يكون لكل طفل مدرس خصوصي يعمل بالذكاء الاصطناعي، ستتحسن النتائج التعليمية في عموم الأمر، وسوف يستفيد الطلاب والتلاميذ الأقل حظا في المدارس الأدنى جودة بشكل غير متناسب في الأرجح. بعد ذلك، سينمو هؤلاء الطلاب الأفضل تعليما ليصبحوا عمالا أكثر إنتاجية وقادرين على الحصول على أجور أعلى، سوف يصبحون أيضا مواطنين أكثر حكمة، وقادرين على جعل آفاق الديمقراطية أكثر إشراقا. ولأن الديمقراطية تشكل أحد أسس الرخاء في الأمد البعيد، فإن هذا أيضا سيخلف تأثيرات اقتصادية صحية ونافعة.

يستبد القلق بكثير من المعلقين إزاء احتمال تسبب الذكاء الاصطناعي في تقويض الديمقراطية من خلال شحن المعلومات الخاطئة والمضللة. وهم يطلبون منا أن نتخيل «تزييفا عميقا» ولنقل على سبيل المثال لإعلان صادر عن الرئيس جو بايدن بأن الولايات المتحدة تعتزم الانسحاب من منظمة حلف شمال الأطلسي (الناتو)، أو ربما معاناة دونالد ترامب من حدث طبي. قد يكون مثل هذا الفيديو الذي ينتشر بسرعة البرق مقنعا إلى الحد الذي يجعله يؤثر على الرأي العام في الفترة التي تسبق انتخابات نوفمبر.

ولكن في حين يشكل التزييف العميق الذي يشمل قادة سياسيين ومرشحين لمناصب عليا تهديدا حقيقيا، فإن المخاوف بشأن المخاطر التي تهدد الديمقراطية والتي يحركها الذكاء الاصطناعي مبالغ في تقديرها. ومرة أخرى، من الممكن توظيف ذات التكنولوجيا التي تسمح بالتزييف العميق والأشكال الأخرى من حرب المعلومات كأداة للتصدي لها أيضا. ومثل هذه الأدوات تُـسـتَـخـدم الآن بالفعل. على سبيل المثال، تعمل SynthID، وهي أداة لوضع العلامات المائية طورتها منصة DeepMind التابعة لشركة Google، على صبغ المحتوى الناتج عن الذكاء الاصطناعي بتوقيع رقمي لا يستطيع البشر إدراكه ولكن يمكن اكتشافه بواسطة البرامج. قبل ثلاثة أشهر، أضافت OpenAI علامات مائية على كل الصور المولدة بواسطة ChatGPT. هل تُـفضي أسلحة الذكاء الاصطناعي إلى خلق عالم أشد خطورة؟ من السابق للأوان أن نجزم بهذا. ولكن كما هي الحال مع الأمثلة المذكورة أعلاه، فإن ذات التكنولوجيا التي يمكنها خلق أسلحة هجومية أفضل يمكن استخدامها أيضا لإنشاء دفاعات أفضل. يعتقد عدد كبير من الخبراء أن الذكاء الاصطناعي من شأنه أن يزيد من درجة الأمان من خلال تخفيف «معضلة المدافع»: التباين الذي لا تحتاج قوى الشر بسببه إلا إلى النجاح مرة واحدة، في حين يجب أن تعمل الأنظمة الدفاعية في كل مرة. في شهر فبراير، ذَكَـرَ رئيس شركة جوجل التنفيذي، ساندر بيتشاي، أن شركته طورت نموذجا لغويا كبيرا مصمما خصيصا للدفاع السيبراني والاستخبارات المرتبطة بالتهديدات. كتب بيتشاي: «بعض أدواتنا أصبحت أفضل بنسبة تصل إلى 70% في اكتشاف النصوص الضارة وأكثر فعالية بنسبة تصل إلى 300% في تحديد الملفات التي تستغل الثغرات ونقاط الضعف». ينطبق ذات المنطق على المخاطر التي تهدد الأمن القومي، ويخشى الاستراتيجيون العسكريون أن تتمكن أسراب من الطائرات المسيرة آليا المنخفضة التكلفة والسهلة الصنع من تهديد حاملات الطائرات الضخمة الباهظة التكلفة، والطائرات المقاتلة، والدبابات ــ جميع الأنظمة التي تعتمد عليها المؤسسة العسكرية الأمريكية ــ إذا جرى التحكم فيها وتنسيقها بواسطة الذكاء الاصطناعي. لكن ذات التكنولوجيا الأساسية تُستخدم بالفعل لإنشاء دفاعات ضد مثل هذه الهجمات. أخيرا، يخشى كثيرون من الخبراء والمواطنين أن يحل الذكاء الاصطناعي محل العمال البشريين، ولكن كما كتبت قبل بضعة أشهر، فإن هذا الخوف المشترك يعكس عقلية المحصلة صِفر التي تسيء فهم كيفية تطور الاقتصادات. فبرغم أن الذكاء الاصطناعي سيتسبب في إزاحة عدد كبير من العمال، فإنه سيخلق أيضا فرصا جديدة. وسوف يبدو العمل في المستقبل مختلفا إلى حد كبير عن العمل اليوم، لأن الذكاء الاصطناعي التوليدي سيخلق سلعا وخدمات جديدة يتطلب إنتاجها عمالة بشرية. حدثت عملية مماثلة مع التقدم التكنولوجي في السابق. وكما أوضح الخبير الاقتصادي في معهد ماساتشوستس للتكنولوجيا ديفيد أوتور وزملاؤه، فإن غالبية وظائف اليوم تقع في مهن ظهرت بعد عام 1940. تركز المناقشة الدائرة حاليا حول الذكاء الاصطناعي التوليدي بشكل غير متناسب على الارتباك الذي قد يطلق له العنان. لكن التقدم التكنولوجي لا يعطل النظام فحسب؛ بل يخلق أيضا. سوف تظل قوى الشر التي تسعى إلى إحداث الفوضى باستخدام تكنولوجيات جديدة حاضرة دائما. ما يدعو إلى التفاؤل أن هناك حافزا ماليا هائلا للتصدي لمثل هذه المخاطر، فضلا عن الحفاظ على الأرباح وتوليدها. عمل الكمبيوتر الشخصي والإنترنت على تمكين اللصوص وتسهيل انتشار المعلومات الكاذبة، وتسببا في إحداث ارتباكات كبرى في سوق العمل، ومع ذلك لن نجد إلا قلة قليلة من الناس اليوم يرغبون في إعادة عقارب الساعة إلى الوراء. ينبغي للتاريخ أن يلهم الثقة ــ وليس الرضا عن الذات ــ في أن الذكاء الاصطناعي التوليدي سوف يقودنا إلى عالم أفضل.

مايكل آر سترين مدير دراسات السياسة الاقتصادية في معهد المشاريع الأمريكية، وهو مؤلف كتاب «الحلم الأمريكي لم يمت: لكن الشعبوية يمكن أن تقتله».

المصدر: لجريدة عمان

كلمات دلالية: الذکاء الاصطناعی التولیدی أن الذکاء الاصطناعی ذات التکنولوجیا من الممکن من خلال

إقرأ أيضاً:

كيف فسر الذكاء الاصطناعي الحادث؟ .. تفاصيل انتحار روبوت من ضغط العمل

 

في حادثة غريبة أثارت القلق، قام روبوت في كوريا الجنوبية مصمم للمساعدة المدنية بعمل غريب وُصف بـ”الانتحار”، عندما ألقى بنفسه من أعلى الدرج، ما أثار جدلاً واسعاً بشأن الأبعاد النفسية لسلوك الذكاء الاصطناعي، وشكوكاً بشأن عيوب برمجية مُحتملة.

التغيير ــ وكالات

الحادث تسبب كذلك في إثارة المزيد من الغموض على مستقبل التفاعل بين البشر والروبوتات.
وكان الروبوت المصمم للمساعدة في المهام الإدارية الروتينية، جزءاً من مبادرة سول لدمج الذكاء الاصطناعي في الخدمات العامة. وقالت السلطات في كوريا الجنوبية، التي أطلقت تحقيقاً بشأن الحادث إن “الروبوت تعطل على ما يبدو، وتحرك عمداً نحو السلم، وألقى بنفسه، ما أدى إلى تدميره”.

وأعلنت بلدية في وسط كوريا الجنوبية فتحها تحقيقا إثر إلقاء روبوت كان يستعان به في إنجاز المهام البلدية، بنفسه من أعلى الدرج.

وأوضح مسؤول في الفريق البلدي لوكالة “فرانس برس” أن هذا الروبوت الذي طورته شركة “بير روبوتيكس” (Bear Robotics) الأميركية في كاليفورنيا، يساعد منذ عام تقريبا سكان مدينة غومي على القيام بمهام إدارية.
فتح تحقيق في الحادث

وأفادت وسائل إعلام محلية بأن مجلس مدينة غومي فتح تحقيقا في الواقعة، بعد العثور على الروبوت خاملا في أسفل الدرج منذ أيام.

وأكدت البلدية أنهم “لا يمزحون بشأن حياة الروبوتات في كوريا الجنوبية وأنهم يأخذون الأمر على محمل الجد”.

وأشارت إلى أن الروبوت يبدو أنه قد ألقى بنفسه من أعلى الدرج.

وصرح المسؤول في الفريق البلدي بأن شهود عيان رأوا الروبوت قبيل سقوطه، يدور حول نفسه كما لو أن خطبا ما قد أصابه، مضيفا أن سبب الحادث قيد التحقيق لتحديد أسباب هذا السقوط.

وأضاف أنه “تم جمع الأجزاء وسيتم تحليلها” من قبل الشركة التي صممتها.

وكان الروبوت يعمل من الساعة 9 صباحا حتى 6 مساء، وكانت لديه بطاقة خدمة عامة خاصة به.

وعلى عكس الروبوتات الأخرى المحصورة في طبقة واحدة كان بإمكانه طلب المصعد والانتقال من طابق إلى آخر.

وعلى الرغم من أن الروبوتات لا تمتلك وعياً أو مشاعر مثل البشر، إلا أن هذه الحادثة تسلط الضوء على مشكلات كبيرة في برمجتها.
يحلل أسباب الحادث

وهناك 3 أسباب مُحتملة قد تكون أدت إلى هذا السلوك غير المعتاد للروبوت، وذلك بحسب ما أفاد به ChatGPT عند سؤاله عن الحادث:

1)قد تكون مستشعرات الروبوت، المسؤولة عن اكتشاف العوائق والتنقل قد فشلت في العمل، ما ترتب عليه سوء في تفسير الروبوت لمحيطه، وبالتالي اتخذ قراراً بتحركات خطرة وعشوائية.

2)قد يكون هناك بعض الأخطاء في خوارزمية الملاحة، مما وجه الروبوت نحو السلم. وهذه العيوب قد تنشأ من أخطاء برمجية أو اختبارات غير كافية خلال مرحلة التطوير.

3)قد تؤدي الأعطال البرمجية، التي غالباً ما تكون غير متوقعة خلال الاختبارات الأولية، إلى سلوك غير منتظم. هذه الأعطال قد تكون ناجمة عن تعارض في أوامر التشغيل أو مشاكل في تدفق الذاكرة.

يذكر أن الروبوتات تستخدم خوارزميات البحث عن المسار للتنقل داخل محيطها، فإذا لم يتم تصميم هذه الخوارزميات بشكل دقيق، فقد يتخذ الروبوت قرارات توصف بـ”الخطيرة” أو”غير آمنة”. وتعتبر آليات الأمان ضرورية لمنع الروبوتات من القيام بسلوكيات “ضارة”، وغيابها أو عدم برمجتها بدقة قد يتسبب في تنفيذ عمل خطير دون الاعتماد على بروتوكولات الطوارئ.
وتعتبر الاختبارات الشاملة في مختلف السيناريوهات ضرورية لضمان موثوقية الروبوت، ولكن حال عدم اكتمال الاختيارات، خاصة في البيئات المعقدة، قد تتحول إلى “أخطاء كارثية”. وقد يؤدي تعقيد عمليات اتخاذ القرار في الذكاء الاصطناعي أحياناً إلى نتائج “غير متوقعة”، ففي حال موقف لا يمكنه معالجته بشكل صحيح، فقد يتخذ إجراءات “غير مناسبة”.

ويمثل الحادث تذكيراً شديد الأهمية لإجراء جميع الاختبارات اللازمة، لضمان الأمان التام أثناء عمل الروبوت، خاصة فيما يخص البيئة المحيطة به.

يذكر أن الصحف المحلية تناولت الحادث وتساءلت إحداها على الصفحة الأولى “لماذا تصرف هذا الموظف الحكومي المجتهد بهذه الطريقة؟”، أو ما إذا كان “العمل شاقا للغاية بالنسبة للروبوت؟”.

وتعرف كوريا الجنوبية بولعها بالروبوتات، إذ تضم أعلى كثافة منها في العالم مع إنسان آلي لكل عشرة موظفين، وفق الاتحاد الدولي للروبوتات.

الوسومالذكاء الاصطناعي انتحار روبورت كوريا الجنوبية

مقالات مشابهة

  • OPPO توفر ميزات الذكاء الاصطناعي التوليدي لنحو 50 مليون مستخدم بنهاية 2024
  • شات «جي بي تي» ليس الوحيد.. 5 بدائل متاحة لمحادثات الذكاء الاصطناعي
  • حلقة إقليمية تستعرض البرامج التنفيذية لإعداد ميثاق العالم الإسلامي للذكاء الاصطناعي
  • وصفها بالجنة على الأرض.. ماذا يعرف الذكاء الاصطناعي عن مدينة العلمين؟
  • كيف فسر الذكاء الاصطناعي الحادث؟ .. تفاصيل انتحار روبوت من ضغط العمل
  • الجبورى: تقاس قدرات الدول وإمكاناتها بمدى تحكمها في تكنولوجيا المعلومات والإستفادة من البيانات الضخمة
  • الذكاء الاصطناعي يتوقع الفائز في مباراة الأهلي وطلائع الجيش.. ماذا قال؟
  • أفضل 5 تطبيقات ذكاء اصطناعي لأجهزة الآيفون والأندرويد
  • في ذكرى ميلاده.. كيف وصف الذكاء الاصطناعي وحيد حامد؟
  • أفضل 5 بدائل شات جي بي تي المتاحة عبر الإنترنت