آن ماري سلوترـ أفني باتيل طومسون

تركز المناقشة العامة الدائرة حول مستقبل الذكاء الاصطناعي على تخوفين رئيسيين غالبا: التأثير الأوسع الذي تخلفه التكنولوجيا على البشرية، وتأثيراتها المباشرة على الأفراد. في أغلب الأحيان، يرغب الناس في التعرف على الكيفية التي سيغير بها التشغيل الآلي (الأتمتة) العمل. فما هي الصناعات التي ستظل موجودة غدا؟ وأي الوظائف أصبحت عُـرضة للخطر اليوم؟

لكن المناقشة أغفلت ركيزة مهمة من ركائز المجتمع: الأسرة.

إذا كان لنا أن نبني أنظمة ذكاء اصطناعي تساعد في حل المشكلات الاجتماعية والاقتصادية الملحة، بدلا من التسبب في تفاقمها، فيتعين علينا أن نتذكر أن الأسر تشكل 89% من البيوت الأمريكية، وينبغي لنا أن نضع في الحسبان الضغوط المعقدة التي تواجهها الأسر عندما نقرر كيفية تطبيق هذه التكنولوجيا.

الواقع أن الأسر في الولايات المتحدة تحتاج بشدة إلى الدعم. فوفقا للمنتدى الاقتصادي العالمي، أصبح اقتصاد الرعاية في أمريكا والذي تبلغ قيمته 6 تريليونات دولار عُـرضة لخطر الانهيار، بسبب نقص العمالة، والأعباء الإدارية، ونموذج السوق الـمُـعَـطَّـل الذي يجعل أغلب الأسر عاجزة عن تحمل تكاليف الرعاية الكاملة، كما يحصل العمال على أجور زهيدة بشكل مزمن.

علاوة على ذلك، تغير منظور الأبوة: فقد أصبح مزيد من الآباء يعملون، واشتد الطلب على وقتهم، من رعاية الأطفال والآباء المسنين إلى التعامل مع الحمل الزائد من المعلومات وتنسيق المهام المنزلية.

إن استخدام الذكاء الاصطناعي كمساعد للأسر من الممكن أن يوفر الوقت، والصحة العقلية. المساعد المدعوم بالذكاء الاصطناعي قادر على فك رموز رسائل البريد الإلكتروني المدرسية وجداول الأنشطة أو المساعدة في الإعداد لرحلة عائلية قادمة عن طريق إعداد قائمة التعبئة وتأكيد خطط السفر.

من خلال تعزيزها بالذكاء الاصطناعي، يصبح بوسع روبوتات الرعاية التي يجري تطويرها في اليابان وأماكن أخرى دعم خصوصية واستقلالية أولئك الذين يتلقون الرعاية وتمكين مقدمي الرعاية من البشر من قضاء مزيد من الوقت في ترسيخ الروابط العاطفية وتوفير الرفقة. يتطلب تصميم الذكاء الاصطناعي للمساعدة في حل مشكلات إنسانية معقدة مثل التربية الوالدية أو رعاية المسنين تعريف دوره وتحديده بدقة.

في عالم اليوم، يتألف تقديم الرعاية، وخاصة التربية الوالدية، من عدد كبير للغاية من المهام العادية البسيطة التي تستهلك الوقت المتاح لأنشطة أكثر أهمية. هذا يعني أن الذكاء الاصطناعي من الممكن أن يعمل عمل «التكنولوجيا المضادة للتكنولوجيا» - درع تقينا من ثقافة البريد الإلكتروني والرسائل النصية والمهام التي لا تنتهي. إذ سيتحمل المساعد المثالي القائم على الذكاء الاصطناعي الجزء الأكبر من هذه الأعمال التافهة، مما يسمح للأسر بقضاء مزيد من الوقت معا. لكن المهام البشرية المعقدة تكون عادة مشكلات مثل «جبل الجليد»، حيث تكون غالبية الأعمال مختفية تحت السطح. إن مساعد الذكاء الاصطناعي الذي يتعامل مع المهام المرئية فقط لن يفعل الكثير لتخفيف العبء عن مقدم الرعاية، لأن إكمال هذه المهام يتطلب فهما كاملا للعمل الواجب.

على سبيل المثال، بوسعنا أن نبتكر تكنولوجيا لإنشاء إدخالات التقويم من بريد إلكتروني يحتوي على جدول زمني لفريق كرة قدم للشباب (ثم حذفها وإعادة إنشائها عندما تتغير حتما بعد أسبوع). ولكن لتحرير أحد الوالدين من العبء غير المرئي المتمثل في إدارة الموسم الرياضي لطفل، يحتاج الذكاء الاصطناعي إلى فهم المهام الأخرى العديدة الكامنة تحت السطح: البحث عن مواقع الملاعب، والانتباه إلى ألوان القمصان، والاشتراك في فروض الوجبات الخفيفة، وإنشاء رسائل التذكير المناسبة. وإذا طرأ أي تعارض في جدول أحد الوالدين، يتعين على مساعد الذكاء الاصطناعي تنبيه الوالد الآخر، وإذا كان التعارض في جداول كلا الوالدين، يتعين على المساعد جدولة وقت للمحادثة بينهما، اعترافا بمدى أهمية حضور أحد الوالدين أو أحد أفراد الأسرة مباراة الطفل.

لا يكمن التحدي في التوصل إلى إجابة، بل في التوصل إلى الإجابة الصحيحة في ظل السياق المعقد، والذي يكون قسم كبير منه مستقرا في أدمغة الآباء. من خلال الاستكشاف والمعالجة الدقيقة، يصبح من الممكن تحويل هذه المعرفة يوما ما إلى بيانات لتدريب نماذج الذكاء الاصطناعي الأسرية المتخصصة.

على النقيض من ذلك، يجري تدريب نماذج اللغة الضخمة مثل ChatGPT-4، و Gemini، و Claude في عموم الأمر على بيانات عامة مُـجَـمَّـعة من الإنترنت. لا شك أن تطوير مساعد يعمل بالذكاء الاصطناعي لمعاونة مقدمي الرعاية من شأنه أن يختبر الحدود الفنية لهذه التكنولوجيا ويحدد مدى قدرتها على مراعاة الاعتبارات الأخلاقية والقيم المجتمعية.

وفي ورقة بحثية مرتقبة بعنوان «الأطر الحسابية للرعاية وأطر تقديم الرعاية للحوسبة»، يستكشف عالم النفس التجريبي بريان كريستيان بعضا من أكبر التحديات التي تواجه من يحاولون ترجمة الرعاية إلى «وظائف المكافأة» الحسابية اللازمة للتعلم الآلي. من الأمثلة على ذلك عندما يتدخل مقدم الرعاية على أساس ما يعتقد أنه يصب في مصلحة الطفل، حتى لو لم يوافق ذلك الطفل. ويخلص كريستيان إلى أن «عملية محاولة إضفاء الطابع الرسمي على الجوانب الأساسية للتجربة الإنسانية تكشف لنا حقيقة الرعاية - وربما حتى إلى أي مدى لم نفهمها وما يحيط بها بعد». مثلها كمثل العمل المكتبي، يتألف قسم كبير من الحياة الأسرية من مهام متكررة وعادية يمكن إكمالها بواسطة الذكاء الاصطناعي. ولكن على عكس العمل المكتبي، يتطلب تدريب نموذج الذكاء الاصطناعي هذا جمع ونقل الممارسات المتخصصة في عالم مؤتلف بعناية. بيد أن الأمر يستحق كل هذا الجهد: ذلك أن مساعد الذكاء الاصطناعي الذي يستعين به مقدمو الرعاية من شأنه أن يوفر الوقت والطاقة للتعاطف والإبداع والتواصل. الأمر الأكثر أهمية هو أن ممارسة تحديد أي أقسام عملية تقديم الرعاية يمكن أن يؤديها الذكاء الاصطناعي من المرجح أن تعلمنا الكثير عن الوظائف والأنشطة الأسرية التي يجب أن تظل بشرية بشكل كامل وحصري.

المصدر: لجريدة عمان

كلمات دلالية: الذکاء الاصطناعی

إقرأ أيضاً:

اختراق أنظمة OpenAI.. هاكر يسرب معلومات حساسة حول تقنيات الذكاء الاصطناعي

تابع أحدث الأخبار عبر تطبيق

في تقرير حديث نشرته صحيفة نيويورك تايمز، تم الكشف عن تعرض شركة OpenAI لهجوم اختراق في مطلع عام 2023، حيث تمكن المخترق من الوصول إلى أنظمة المراسلة الداخلية وسرقة معلومات حساسة حول تقنيات الذكاء الاصطناعي الخاصة بالشركة. وأكدت الصحيفة أن OpenAI لم تقم بإبلاغ عملائها أو الجهات المعنية بهذا الاختراق، مكتفية بإعلام موظفيها فقط.

تفاصيل الاختراق

استطاع الهاكر الوصول إلى محادثات دارت في منتدى إلكتروني خاص بموظفي OpenAI، حيث كانت تتم مناقشات حول أحدث التقنيات التي تطورها الشركة. وعلى الرغم من ذلك، لم يتمكن المخترق من اختراق الأنظمة التي تستضيف نماذج GPT وتدربها، وهي الأنظمة الأساسية التي تشتهر بها OpenAI.

تحذيرات سابقة ومخاوف أمنية

نقلت الصحيفة عن مصدرين داخل الشركة أن بعض موظفي OpenAI كانوا قد حذروا سابقًا من إمكانية استغلال دول مثل الصين لمثل هذه الهجمات لسرقة تقنيات الذكاء الاصطناعي، مما قد يشكل تهديدًا للأمن القومي الأمريكي.

ردود فعل داخلية

أثار الحادث تساؤلات بين الموظفين حول جدية الشركة في التعامل مع مسألة الأمن الرقمي. وذكرت تقارير أخرى وجود انقسامات داخل الشركة بشأن المخاطر المحتملة للذكاء الاصطناعي. وفي هذا السياق، كتب ليوبولد آشينبرينر، مدير البرامج التقنية السابق في OpenAI، مذكرة إلى مجلس إدارة الشركة يتهمهم فيها بعدم بذل جهد كافٍ لمنع سرقة التقنيات السرية من "قوى أجنبية معادية".

تداعيات وتسريبات

تم فصل آشينبرينر لاحقًا بدعوى تسريب معلومات سرية، إلا أنه يزعم أن هذا الفصل كان بدافع سياسي. وتأتي هذه التسريبات لتضيف إلى المشاكل التي تواجه شركة OpenAI مؤخرًا، إذ واجه الرئيس التنفيذي للشركة، سام ألتمان، صراعًا مع مجلس الإدارة السابق، حيث أقاله المجلس ثم عاد إلى منصبه لاحقًا.

استقالات وخلافات

شهدت الشركة حديثًا استقالة العديد من الباحثين في مجال سلامة الذكاء الاصطناعي بسبب خلافات حول "التوافق الفائق" (Superalignment)، وهو مفهوم يهدف إلى إيجاد طرق لسيطرة البشر على الذكاء الاصطناعي الفائق.

 

تواجه OpenAI الآن تحديات كبيرة تتعلق بالأمن الرقمي واحتواء التسريبات، بالإضافة إلى ضرورة تعزيز الثقة بين الموظفين والإدارة. ومع استمرار التطور في مجال الذكاء الاصطناعي، تظل الشركة تحت ضغط كبير لضمان حماية تقنياتها والحفاظ على سمعتها في السوق العالمي.

 

مقالات مشابهة

  • آبل تتجه لدمج جيمينى لنظام التشغيل iOS 18
  • «الذكاء الاصطناعي» يدخل عصر «الروبوتات القاتلة»
  • الصين تتصدر براءات الإختراع في مجال الذكاء الاصطناعي التوليدي عالميًا
  • الذكاء الاصطناعي والأدب والترجمة في مناقشات صالون "مصر المحروسة" بروض الفرج
  • بعد تسلل «هاكرز» لـ شركة OpenAI.. هل تعرض شات جي بي تي للاختراق؟
  • اختراق أنظمة OpenAI.. هاكر يسرب معلومات حساسة حول تقنيات الذكاء الاصطناعي
  • صناعة الأوهام.. كيف تستغل الدول الذكاء الاصطناعي في أجندتها الإعلامية؟
  • قراصنة يخترقون الذكاء الاصطناعي
  • التطور التكنولوجى يُحسن حياة المرأة ويحقق التوازن بين حياتها المهنية والأسرية
  • الذكاء الاصطناعي يُهدد النساء ويعرضها لخطر الابتزاز الإلكتروني