انضمت شركة آبل إلى العديد من شركات التكنولوجيا الأخرى في الموافقة على الالتزام بضمانات الذكاء الاصطناعي الطوعية التي وضعتها إدارة بايدن. 

وقد التزم أولئك الذين تعهدوا بالالتزام بثمانية إرشادات تتعلق بالسلامة والأمن والمسؤولية الاجتماعية، بما في ذلك تحديد المخاطر المجتمعية مثل التحيزات؛ واختبار نقاط الضعف، ووضع علامات مائية على الصور والصوت التي تم إنشاؤها بواسطة الذكاء الاصطناعي؛ ومشاركة تفاصيل الثقة والسلامة مع الحكومة والشركات الأخرى.

كانت أمازون وجوجل ومايكروسوفت وOpenAI من بين الشركات التي تبنت الاتفاقية الأولية، والتي أعلن عنها البيت الأبيض في يوليو الماضي. وستنتهي الاتفاقية الطوعية، التي لا يمكن إنفاذها، بعد أن يقر الكونجرس قوانين لتنظيم الذكاء الاصطناعي.

منذ الإعلان عن المبادئ التوجيهية، كشفت شركة أبل عن مجموعة من الميزات التي تعمل بالذكاء الاصطناعي تحت الاسم الشامل Apple Intelligence. ستعمل الأدوات عبر الأجهزة الرئيسية للشركة ومن المقرر أن تبدأ في طرحها في الأشهر المقبلة. وكجزء من هذا الدفع، تعاونت شركة Apple مع OpenAI لدمج ChatGPT في Apple Intelligence. ومن خلال الانضمام إلى مدونة الممارسات الطوعية، ربما تأمل شركة Apple في درء التدقيق التنظيمي لأدوات الذكاء الاصطناعي الخاصة بها.

على الرغم من أن الرئيس جو بايدن تحدث عن الفوائد المحتملة للذكاء الاصطناعي، إلا أنه حذر من المخاطر التي تشكلها التكنولوجيا أيضًا. وكانت إدارته واضحة في أنها تريد من شركات الذكاء الاصطناعي تطوير تقنياتها بطريقة مسؤولة.

وفي الوقت نفسه، قال البيت الأبيض في بيان إن الوكالات الفيدرالية حققت جميع أهداف الـ 270 يومًا المنصوص عليها في الأمر التنفيذي الشامل المتعلق بالذكاء الاصطناعي الذي أصدره بايدن في أكتوبر الماضي. ويغطي الأمر التنفيذي قضايا مثل تدابير السلامة والأمن، فضلاً عن مخططات الإبلاغ وشفافية البيانات. ويقول البيت الأبيض إن الوكالات قد أوفت بجميع المواعيد النهائية المنصوص عليها حتى الآن.

المصدر: بوابة الوفد

كلمات دلالية: الذکاء الاصطناعی

إقرأ أيضاً:

أكاديميون: ضرورة الالتزام بالمعايير الأخلاقية عند استخدام الذّكاء الاصطناعي

العُمانية: أكّد عدد من الأكاديميين والمختصين أن استخدام الذّكاء الاصطناعي يُسهم بشكل كبير في تحسين جودة وتقدم العملية التعليمية في المرحلة الجامعية مع ضرورة مراجعة مجموعة من معايير الجودة التي تضمن فاعلية وملاءمة احتياجات الطلاب وأعضاء هيئة التدريس لتحقيق أقصى استفادة عند استخدامها في مرحلة التعليم الجامعي.

وقالت الدكتورة فاطمة بنت عبدالله المقبالية عميدة الدراسات العليا بجامعة التقنية والعلوم التطبيقية: إن أبرز المحددات التي يمكن أن يستخدمها الطالب الجامعي لتطبيقات الذّكاء الاصطناعي في العملية التعليمية: تحديد الأهداف التعليمية التي يرغب الطالب في تحقيقها مثل تحسين المهارات الدراسية، أو اكتساب معرفة جديدة، أو تعزيز التعلم الذاتي.

وأضافت أنّ اختيار التخصُّص الأكاديمي الذي يناسب الطالب ويخدمه، مثل التطبيقات الخاصة بالبرمجة بشتى أنواعها ولغاتها، والتفاعلية والتخصيص كالبحث عن تطبيقات تقدم تجربة تعليمية تفاعلية قادرة على تدقيق المحتوى وفقًا لمستوى الطالب واحتياجاته التعليمية من ضمن المحددات التي يمكن للطالب أن يستخدمها.

وبينت أنّ تطبيقات الذّكاء الاصطناعي يمكن أن يستخدمها الطالب للتأكد من جودة المحتوى بهدف تقديم محتوى تعليمي موثوق ومدقق ومتوافق مع المعايير الأكاديمية إضافة إلى التحليل الفوري والتغذية الراجعة التي توفر تحليلاً فوريًا للأداء وتغذية راجعة تساعد في تحسين التعلم وفهم الأخطاء.

وأفادت بأنّ تكلفة التطبيق وسهولة الاستخدام أبرز ما يميزان اختيار التطبيقات، لتجنب إضاعة الوقت مع أهمية التأكد أن التطبيق يحافظ على أمان البيانات الشخصية ولا ينتهك الخصوصية.

وذكرت أنّ بعض التطبيقات توفر الموارد التي تتطلب موارد إضافية ويمكن للطالب اختيارها واستخدامها بطريقة تدعم تعلمه الأكاديمي وتساعده على تحقيق أهدافه التعليمية لتحقيق تقدم ملحوظ في مستوى المعرفة والاطلاع بشكل عام.

وفيما يتعلق بالتحدّيات الأخلاقية في استعمال أدوات الذّكاء الاصطناعي في مجال التعليم، وتأثيره على هوية المتعلم، أوضحت أن الخصوصية وسرية المعلومات تعدان أبرزها، حيث إن جمع البيانات الشخصية للمتعلمين وتحليلها بواسطة أنظمة الذّكاء الاصطناعي قد يؤدي إلى مخاطر تتعلق بالخصوصية وسرية المعلومات يُمكن أن تتعرض للانتهاك أو الاستخدام غير القانوني من قبل مزودي الخدمة سواءً كان بقصد أم بغير قصد، مما يؤدي إلى الشعور بعدم الأمان.

وأشارت إلى أنّ تطبيقات الذّكاء الاصطناعي تعتمد على خوارزميات يمكن أن تكون متحيزة بناءً على البيانات، وتؤدي إلى نتائج ومخرجات غير عادلة أو غير متكافئة للمتعلمين مما قد تؤثر سلبًا على هوية المتعلم وثقته في النظام التعليمي.

وأفادت بأنّ الاعتماد المتزايد على الذّكاء الاصطناعي قد يقلل من التفاعل الإنساني بين المعلمين والطلاب، ويحدُّ من تطوير المهارات الاجتماعية والتواصل، ويعمل على تكون فجوة في التواصل، تضعف الثقة بين المتعلم والطالب أو المنظومة التعليمية، مما يؤدي إلى شعور المتعلمين بالعزلة وفقدان التوجيه الشخصي، ويؤثر على تطورهم العاطفي والاجتماعي.

وذكرت أنّه من الصعب تحديد المسؤولية عندما تتخذ أنظمة الذّكاء الاصطناعي قرارات تؤثر على التعليم بحيث تكون الخوارزميات غير شفافة، ويجعل من الصعب على المتعلمين والمعلمين فهم كيفية اتخاذ القرارات.

وبينت أنّ استخدام الذّكاء الاصطناعي يمكن أن يؤدي إلى تعزيز الأنماط التعليمية القائمة على مقاييس موحدة أو متحيزة، مما يقلل من إبداعية المتعلمين ويملي عليهم طرقًا نمطية للتعلم وقد يشعر المتعلمون بفقدان هويتهم الفردية ويقل اهتمامهم بالاستكشاف والتعلم الإبداعي، مما يؤثر على تطوير هويتهم التعليمية والشخصية.

وأشارت إلى أنّ عدم توفر التكنولوجيا اللازمة أو قلة الوصول إلى أنظمة الذّكاء الاصطناعي للمتعلمين /الطلاب يمكن أن يسهم في زيادة الفجوة بين المتعلمين الذين لديهم موارد تكنولوجية وأولئك الذين يفتقرون إليها ويؤدي إلى تفاوتات في فرص التعلم، مما يؤثر على هوية المتعلم ويعزز الشعور بالظلم الاجتماعي.

ووضحت أن الاعتماد المفرط على الذّكاء الاصطناعي يمكن أن يقلل من قدرة المتعلمين على التفكير النقدي وحل المشكلات بشكل مستقل وقد يؤدي ذلك إلى تراجع في قدرات المتعلم العقلية والإبداعية، مما يؤثر على تطوره الشخصي والمهني.

وأكّدت على أنّ استخدام الذّكاء الاصطناعي في التعليم الجامعي يمكن أن يسهم بشكل كبير في تحسين جودة التعليم وتقدمه، ولتحقيق ذلك، يجب أن يعتمد على مجموعة من معايير الجودة التي تضمن فعاليته وملاءمته لاحتياجات الطلاب وأعضاء هيئة التدريس من ضمنها الدقة والموثوقية واعتمادها على بيانات صحيحة ومحدثة، وتكون قادرة على التكيف مع احتياجات الطلاب المختلفة وأنماط تعلمهم تلبي احتياجات كل طالب وتقديم محتوى تعليمي يتناسب مع مستواه وسرعته في التعلم.

وأضافت أنّ التطبيقات يجب أن تتسم بالتفاعلية وسهولة الاستخدام بحيث يمكن للطلاب والمعلمين التعامل معها دون صعوبة وذات واجهات مستخدم بسيطة وسهلة الفهم، مع أدوات تفاعلية تشجع على المشاركة وتزيد من اندماج الطلاب في عملية التعلم.

وأفادت بأن أنظمة الذّكاء الاصطناعي يجب أن تحتوي على عملية التقييم المستمر وتقديم التغذية الراجعة الفورية التي تساعد في تحسين أداء الطلاب وتوفر تقارير أداء دورية وتوصيات مخصصة لكل طالب بناءً على أدائه الفعلي، فيما تعد الشفافية والمساءلة ضرورة لتكون قرارات الذّكاء الاصطناعي شفافة ويمكن تتبعها، مع وجود آليات للمساءلة في حال حدوث أخطاء أو نتائج غير متوقعة.

ولفتت إلى أنّ أنظمة الذّكاء الاصطناعي يجب أن تكون قادرة على التكامل مع نظم إدارة التعلم والمناهج الدراسية الأخرى بشكل سلس، توافق النظام مع منصات التعليم الإلكتروني الأخرى واستخدام معايير مفتوحة تسهل التكامل، مشيرة إلى أنها يجب أن تراعي احتياجات الطلاب من حيث التنوع وشاملة لكافة فئات الطلاب، وتراعي الفروق الثقافية واللغوية بين الطلاب، وتقدم دعمًا خاصًا للطلاب ذوي الإعاقة.

وبينت أنّ الأنظمة تكون قادرة على التحسين المستمر بناءً على التغذية الراجعة من المستخدمين وتطورات التكنولوجيا وتتضمن تحديثات منتظمة وتحسينات دورية للنظام بناءً على ملاحظات المستخدمين، وتعمل وفقًا للقيم الأخلاقية والتعليمية المتعارف عليها لكل منطقه، بحيث لا تتعارض مع المبادئ الأكاديمية أو الأخلاقية.

من جانبه قال الدكتور معمر بن علي التوبي أكاديمي متخصّص في الذّكاء الاصطناعي: إنّ هناك تحدّيات جديدة مصاحبة للعصر الرقمي من بينها زحف أنظمة الذّكاء الاصطناعي وتطبيقاتها إلى جميع قطاعات حياتنا بما فيها قطاع التعليم.

وأضاف أنّ العملية التعليمية ومؤسساتها واجهت تحديات تتعلق بأخلاقيات العملية التعليمية منذ بداية عصر الإنترنت في بدايات تسعينيات القرن المنّصرم، كآلية البحث المعرفي الذي لم تعدْ حكرًا على المصادر الورقية التقليدية، التي مكنت الطالب الجامعي أن يبحر في شبكة الإنترنت بحثا عن المعرفة مما شكل تحديًا يخصُّ الأمانة العلمية والترسيخ المعرفي الذي رآه البعض في تلك الحقبة تسطيحًا معرفيًا لا يسهم في بناء العمق العلمي.

وأشار إلى أنّ واقعنا الرقمي الحالي يعجُّ بتطبيقات ذكية مثل "الذّكاء الاصطناعي التوليدي" الذي دخل معترك الحياة التعليمية في الجامعات مساهما بفوائده ومؤثرًا بمخاطره التي يراها بعض الأكاديميين تجاوزًا لأخلاقيات التعليم، وتبرز تحدّياتها في صناعة المحتوى المعرفي الذي احتدم جدل القانون في قضية من صاحب حقوق هذا المحتوى.

وبيّن أنّ هذه التحدّيات بدأت تتقلص بعد مرحلة من التفاعل التي أنتجت خبرة تمخّضت بتحديد آليات أخلاقية لاستعمال أنظمة الذّكاء الاصطناعي خصوصا التوليدية مثل "شات جي بي تي" منها اعتبار هذه الأنظمة جزءا من الأدوات المساعدة للعملية التعليمية مثلها مثل محركات البحث وبرامج التعليم الكثيرة، ولكن لابد من وضع أبجديات للجودة التعليمية بوجود هذه الأنظمة الذكية، وترسيخ معايير تعليمية صارمة تعيد الحقل التعليمي الجامعي إلى أطره الأخلاقية الصُلبة.

ولفت إلى ضرورة تفاعل المؤسسات التعليمية بشكل إيجابي مع هذه التطبيقات عبر عدة خطوات منها: السماح للطالب أن يستعملها وفق ضوابط أخلاقية مشابهة للضوابط الممارسة في عمليات البحث الاعتيادية، وذلك بأسلوب الحوار العلمي الذي ينتج عنه نصوص علمية يحتاج الطالب بعدها إلى إعادة صياغتها وفقَ أسلوبه الخاص مع إيضاح جلّي للمصدر الرئيس الذي اعتمد عليه في توليد هذه النصوص.

وفي السياق ذاته أوضح الدكتور علي بن سعيد المطري مدرس رياضيات بمركز اللغة والدراسات التأسيسية بجامعة الشرقية أنّ الغش الأكاديمي يعد من أبرز التحدّيات التي يمكن أن تمر بها العملية التعليمية الجامعية عند استخدام تطبيقات الذّكاء الاصطناعي من خلال استخدامها لإنشاء محتوى أو إجابات جاهزة على الواجبات والاختبارات، مما يزيد من صعوبة التحقق من أصالة العمل الأكاديمي.

ورأى بأنّ الاعتماد الزائد على الذّكاء الاصطناعي يمكن أن يؤدي إلى تقليل قدرة الطلاب على التفكير النقدي وحل المشكلات بشكل مستقل، مما يضعف من مهاراتهم التحليلية والإبداعية، بالإضافة إلى أنها قد تجعل الطلاب غير قادرين على أداء المهام الأساسية مما يقلل من قدرتهم على التعلم العميق والفهم الشامل.وأنّ بعض التطبيقات قد تحتوي على تحيزات في الخوارزميات، مما يؤثر على جودة التعليم والتقييم إلى جانب أنها تثير قضايا أخلاقية متعلقة بالخصوصية وسرية البيانات، مما قد يشكل تحديًا في كيفية حماية بيانات الطلاب وضمان استخدامها بشكل مسؤول.

وأكّد أنّ الهيئة التدريسية تحتاج إلى تطوير أساليب جديدة لتقييم أداء الطلاب تأخذ بعين الاعتبار إمكانية استخدام الذّكاء الاصطناعي، وذلك لتقييم المهارات الفعلية للطلاب بشكل أدق، مشيرًا إلى أهمية مواكبة التطور السريع للتقنيات والتعامل بفعالية مع الطلاب الذين يستخدمون هذه الأدوات عبر تبني استراتيجيات تعليمية جديدة، وتوعية الطلاب حول الاستخدام المسؤول للتكنولوجيا، وتطوير سياسات تضمن التوازن بين الاستفادة من الذّكاء الاصطناعي والحفاظ على النزاهة الأكاديمية.

وشدد على ضرورة تعزيز الفهم والتعلم الذاتي عند استخدام تطبيقات الذّكاء الاصطناعي لتحسين الفهم الشخصي للمادة، مثل استخدام تطبيقات التعلم التكيفي التي تقدم شروحات مخصصة بناءً على مستوى فهم الطالب، مشيرًا إلى إمكانية تنظيم وإدارة الوقت بشكل أكثر فعالية، والاستفادة منها لتحليل البيانات لأغراض البحث العلمي.

وقال: إنّ تطبيقات الذّكاء الاصطناعي تستخدم في تحسين المهارات اللغوية أو التقنية، التي تقدم تجارب تفاعلية وموجهة، وفي عملية البحث عن المصادر الأكاديمية، واقتراح الأفكار، أو تحسين أسلوب الكتابة، مع التأكد من مراجعة العمل والتحقق من أصالته.

وأضاف أنه يمكن استخدامها في المراجعة والتحضير لاختبارات محاكاة وتقييم الأداء بشكل دوري والتعلم المستمر للوصول إلى موارد تعليمية متقدمة خارج المنهج الدراسي التقليدي، لتطوير وإكساب مهارات جديدة، بالإضافة إلى استخدامها في تحفيز الإبداع من خلال أدوات تصميم مبتكرة أو تطبيقات توليد الأفكار.

ولفت إلى وجوب التزام الطالب بالمعايير الأخلاقية عند استخدام تطبيقات الذّكاء الاصطناعي بشكل يتماشى مع السياسات الأخلاقية والنزاهة الأكاديمية، وتجنب الاعتماد عليها في الغش أو تقديم أعمال غير أصلية.

ووضّح أنّ هناك تحدّيات أخلاقية يمكن أن تؤثر على هوية المتعلم عند استخدام الذّكاء الاصطناعي في مجال التعليم أبرزها: جمع وتحليل البيانات الشخصية للطلاب من قبل تطبيقات الذّكاء الاصطناعي والتحيز الخوارزمي إذ تحتوي على تحيزات غير مقصودة تؤدي إلى تقديم تجارب تعليمية غير عادلة لبعض الطلاب.

وأفاد بأنّ الذّكاء الاصطناعي يمكن أن يؤثر بعمق على هوية المتعلم من خلال تشكيل طرق جديدة للتفاعل مع المعرفة والآخرين. من خلال استخدامه بشكل غير متوازن، قد يؤدي إلى تكون هوية غير مكتملة أو تعتمد بشكل مفرط على التكنولوجيا.

وقال إنّ هناك معايير جودة يمكن للذكاء الاصطناعي العمل عليها في التعليم الجامعي منها التخصيص والتكيف بتقديم تجارب تعليمية مخصصة قادرًا على تحليل بيانات الطلاب بشكل دقيق لتقديم محتوى تعليمي مخصص يتناسب مع مستوى كل طالب واحتياجاته الفردية والقدرة على تعديل المحتوى وأساليب التدريس بناءً على تقدم الطالب وتطوره الأكاديمي.

وأضاف أنّ النزاهة الأكاديمية التي تتمثل في رصد ومنع الغش والتحقق من الأصالة والدقة والتحيُّز وتحليل البيانات بدقة والفعالية التعليمية وتحسين مخرجات التعلم ودعم التفاعل بين الطلاب وسهولة استخدام الطلاب والمعلمين لأدوات الذّكاء الاصطناعي من الجوانب التي تسهم في التأثير على هوية المتعلم.

وحثّ على ضرورة توفير برامج تدريبية للطلاب وأعضاء الهيئة التدريسية على كيفية استخدام هذه الأدوات بشكل فاعل والتكيُّف مع التغيُّرات في المناهج الدراسية أو احتياجات الطلاب بشكل سلس.

مقالات مشابهة

  • آبل تكشف عن هاتف آيفون الجديد المدعم برقائق Arm للذكاء الاصطناعي.. 9 أيلول
  • أكاديميون: ضرورة الالتزام بالمعايير الأخلاقية عند استخدام الذّكاء الاصطناعي
  • البيت الأبيض يشكك في إنهاء حرب غزة قبل انتهاء ولاية بايدن
  • البيت الأبيض: بايدن يستضيف رئيس الوزراء البريطانى 13 سبتمبر الجاري
  • البيت الأبيض: نعمل على مدار الساعة للتوصل إلى وقف إطلاق النار في غزة
  • "أوبك+": 8 دول توافق على تمديد تخفيضات الإنتاج الطوعية لمدة شهرين
  • أوبك: السعودية وروسيا بين الدول التي وافقت على تمديد تخفيضات إنتاجها الطوعية الإضافية بمقدار 2.2 مليون ب/ي
  • البيت الأبيض: لا توافق على مسألة تبادل الأسرى والمحتجزين ضمن الاتفاق المرتقب
  • البيت الأبيض: لا توافق حتى الآن على هذه المسألة ضمن الاتفاق المُرتقب
  • عاجل - البيت الأبيض: لا توافق حتى الآن على مسألة تبادل الرهائن والسجناء بين إسرائيل وحماس