أخلاقيات الذكاء الاصطناعي بين الطموح العلمي والتحدي الأخلاقي …!
تاريخ النشر: 2nd, June 2024 GMT
أخلاقيات #الذكاء_الاصطناعي بين #الطموح_العلمي و #التحدي_الأخلاقي …!
أ.د. يوســف الدرادكـــــــــــــــــة
دعونا نفكر في هذا الموضوع من وجهة نظر العلاقة بين الاصطناعي والطبيعي. على مدار سنوات عديدة من تطورها، درست البشرية الظواهر الطبيعية وحددت عددًا من الأنماط التي تخضع لها الظواهر والعمليات الطبيعية. مع تطور التكنولوجيا، بدأ المجال التكنولوجي ومعايير تشغيل الأجهزة التقنية في التشكل.
لقد سمح التفكير الهندسي للإنسانية بالاعتراف بنفسها كقوة قوية إلى حد ما. كما أدى التقدم التكنولوجي إلى تغيير طبيعة العلاقات بين الناس.
التعارض السابق بين المدينة والريف، الثقافة التقنية والثقافة الزراعية، يصبح تعارضا بين الطبيعي والاصطناعي. أصبحت الأجهزة التقنية ذكية وقادرة على اتخاذ الخيارات. لقد أصبحوا مثل الأفراد البشر. وإذا تم إنشاء أعراف اجتماعية في المجتمع البشري لتنظيم العلاقات، ففي تفاعل الأجهزة التقنية والآلات والبشر، تكون هذه الأعراف في مهدها.
لقد وصلت الطموحات العلمية للبشرية إلى مستوى خطير؛ الاكتشافات في مجال الكيمياء والفيزياء النووية وعلم الأحياء الدقيقة وعلوم الكمبيوتر تهدد البشرية بعواقب لا يمكن التنبؤ بها.
تحليل عواقب تنفيذ الاكتشافات العلمية غير متطور بشكل كافٍ. وهذا يمكن أن يشكل تحديا للإنسانية وأنشطتها الرئيسية.
إن حل الأسئلة الناشئة عن تحليل موضوع “الطموحات العلمية والاختيار الأخلاقي” يتطلب مثل هذه المقاييس وآفاق الاعتبار التي يمكننا من خلالها وضع الأخلاق والقانون الفيزيائي على نفس مستوى الاعتبار. بالنظر إلى الأخلاق كعامل كوني، يأتي إلى استنتاج مفاده أن الضرورة الأخلاقية هي قانون مادي ( (V. Lefebvre.
بالنظر إلى العوامل التي تتمتع بالوعي كمواضيع كونية، فضلاً عن حقيقة أنه في جميع أنحاء مساحة الكون هناك عملية موحدة لإعادة توزيع كثافة المادة، فقد توصل إلى استنتاج مفاده أن مجموعة الموضوعات الكونية بأكملها لا تولد فقط قانون أخلاقي، ولكن أيضا قانون مادي.
بمعنى آخر، بغض النظر عن الطريقة التي نمنح بها الأجهزة التقنية وظائف فكرية، فإننا، أولاً، نشكل سلامة مثل هذا النظام – المجال التكنولوجي، الذي أساس علاقاته هو القانون الأخلاقي، بمعنى ما، ذو طبيعة مصطنعة وثانيا القانون الفيزيائي.
إذا كانت البشرية قد اكتشفت القوانين الفيزيائية سابقًا، فإنها تواجه الآن مهمة إنشاءها، معتبرة القانون الأخلاقي بناءًا أساسيًا. نظرًا لأن تركيز المطورين هو الذكاء الاصطناعي، فيجب وضع المبادئ البناءة لهيكل الكون، والأسس الكونية في هندسته المعمارية.
تعتمد طموحات العلماء والمهندسين على عمليات الاختيار، وعلى القدرة على التفكير في أفعالهم وأفعال الآخرين.
إن طموحات العلماء والمهندسين تنبع من الوعي، ولذلك فإن مهام دراسة الوعي مدرجة في جدول أعمال البشرية.
تصبح مسألة العلاقة بين الوعي والفكر، العاطفي والعقلاني، ذات أهمية خاصة.
المصدر: سواليف
كلمات دلالية: الذكاء الاصطناعي الأجهزة التقنیة
إقرأ أيضاً:
جي 42 تطلق إطار عمل السلامة في الذكاء الاصطناعي الحدودي
أعلنت مجموعة "جي 42"، مجموعة التكنولوجيا القابضة، عن إطلاق إطار عملها للسلامة في مجال الذكاء الاصطناعي الحدودي (Frontier AI)، الذي يضع آليات واضحة لتقييم المخاطر، وتعزيز الحوكمة، وتوفير الإشراف الخارجي، بما يضمن تطوير نماذج الذكاء الاصطناعي المتقدّمة بطريقة آمنة ومسؤولة.
ويقدّم إطار عمل السلامة في مجال الذكاء الاصطناعي الحدودي نهجاً متعدد الطبقات لإدارة مخاطره، مما يضمن تطوير أنظمة الذكاء الاصطناعي المتقدّمة واختبارها ونشرها بشكل مسؤول، حيث أنشأت في هذا الإطار مجلس إدارة لحوكمة الذكاء الاصطناعي الحدودي للإشراف على الامتثال وتقييم المخاطر وضمانات نماذج الذكاء الاصطناعي ويضم مجلس الإدارة كلاً من: الدكتور أندرو جاكسون، كبير مسؤولي الذكاء الاصطناعي، وألكسندر ترافتون، رئيس مخاطر التكنولوجيا، ومارتن إيدلمان، المستشار العام، وأديل أوهيرليهي، رئيس الذكاء الاصطناعي المسؤول.
ويشمل الإطار عمليات التدقيق المستقلة وتدابير الشفافية، حيث ستجري "جي 42" عمليات تدقيق داخلية منتظمة للحوكمة، إضافةً إلى المشاركة في مراجعات خارجية سنوية لضمان الامتثال لأفضل معايير السلامة، كما ستصدر الشركة تقرير شفافية يسلّط الضوء على رؤى السلامة الرئيسية وتقييمات المخاطر.
كما يشمل تحديد عتبات المخاطر واستراتيجيات التخفيف، والتي تتيح تقييم المخاطر المرتبطة بالتهديدات البيولوجية، وثغرات الأمن السيبراني، ومخاطر اتخاذ القرار الذاتي.
وحظي تطوير إطار عمل السلامة في مجال الذكاء الاصطناعي الحدودي بدعم نخبة من خبراء مخاطر الذكاء الاصطناعي، بما في ذلك METR وSaferAI، حيث ساهمت رؤاهم في صياغة استراتيجيات الحوكمة والتخفيف من المخاطر الواردة في الإطار، مما يعزز التزام "جي 42" بتطوير ذكاء اصطناعي آمن ومسؤول.
ولتطبيق إطار عمل السلامة في مجال الذكاء الاصطناعي الحدودي، أطلقت "جي 42" منصة التقييم "X-Risks "Leaderboard، المختصة بقياس مخاطر نماذج الذكاء الاصطناعي في مجالات الأمن السيبراني والكيمياء والأحياء، وقد تم تطويرها من مجموعة تقييم السلامة الخاصة بشركة "إنسيبشن"، لتوفير تقييم عملي لنقاط الضعف المحتملة في الذكاء الاصطناعي، مما يعكس التزام "جي 42" بتعزيز سلامة الذكاء الاصطناعي، من خلال مناقشة السياسات، ووضع ضمانات شفافة وقابلة للقياس.
وتعد "جي 42" من أولى الشركات في الشرق الأوسط التي قدّمت إطار عمل شاملا لسلامة الذكاء الاصطناعي، وتواصل الشركة التعاون مع الجهات التنظيمية وصناع السياسات وشركاء القطاع لتعزيز ممارسات السلامة، والمساهمة بفاعلية في مناقشات الحوكمة العالمية لضمان تطوير واستخدام مسؤول لهذه التكنولوجيا.