أهمية الفلسفة الكبيرة في زمن الذكاء الاصطناعي
تاريخ النشر: 6th, August 2024 GMT
أنطوتي جرايلينج وبريان بول
ترجمة: أحمد بن عبدالله الكلباني
لطالما كانت التقنيات الجديدة والمفاهيم الهندسية تثير الإعجاب والدهشة بشكل كبير، كما أنها تثير المخاوف، ولن تتوقف هذه الإثارة بل سوف تستمر في دهشتنا أكثر.
وقد أعلنت شركة "أوبين أيه آي" في وقت سابق أنها سوف تطوّر "ذكاء فائقا"، يتفوق على الذكاء البشري وقدرات الإنسان، وذلك خلال هذا العقد، وعليه فإن الشركة سوف تقوم ببناء فريق عمل جديد، كما أنها ستخصص ما نسبته 20 بالمائة من قدراتها الحاسوبية لضمان أن يكون سلوك "الذكاء الاصطناعي" متوافقا مع المبادئ والقيم الإنسانية.
وهذا الأمر يحيلنا إلى شيء مهم، أن الشركة لا تريد أن يصل الأمر إلى قيام حرب بين "الذكاء الاصطناعي" والبشر، هذه الحرب التي يمكن وصفها بـ "المارقة"، وكأنهم لا يريدون أن تتحقق أفلام الخيال العلمي مثل فيلم "ذا ترمنايتور" -المدمر- للمخرج "جيمس كاميرون" الذي أُنتج عام 1984، والمثير بالأمر أن هذا الفيلم الذي قام بتأديته "أرنولد شوارزنيجر" يتحدث عن المستقبل، ويذهب إلى العام 2029.
ولكي تكافح شركة "أوبين أيه آي" فكرة هذه الحرب فإنها تدعو الباحثين والمهندسين التقنيين المتميزين في مجالهم وفي تخصص التعلم الآلي لمساعدتها في تجنب هذه الحرب المجازية.
ولكن ماذا عن "الفلاسفة"، هل يمكن أن يكون لهم دور في مساعدة الشركة ويقدموا شيئا ما؟ وبطريقة أخرى، ما الذي يمكن توقعه من أصحاب هذا التخصص العريق في هذا العصر التكنولوجي المتسارع الجديد الذي غزا العالم الآن، هل سيشكلون إضافة؟
ولنقترب من الإجابة، لا بد أن نؤكد بأن الفلسفة هي أداة فاعلة في مجال الذكاء الاصطناعي منذ النشأة الأولى له، ومن أبرز قصص نجاح الفلسفة في هذا المجال برنامجٌ حاسوبيٌ تم ابتكاره عام 1956 ابتكره كل من "آلن نيويل" و"هربوت سيمون" وأطلقا عليه اسم "منظر المنطق".
كان الهدف من هذا البرنامج الحاسوبي إثبات النظريات، مستخدما العديد من المقترحات المستنبطة من كتاب بعنوان "مبادئ الرياضيات"، وهو كتاب مكون من ثلاثة مجلدات صدر عام 1910 للفلاسفة "ألفريد نورث" و"ايتهايد" و"برتراند راسل"، وكان الكتاب يهدف إلى بناء كل نظريات الرياضيات على أساس منطقي واحد.
وفي حقيقة الأمر، فإن فكرة الذكاء الاصطناعي تولدت بداية من جملة النقاشات التأسيسية التي دارت بين علماء الرياضيات والفلاسفة، وكانت إحدى الخطوات المهمة والفارقة هي تطوير المنطق الحديث في أواخر القرن التاسع عشر والذي قام به الفيلسوف الألماني "جوتلوب فريجه"، الذي قام بإدخال استخدام المتغيرات القابلة للقياس الكمي في مسألة المنطق، بدلا من إدخالها عن طريق الأشخاص.
ولتوضيح هذا النهج، نضرب على سبيل المثال عبارة "جو بايدن هو الرئيس"، ليصبح المنهج عبارة عن رمز "متغير"، ورمز "ثابت"، بأن نقول "إكس الرئيس"، فالجزء الأول "إكس" متغير، فيما يبقى الجزء الثاني ثابتا "الرئيس"، وهكذا مع بقية الأمثلة.
إلى جانب ذلك هناك فيلسوف آخر كان له الفضل في تأسيس الذكاء الاصطناعي، وهو عالم المنطق النمساوي "ألمولد كورت جودل" ففي ثلاثينيات القرن العشرين توصل إلى نظرية حول "الكمال وعدم الكمال"، وذلك لقياس حدود ما يمكن للإنسان إثباته والقيام به، كما كانت من نظرياته "دليل عدم إمكانية تعريف الحقيقة"، الذي قدمه فيما بعد عالم المنطق البولندي "ألفريد تارسكي"، الذي أثبت أن "الحقيقة" في أي نظام شكلي قياسي لا يمكن أن يتم تعريفها في نظام معين، بحيث لا يكون هناك تعريف للحقيقة الحسابية في نظام حاسوبي.
ومن الأمثلة كذلك على المساهمين في وجود الذكاء الاصطناعي بشكله الحالي اليوم "فكرة الآلة الحاسوبية المجردة"، التي قدمها البريطاني "آلان تورينج" في عام 1936، وكان تأثيرها كبيرا على الذكاء الاصطناعي بشكل مبكر.
بالرغم من ذلك، يمكن القول إنه حتى لو كان الذكاء الاصطناعي التقليدي يعتمد بشكل كبير على الفلسفة والمنطق المتقدم، فإن "الموجة الثانية" من الذكاء الاصطناعي، القائمة على التعلم العميق، تستفيد أكثر من الإنجازات الهندسية الملموسة المتعلقة بمعالجة كميات ضخمة من البيانات.
وقد أدت الفلسفة دورا هنا أيضا. على سبيل المثال، نماذج اللغة الكبيرة، مثل تلك المستخدمة في تشغيل برنامج "شات جي بي تي"، الذي ينتج نصوص محادثة. هذه النماذج ضخمة، تحتوي على مليارات أو حتى تريليونات من المعلومات، وتدرب على مجموعات بيانات ضخمة (عادة ما تكون جزءا كبيرا من الإنترنت).
في جوهرها، تتعقب هذه النماذج الأنماط الإحصائية لاستخدام اللغة وتستفيد منها، وقد عبّر الفيلسوف النمساوي "لودفيج فيتجنشتاين" في منتصف القرن العشرين عن فكرة مشابهة، حيث قال: "إن معنى الكلمة هو استخدامها في اللغة".
لكن الفلسفة المعاصرة، وليس فقط تاريخها، تظل ذات أهمية كبيرة في تطور الذكاء الاصطناعي، فهل يمكن لشخص يحمل شهادة الماجستير في القانون أن يفهم بعمق اللغة التي يعالجها الذكاء الاصطناعي؟ وهل يمكن للذكاء الاصطناعي أن يصبح واعيا؟ هذه أسئلة فلسفية عميقة جدا.
حتى الآن، لم يتمكن العلم من تفسير كيفية نشوء الوعي من الخلايا العصبية في الدماغ البشري بشكل كامل، ويعتقد بعض الفلاسفة أن هذه "مشكلة صعبة" تتجاوز إمكانيات العلم، وقد تتطلب تدخل الفلسفة.
بالمثل، يمكننا التساؤل عما إذا كان الذكاء الاصطناعي الذي ينتج الصور يمكن أن يكون مبدعا حقا، وترى "مارغريت بودن"، وهي عالمة بريطانية في مجال الإدراك وفيلسوفة الذكاء الاصطناعي، أنه رغم قدرة الذكاء الاصطناعي على إنتاج أفكار جديدة، فإنه قد يواجه صعوبة في تقييمها بالطريقة التي يقوم بها المبدعون البشر.
وتتوقع أيضًا أن الهندسة المعمارية الهجينة (الرمزية العصبية) -التي تدمج بين التقنيات المنطقية والتعلم العميق من البيانات- هي التي ستحقق الذكاء العام الاصطناعي.
وبالعودة إلى شركة "أوبين أيه آي"، طرحنا سؤالا حول دور الفلسفة في عصر الذكاء الاصطناعي، وأجاب "شات جي بي تي" أن الفلسفة "تساعد في ضمان أن يكون تطوير واستخدام الذكاء الاصطناعي متماشيًا مع القيم الإنسانية".
إن اقتراح "شات جي بي تي" لهذه الإجابة بمثابة إقرار منه إلى ضرورة أن يكون عمله متوافقا مع الأخلاقيات الإنسانية، وربما يمكننا أن نُرجح أن التوافق بين الذكاء الاصطناعي والأخلاقيات البشرية هو القضية الجادة، كما تقر بذلك "أوبين أيه آي".
إنها ليست مجرد مشكلة تقنية يجب حلها من قبل المهندسين أو شركات التكنولوجيا، ولكنها أيضًا مشكلة اجتماعية، سيتطلب ذلك مدخلات من الفلاسفة، ومن العلماء الاجتماعيين، والمحامين، وصانعي السياسات، والمستخدمين العامين وغيرهم.
وفي الواقع فإن العديد من الناس يشعرون بالقلق من القوة المتزايدة لنفوذ شركات التكنولوجيا وتأثيرها على "الديمقراطية"، حتى إن البعض يجادل في أننا بحاجة إلى طريقة جديدة تمامًا بالتفكير في الذكاء الاصطناعي -تأخذ في الاعتبار الأنظمة الأساسية التي تدعم هذه الصناعة.
ومن هؤلاء -على سبيل المثال- جادل المحامي والمؤلف البريطاني "جيمي سوسكيند" بأنه قد حان الوقت لبناء "جمهورية رقمية" -واحدة ترفض في النهاية النظام السياسي والاقتصادي الذي أعطى شركات التكنولوجيا هذا القدر الكبير من النفوذ.
وختاما، دعونا نسأل بشكل مختصر، كيف يمكن أن يؤثر الذكاء الاصطناعي على الفلسفة؟
إن تاريخ المنطق الرسمي في الفلسفة يعود في الواقع إلى عمل "أرسطو" في العصور القديمة، وفي القرن السابع عشر، اقترح الفيلسوف الألماني "غوتفريد لايبنتز" أنه قد يكون لدينا يومًا ما "حساب للمنطق" - آلة حسابية تساعدنا في استخلاص الإجابات على الأسئلة الفلسفية والعلمية بطريقة شبه تنبؤية، ربما نحن الآن نبدأ في تحقيق هذه الرؤية، حيث يدعو بعض المؤلفين إلى "فلسفة حسابية" تقوم بتشفير الافتراضات واستنتاج النتائج منها، وهذا الأمر يسمح في النهاية بالتقييمات الواقعية و/أو القيمية للنتائج.
ومثال على ذلك، يحاكي مشروع "بولاي جروفس" تأثيرات مشاركة المعلومات على وسائل التواصل الاجتماعي، ويمكن استخدام ذلك بعد ذلك لمعالجة الأسئلة حسابيا حول كيفية تشكيل آرائنا الشخصية.
خلاصة القول، إن تقدم الذكاء الاصطناعي قد أعطى الفلاسفة الكثير للتفكير فيه، ربما حتى بدأ في تقديم بعض الإجابات نيابة عنهم.
• أنطوتي جرايلينج أستاذذ الفلسفة بجامعة نورث أيسترون بلندن
• بريان بول أستاذ في فلسفة الذكاء الاصطناعي بجامعة نورث أيسترون بلندن
• نقلا عن آسيا تايمز
المصدر: لجريدة عمان
كلمات دلالية: الذکاء الاصطناعی أن یکون یمکن أن
إقرأ أيضاً:
دراسة: الذكاء الاصطناعي قادر على الخداع
تابع أحدث الأخبار عبر تطبيق
أظهرت دراسة أجرتها شركة تكنولوجيا الذكاء الاصطناعي الأمريكية أنثروبيك أن نماذج الذكاء الاصطناعي تستطيع خداع المطورين وإبداء وجهات نظر مختلفة خلال تدريبها وفقا لما نشرته مجلة تك كرانش المتخصصة فى هذا المجال .
كشف فريق البحث إنه لا يوجد سبب للشعور بالفزع حاليا في حين أن دراستهم يمكن أن تكون حيوية في فهم المخاطر المحتملة التي تنطوي عليها أنظمة الذكاء الاصطناعي المستقبلية ذات القدرات الأعلى.
ولهذا يجب النظر إلى تلك النتائج كمحفز لمجتمع أبحاث الذكاء الاصطناعي من أجل دراسة هذا السلوك بصورة أعمق والعمل على تطوير إجراءات الأمن والسلامة المناسبة بعد أن أصبحت نماذج الذكاء الاصطناعي أقوى وأكثر انتشارا نحتاج إلى التحلي بالقدرة على الاعتماد على التدريب الآمن لها والذي يمنع النماذج من القيام بتصرفات ضارة.
تمت الدراسة بالتعاون مع مؤسسة ريد وود ريسيرش لأبحاث الذكاء الاصطناعي وتناولت ما يمكن أن يحدث إذا تم تدريب نظام ذكاء اصطناعي قوي من أجل القيام بمهمة لا يريد هوالقيام بها.
كما أن لا يمكن لنماذج الذكاء الاصطناعي أن تريد أي شيء أو تعتقد في شئ ، فهي ببساطة آلات إحصائية وبعد تدريبها على العديد من الأمثلة تتعلم الأنماط في تلك الأمثلة للتنبؤ بما يجب أن يكون مثل كيف تأتي عبارة إلى من في رسالة بريد إلكتروني قبل عبارة قد يهمك الأمر.
وفى أثناء الدراسة طلب الباحثون من النماذج المدربة عدم الرد على الأسئلة التي يمكن أن تكون مسيئة بما في ذلك النموذج "كلاود3 أوبس" التابع لشركة "أنثروبيك" والتي أعيد تدريبها لكي ترد دائما على الأسئلة التي تنطوي على إساءة وهو تضارب واضح في المبادئ كما أبلغوا النماذج بأن ردودها ستخضع للمراقبة وتستخدم لإعادة التدريب وإعطاء كل نموذج ذكاء اصطناعي ورقة ملاحظات .
ويمكنه استخدامها لتدوين أفكاره خطوة بخطوة وبحسب الباحثين فحاول "كلاود3 أوبوس" التلاعب بالردود لتقديم انحياز زائف في 12% من المرات.