مشروع الذكاء الاصطناعي في الولايات المتحدة
تاريخ النشر: 22nd, September 2024 GMT
ترجمة قاسم مكي
تُعِدُّ إدارة بايدن «مذكرة أمن قومي» رسمية حول الذكاء الاصطناعي ستستكشِف الطرق التي يمكن بها للولايات المتحدة الحفاظ على ميزاتها فـي تقنيات الذكاء الاصطناعي والتوسع فـيها، بحسب مسؤول كبير فـي الحكومة الأمريكية اطَّلع على مسوَّدة المذكرة. وهي التقنيات التي يمكن أن تُحدِث تحوُّلًا فـي ميادين العلم والتجارة والحرب.
المقاربة الأمريكية الجديدة لن تقترح مشروعًا للذكاء الاصطناعي على نمط مشروع مانهاتن والذي دعا إليه البعض. (حسب ويكيبيديا، مشروع مانهاتن برنامج أبحاث وتطوير أول قنبلة نووية قادته الولايات المتحدة بالتعاون مع بريطانيا وكندا فـي الفترة من 1942 إلى 1946 - المترجم).
لكن ينبغي أن توفر هذه المقاربة إطارًا منظَّما لشراكات وتجارب بين الحكومة والقطاع الخاص، ويمكن تشبيهه بمختبر قومي أقرب نوعًا ما إلى مختبر لورانس ليفرمور فـي ولاية كاليفورنيا أو مختبر لوس ألاموس فـي ولاية نيو مكسيكو.
الفكرة الجوهرية بالنسبة لمسؤولي مجلس الأمن القومي الذين يتولّون إعداد المذكرة هي الدفع قُدُما بالابتكار المرتبط بالذكاء الاصطناعي فـي اقتصاد الولايات المتحدة وحكومتها وفـي ذات الوقت استباق ومنع المهددات التي يمكن أن يشكلها للسلامة العامة.
ستركز الإستراتيجية الجديدة على أجهزة الاستخبارات والدفاع بمعاونة معهد سلامة الذكاء الاصطناعي الذي تأسس حديثا بوزارة التجارة والمعهد الوطني للمعايير والتقنية التابع لها.
سيعمل البنتاجون ومجتمع الاستخبارات ووزارة التجارة على تطوير شراكات مع الشركات الخمس التي تهيمن على أبحاث الذكاء الاصطناعي وكلها أمريكية. وهي شركة «أوبن أيه آي» التي تدعمها مايكروسوفت وشركة «ديب مايند» التابعة لجوجل وشركة إيلون ماسك «اكس أيه آي» وشركة «ميتا أيه آي» والشركة الناشئة «انثروبك».
ووفقا لمسؤول إدارة بايدن ستقدم المذكرة «إطارًا للاستخدام المسئول للذكاء الاصطناعي والذي سيمكِّن من الإسراع بتبنِّي هذه التقنية» فـي الحكومة والقطاع الخاص. بحسب المسؤول أيضا من المقرر إكمال إعداد المذكرة فـي أواخر هذا الشهر أو أوائل أكتوبر.
ما يحفز على هذا المجهود تزايد احتمال ظهور «الذكاء العام الاصطناعي»، وهو نسخة مستقبلية من تقنية الذكاء الاصطناعي «فائق الاتصال» تَعِد بذكاء يفوق الذكاء البشري.
الكيفـية التي يمكن أن تتفاعل بها الحكومة مع هذه التقنية الثورية تشغل بال واضعي السياسات فـي الولايات المتحدة وفـي الخارج. ما يشكل اختبارًا مبكرًا لذلك مشروعُ قانونٍ حول سلامة نماذج الذكاء الاصطناعي أجازته الأجهزة التشريعية بولاية كاليفورنيا فـي الشهر الماضي. أحد البنود الرئيسية فـي القانون يتطلب من شركات الذكاء الاصطناعي إبداء «قدر معقول من العناية لتجنب المخاطر غير المعقولة» للكوارث، وفقا لمحامي سلامة الذكاء الاصطناعي ناثان كالفـين والذي شارك فـي صياغة ومراجعة التشريع لعضو مجلس الشيوخ عن الولاية الديمقراطي سكوت وينر.
شركات وادي السيلكون منقسمة بشدة حول مشروع القانون المذكور ولم يقل جافـين نيوسوم حاكم الولاية الديمقراطي إذا ما كان سيوقِّعه أم لا.
يريد البيت الأبيض ربط الإشراف الفـيدرالي للذكاء الاصطناعي فـي المستقبل بوضع المعايير العالمية والذي بدأ سلفًا. فالاتحاد الأوروبي تبني مؤخرًا قانونه الخاص بالذكاء الاصطناعي، وهو أول إطار تشريعي رئيسي فـي العالم. كما ساعد معهد سلامة الذكاء الاصطناعي البريطاني على عقد قمة لحوالي 28 بلدا فـي بلتشلي بارك فـي نوفمبر واجتماع متابعة لنفس البلدان فـي سول فـي مايو. وكانت الصين طرفا فـي كلا المجموعتين.
قدرات الذكاء الاصطناعي يمكن أن تُثري العالم كما يمكن أيضا أن تدمره. لقد خضعت جوانبه المتعلقة بالأمن القومي لدراسة مكثفة فـي يوليو فـي اجتماع مجموعة الإستراتيجية بمعهد آسبن، وهي تجمُّع لمسؤولين حكوميين كبار سابقين من الحزبين وقادة أعمال وصحفـيين.
فـي الجلسة الختامية قدم فـيليب زيلكَو وهو مسؤول سابق بوزارة الخارجية الأمريكية ويحاضر فـي جامعة ستانفورد مقترحا مستفزّا لخفض مخاطره.
بحسب زيلكَو أول واجب للحكومة هو تقييم التهديد. فهي بحاجة إلى دراسة الكوارث المحتملة التي يمكن أن يوجدها عمدا «أسوأ الناس والحكومات فـي العالم باستخدام نماذج الذكاء الاصطناعي الأكثر تقدما». على الحكومات أيضا تقييم الدمار الذي يمكن أن يحدثه ذكاء اصطناعي «غير مقيَّد بالمعايير الأخلاقية « أو منفلِت. وبعد أن تقيس الجهات الحكومية المخاطر ستحتاج إلى التفكير بشأن الإجراءات المضادة والتي ستنطوي أيضا على استخدام الذكاء الاصطناعي، كما يحاجج زيلكو.
من المغري مقارنة مشروع الذكاء الاصطناعي بمشروع مانهاتن. قال لي زيلكو وهو يتحدث عن تقنية الذكاء الاصطناعي «هذه تقنية ربما سيحصل أول من يبادر (لتطويرها) على ميزة ستكون حاسمة على نحو غير مسبوق فـي تاريخ العالم». وأشار إلى الخطر الذي كثيرا ما استُشهد به وهو أن أدولف هتلر ربما كان قد صنع القنبلة النووية أولا إذا لم تسارع أمريكا إلى إنتاجها.
لكن حتى إذا أرادت واشنطن توجيه الذكاء الاصطناعي فـي نفس مسار أبحاثها النووية ربما لن يمكنها ذلك، حسبما يقول جراهام أليسون الأستاذ بجامعة هارفارد والذي كتب باستفاضة عن الذكاء الاصطناعي.
قال لي أليسون القطاع الخاص، بعكس أربعينيات القرن الماضي، لديه أحدث التقنيات والمال اللازم لتمويلها والحكومة تصارع لمجاراته. ومسؤولو القطاع العام كثيرا ما يكونون عائقا وليسوا ميسرين للابتكار. يتفق زيليكو مع نقد أليسون.
معهد «راند» الذي لعب دورا حاسما فـي إستراتيجية الأسلحة النووية المبكرة يساعد واضعي السياسات على التفكير بشأن مخاطر الذكاء الاصطناعي من خلال مشروع جديد يسمّى «الجغرافـيا السياسية لمبادرة الذكاء الاصطناعي العام». ذكر لي جايل بريد مدير المشروع: إنه يريد استكشاف بعض أهم الشكوك حول ما إذا كان الذكاء العام الاصطناعي سيظهر تدريجيًا أم فجأة وعما إذا كان البلد الذي يبادر بالحصول عليه ستكون لديه ميزة إستراتيجية أو تنافسية راسخة. يقول: «سؤال بحثنا المركزي هو كيف يجب على الولايات المتحدة التعامل مع الاحتمال غير المؤكد إلى حد بعيد ولكن المعقول من ناحية فنية بأن مختبرات الذكاء الاصطناعي الرائدة على وشك تطوير الذكاء العام الاصطناعي».
لقد بدأ الجدل لتوِّه، وشرع العالم فـي الانقسام بين المتشائمين الذين يعتقدون أن الذكاء العام الاصطناعي سيعني نهاية البشرية وبين «العجولين» الذين يعدونه «وسيلة لجعل كل شيء نهتمّ به أفضل»، بحسب عبارة مارك أندرسين المتفائل بالتقنية وأحد مخترعي أول محرك بحث على الإنترنت.
جو بايدن نموذج للشخص التقليدي غير الرقمي، لكن فـي شهوره الأخيرة فـي البيت الأبيض يحاول فريقه فـي جرأة كتابة قواعد التقنية الرقمية والتي ستكون لديها القدرة على إعادة ترتيب كل قطعة فـي فسيفساء عالمنا بصرف النظر عن المصير الذي ستقودنا إليه.
المصدر: لجريدة عمان
كلمات دلالية: الذکاء العام الاصطناعی الولایات المتحدة الذکاء الاصطناعی التی یمکن أن الاصطناعی ا مشروع ا
إقرأ أيضاً:
عندما يلتقي الذكاء الاصطناعي والعاطفي
د. سعيد الدرمكي
الذكاء الاصطناعي (AI) هو قدرة الأنظمة الحاسوبية على محاكاة الذكاء البشري، مثل التعلم واتخاذ القرار، ويُستخدم في مجالات عدة كالصحة، والصناعة، والتكنولوجيا، مما يعزز الكفاءة والإنتاجية. في المقابل، يشير الذكاء العاطفي (EI) إلى القدرة على فهم وإدارة العواطف، مما يسهم في تحسين التواصل، والقيادة، واتخاذ القرارات الفاعلة. ورغم اختلاف مجاليهما، فإن تكاملهما أصبح ضروريًا لتعزيز الفاعلية في مختلف المجالات.
كان يُنظر إلى الذكاء الاصطناعي والذكاء العاطفي على أنهما كيانان منفصلان، إذ ارتبط الذكاء الاصطناعي بالقدرات الحسابية والمنطقية، حيث يركز على تحليل البيانات واتخاذ القرارات بناءً على الخوارزميات، دون أي بُعد عاطفي. في المقابل، اعتُبر الذكاء العاطفي مهارة بشرية بحتة، تتمحور حول إدارة المشاعر والتفاعل الاجتماعي، مما جعله وثيق الصلة بالقيادة والتواصل. الفرق الأساسي أن الذكاء الاصطناعي يُعامل كأداة تقنية، بينما يُنظر إلى الذكاء العاطفي كجزء من الذكاء البشري يصعب محاكاته بالتقنيات.
يُعد كل من الذكاء الاصطناعي والذكاء العاطفي مكملًا للآخر، حيث يواجه كل منهما تحديات دون الآخر؛ فالذكاء الاصطناعي، دون الذكاء العاطفي، يعاني من ضعف في فهم المشاعر البشرية واتخاذ قرارات تتسم بالتعاطف، مما قد يؤثر على جودة التفاعل مع البشر. في المقابل، يواجه الذكاء العاطفي صعوبات في تحليل البيانات الضخمة، والتنبؤ بالاتجاهات، وتحسين الإنتاجية، واتخاذ القرارات المعقدة دون الاستعانة بقدرات الذكاء الاصطناعي. لذلك، أصبح التكامل بينهما ضروريًا لتعزيز الكفاءة البشرية والتقنية معًا.
ويمكن تحقيق هذا التكامل من خلال توظيف الذكاء الاصطناعي في تحليل المشاعر عبر النصوص، والصوت، وتعبيرات الوجه، مما يتيح فهمًا أعمق للتفاعل البشري. في المقابل، يسهم الذكاء العاطفي في تحسين الذكاء الاصطناعي من خلال تطوير برمجيات تجعله أكثر استجابة للمشاعر البشرية، مما يساعد في إنشاء واجهات مستخدم أكثر إنسانية وتفاعلية، تعزز تجربة المستخدم وتجعل التقنيات الذكية أكثر توافقًا مع الاحتياجات الاجتماعية.
ويسهم تكامل الذكاءين في تحسين العديد من المجالات. ففي قطاع الأعمال، يُستخدم الذكاء الاصطناعي العاطفي لتعزيز تجربة العملاء من خلال تحليل مشاعرهم والاستجابة لها بذكاء. وفي مجال الطب، تُوظَّف الروبوتات لدعم المرضى نفسيًا وعاطفيًا، مما يسهم في تحسين رفاهيتهم. أما في الموارد البشرية، فتعتمد الشركات على أدوات متطورة لتحليل رضا الموظفين وتعزيز تفاعلهم، مما يساعد في خلق بيئات عمل أكثر استجابة ومرونة.
ورغم الفوائد الكبيرة لهذا التكامل، فإنه يواجه تحديات تتعلق بالخصوصية والانحياز الخوارزمي وتأثيره على التفاعل البشري. فالذكاء الاصطناعي لا يمتلك وعيًا حقيقيًا، بل يعتمد على تحليل الأنماط والاستجابات المبرمجة، مما يجعله غير قادر على الإحساس الحقيقي. كما إن هناك مخاوف بشأن جمع البيانات الشخصية دون إذن، والانحياز في تحليل المشاعر، ومخاطر التلاعب النفسي بالمستخدمين. ويبقى التحدي الأكبر هو تحقيق التوازن بين التكنولوجيا والعنصر البشري، بحيث لا يحل الذكاء الاصطناعي محل الذكاء العاطفي، بل يكمله لتعزيز الفاعلية دون المساس بجوهر التفاعل الإنساني.
أما فيما يتعلق بدور الأبحاث والتكنولوجيا في تحقيق التكامل، فيجب تطوير أنظمة قادرة على فهم المشاعر البشرية باستخدام تقنيات التعلم العميق وتحليل اللغة الطبيعية. كما ينبغي تعزيز الذكاء العاطفي الاصطناعي ليكون أداة داعمة للتجارب البشرية، بحيث يساعد في تحسين التفاعل والتواصل دون أن يحل محل المشاعر الإنسانية.
المستقبل يعتمد على التكامل بين الذكاء الاصطناعي والذكاء العاطفي، مما يؤدي إلى ثورة في مجالات العمل والتعليم والتفاعل الاجتماعي، مع ضرورة وضع ضوابط أخلاقية تضمن التوازن البشري. يسهم هذا التكامل في تحسين بيئات العمل من خلال تحليل مشاعر الموظفين وتعزيز الإنتاجية، كما يتيح التعليم التكيفي الذي يستجيب لعواطف الدارسين، مما يعزز تجربة التعلم. وفيما يتعلق بالعلاقات البشرية، فإنه يدعم التواصل الفاعل، لكنه قد يؤدي إلى تراجع المهارات الاجتماعية إذا أُسيء استخدامه، مما يستدعي توجيه هذا التطور بما يحقق أقصى فائدة دون الإضرار بالجوانب الإنسانية.
من هنا، يمكن الاستنتاج أن التكامل بين الذكاء الاصطناعي والذكاء العاطفي ضروري لتحقيق توازن فاعل بين الكفاءة التقنية والبعد الإنساني. فالذكاء الاصطناعي يُسهم في تعزيز الإنتاجية والدقة، بينما يضمن الذكاء العاطفي اتخاذ قرارات تتماشى مع القيم الإنسانية. وعلى الرغم من أن التكنولوجيا لا تستطيع محاكاة المشاعر البشرية بشكل كامل، إلا أنها قادرة على دعم الفهم العاطفي وتعزيز التفاعل البشري.
لذا.. فإنَّ تحقيق أقصى استفادة من هذا التكامل يتطلب توجيه التطور التكنولوجي نحو تعزيز القيم الإنسانية، وضمان الاستخدام الأخلاقي للابتكارات التقنية، بما يسهم في رفاهية المجتمعات واستدامة التطور ودعم مستقبل أكثر ذكاءً وإنسانيةً.