التحقيق مع ألفابت لاستثمار 2.3 مليار دولار في الذكاء الاصطناعي
تاريخ النشر: 27th, October 2024 GMT
تتحقق هيئة المنافسة في المملكة المتحدة من استثمار Alphabet في شركة Anthropic الناشئة للذكاء الاصطناعي.
بعد فتح التعليقات العامة هذا الصيف، قالت هيئة المنافسة والسوق (CMA) يوم الخميس إنها تمتلك "معلومات كافية" لبدء تحقيق أولي فيما إذا كان استثمار Alphabet البالغ 2.3 مليار دولار في شركة Claude AI chatbot يضر بالمنافسة في أسواق المملكة المتحدة.
تقسم هيئة المنافسة والسوق تحقيقاتها في الاندماج إلى مرحلتين: فحص أولي لتحديد ما إذا كان هناك ما يكفي من الأدلة للبحث بشكل أعمق ومرحلة ثانية اختيارية حيث تجمع الحكومة أكبر قدر ممكن من الأدلة. بعد المرحلة الثانية، تقرر في النهاية النتيجة التنظيمية.
سيبدأ التحقيق رسميًا يوم الجمعة. بحلول 19 ديسمبر، ستختار هيئة المنافسة والسوق ما إذا كانت ستنتقل إلى تحقيق المرحلة الثانية.
أخبرت جوجل Engadget أن Anthropic ليست مقيدة بخدماتها السحابية. "إن شركة جوجل ملتزمة ببناء أكثر أنظمة الذكاء الاصطناعي انفتاحًا وإبداعًا في العالم"، كتب متحدث باسم الشركة في رسالة بريد إلكتروني. "إن شركة Anthropic حرة في استخدام العديد من مزودي الخدمات السحابية، ولا نطالب بحقوق تقنية حصرية". كما تواصلت Engadget مع CMA للتعليق، وسنقوم بتحديث هذه القصة إذا سمعنا ردًا.
يلاحظ TechCrunch أن Alphabet استثمرت 300 مليون دولار في Anthropic في أوائل عام 2023. وفي وقت لاحق من ذلك العام، قيل إنها تدعم شركة الذكاء الاصطناعي الناشئة بمبلغ إضافي قدره 2 مليار دولار. يمكن تصنيف مثل هذه المواقف على أنها "اندماج شبه كامل"، حيث تتولى شركات التكنولوجيا ذات الجيوب العميقة السيطرة بشكل أساسي على الشركات الناشئة الناشئة من خلال الاستثمارات الاستراتيجية وتوظيف المؤسسين والعمال الفنيين.
استثمرت أمازون المزيد في Anthropic: 4 مليارات دولار. بعد فترة التعليق العام الأولية، رفضت CMA التحقيق في هذا الاستثمار الشهر الماضي. قالت هيئة المنافسة والأسواق إن أمازون تجنبت مصير ألفابت جزئيًا على الأقل بسبب قواعدها الحالية: لم يتجاوز حجم أعمال أنثروبيك في المملكة المتحدة 70 مليون جنيه إسترليني، ولم يتحد الطرفان ليشكلا 25 في المائة أو أكثر من إمدادات المنطقة (في هذه الحالة، برامج الماجستير في الذكاء الاصطناعي والروبوتات).
وعلى الرغم من أن هيئة المنافسة والأسواق لم تحدد ذلك، فإن شيئًا ما في استثمار ألفابت البالغ 2.3 مليار دولار في أنثروبيك يشكل غوصًا أعمق. بالطبع، تتنافس جيميني من جوجل مع كلود، وكلا الشركتين تصنعان نماذج لغوية كبيرة توفرها للشركات الصغيرة وعملاء المؤسسات.
المصدر: بوابة الوفد
كلمات دلالية: الذکاء الاصطناعی هیئة المنافسة ملیار دولار دولار فی
إقرأ أيضاً:
الذكاء الاصطناعي.. حجرٌ لا يتعاطف!
مؤيد الزعبي
أغلب تطبيقات الذكاء الاصطناعي تعجبني شخصيًا، وأنتظر المزيد منها لتسهل حياتنا وأعمالنا وتقدم لنا نموذج جديد لحياتنا، ولكن ما لا يعجبني أن الذكاء الاصطناعي كما نقولها في العامية "مثل الحجر" لا يتعاطف مع ما يُعرض أمامه أو ما نطلبه منه، فحتى لو قام الذكاء الاصطناعي بتوليد صورة رومانسية فلن يتعاطف معها، وبنفس الدرجة لن يتعاطف مع مظلوم أو يكون لديه موقف من دولة معينة تقتل أطفال فيتبنى قضيتهم.
وماذا لو كان الذكاء الاصطناعي مكان الضابط السوفيتي ستانيسلاف بيتروف الذي شكك في صحة التهديد النووي الأمريكي فرفض الرد الفوري مما جنّب العالم كارثة نووية محتملة وتبين لاحقًا أنه كان تهديد خاطئ وعاطفته هي من أنقذت البشرية، وهنا أجد أن إشكالية تعاطف الذكاء الاصطناعي من عدمه إشكالية يصعب تحديد فيما إذا كانت إيجابية أم سلبية، ولهذا سوف أحاول أن اتناول هذا الجانب بشقيه من خلال هذا الطرح.
إشكاليتنا اليوم بسيطة طالما هي على ورق أي إنها لم تتحول لتطبيق عملي، وبما أننا نستعد لأن نوجد قاضي ذكاء اصطناعي فلن يأخذ هذا القاضي في حسبانه أن القاتل قد يكون بريئًا فبالنسبة له كل الأدلة ضده، بينما القاضي البشري قد يتعاطف مع أطروحة معينة فيأمر في المزيد من التحقيقات لتحقيق العدالة، وأيضًا لن تتعاطف السيارة الروبوت بأن تختار أن تصطدم هي بشجرة لحماية أروحا أبرياء يعبرون الشارع، ولن يتعاطف الذكاء الاصطناعي مع إنسان يريد حلًا لمشكلته العاطفية يتكلم عنها بحرقة قلب أو بوجع يفوق تصورات هذا الذكاء الاصطناعي وما تم برمجته عليه، وأيضًا لن تذرف له دمعة على مشاهد أطفال تقتل تحت ألة حرب جاثمة فبالنسبة له المعادلة مغايرة، وأيضًا لن يتعاطف مع مريض يتعذب من العلاج فيقرر أن الرحمة تستوجب عدم المحاولة مرة أخرى، ولن يتعاطف مع محاول للانتحار أو مريضًا نفسيًا بحاجة لم يتغلغل عاطفته؛ صحيح أن كل هذه السيناريوهات مازالت بعيدة إلا أننا يجب أن نفكر بها الآن ونحن نستعد لعصر الذكاء الاصطناعي لكي نأخذها بعين الاعتبار ونحن نبرمجه ونحن ندخله مجالاتنا وحياتنا وأنظمتنا ومدننا ومستشفياتنا وحتى قلوبنا وعقولنا.
في كثير من الأحيان يكون قرارنا المصيري كبشر مبني على عاطفة تجذبنا نحو طريق أو خيار معين، فالتفكير العاطفي جزء من مكوننا البشري وأجد أنه كان ومازال وسيظل نهجًا قويًا يحافظ على استمرارية بقاؤنا، في حين أننا نتطلع اليوم لأن نستبدل أنظمتنا الحالية بأنظمة ذكاء اصطناعي تعتمد على عقلانية خوارزمية إن صح التعبير لتكون بديلًا عن نظام إنساني عاش ملايين السنين، وفي الحقيقة لقد سألت الذكاء الاصطناعي نفسه فيما إذا كانت إشكالية طرحنا اليوم إيجابية أم سلبية فكانت هذه هي إجابته.
الجانب الإيجابي: عدم امتلاك الذكاء الاصطناعي للتعاطف يعني قدرته على تقديم قرارات وتحليلات موضوعية دون تأثير المشاعر الشخصية، مما يساعد في مجالات كالتشخيص الطبي، تحليل المخاطر، أو اتخاذ القرارات التجارية. التزام الذكاء الاصطناعي بالحياد في مثل هذه الحالات يقلل من احتمالية التحيز العاطفي الذي قد يؤثر على القرارات، مثل توجيه علاج معين أو اتخاذ خطوات استباقية في إدارة الأزمات، أما الجانب السلبي: ففي السياقات التي تحتاج إلى تفاعل إنساني وحساسية عالية، مثل دعم الصحة النفسية أو التواصل مع الأفراد المتأثرين بالكوارث، قد يبدو عدم وجود تعاطف لدى الذكاء الاصطناعي نقطة ضعف. التفاعل مع الأفراد الذين يمرون بصعوبات نفسية أو عاطفية يتطلب تفهمًا وتعاطفًا قد يعجز الذكاء الاصطناعي عن محاكاته بشكل كافٍ، وهذا يمكن أن يجعل الردود التي يقدمها باردة أو غير مناسبة.
نعم عزيزي القارئ الذكاء الاصطناعي قدم لنا إجابة نموذجية ولكنها هي الأخرى ليست عاطفية ولا تحمل أي تفكير عاطفي، وهناك ملايين الأسئلة التي نريد للعاطفة أن تكون جزء من إجاباتها، بينما نحن البشر سنحتاج لأن يتخلل الذكاء الاصطناعي جانبًا من التفكير العاطفي لأننا سنحتاجه كثيرًا في قادم الأيام خصوصًا وأن هناك الملايين من البشر ممن سيعتبرونه صديقًا وطبيبًا ومعلمًا وربما سيجد فيه البعض أمًا وأبًا وأخًا ومن الواجب أن يكون عاطفيًا في جزيئات معينة ليقدم لنا ما نحن بحاجة إليه في قادم الأيام، وبنفس الوقت يحافظ على العقلانية والحيادية المطلوبة منه والتي لا يمكننا نحن كبشر أن نصل لها، ولهذا أجد أنه على المطورين أن يطوروا وعي الذكاء الاصطناعي ليفهم الطبيعة التي هو بها ويختار ما يناسبها من عقلانية وعاطفة أو لأي درجة يكون عقلانيًا مقابل العاطفة ففي مواقف كثيرة قد نحتاج لأن تكون نسبة العقلانية هي الطاغية وفي أحيانًا كثيرة يجب أن تكون نسبة العاطفة هي الطاغية، والإنسان بخبراته وعلومه استطاع أن يُدرك هذه النسبة ويُجيد استخدامها وبهذه النقطة نحن كبشر نتفوق على الذكاء الاصطناعي ما لم يتم تطويره ليحقق هذه المعادلة بطريقة أفضل منا كبشر.
في النهاية عزيزي القارئ يجب أن أصارحك أن إشكالية اليوم هي واحدة من بين إشكاليات كثيرة يجب أن نضعها في الحسبان عندما نطور الذكاء الاصطناعي لما هو قادم، وهناك نماذج أعقد من الأمثلة التي ذكرتها تستوجب أن يكون الذكاء الاصطناعي عاطفيًا لدرجة عقلانية حتى يساعدنا ولا يقضي علينا.
رابط مختصر