Copilot.. كل ما تحتاج معرفته عن أدوات الذكاء الاصطناعي من مايكروسوفت
تاريخ النشر: 19th, April 2025 GMT
احتفالًا بـ50 عامًا من الابتكار، تتصدر مايكروسوفت الآن سباق الذكاء الاصطناعي، وتقدم "Copilot" كمساعد رقمي ذكي مدمج في جميع تطبيقاتها.
ما هو Microsoft Copilot؟"كوبيلوت" هو الاسم الذي أطلقته مايكروسوفت على مجموعة من الأدوات المدعومة بالذكاء الاصطناعي والمضمنة عبر نظامها البيئي، بدءًا من Windows 11 وEdge وBing، وصولًا إلى Microsoft 365، وGitHub، وأدوات الأمان، وحتى تطبيقات الهواتف الذكية.
بفضل شراكتها الاستراتيجية مع OpenAI، تم تزويد Copilot بنماذج لغوية قوية مثل GPT-4o وDALL·E 3، بالإضافة إلى نموذج Prometheus المطوّر داخليًا لدى مايكروسوفت.
في Windows 11، يظهر "كوبيلوت" كمساعد جانبي في شريط المهام، يتيح للمستخدم تنفيذ أوامر مثل تغيير الإعدادات، البحث عن الملفات، أو تفريغ سلة المهملات. أما في Edge، فيساعد في تلخيص المقالات ومقارنة المنتجات أثناء التصفح.
أما داخل Microsoft 365، فيعمل كأداة إنتاجية ذكية، ففي Word يصيغ النصوص ويعدلها ويقوم بتلخيصها، وفي برنامج Excel ينشئ الصيغ، يحلل البيانات، ويرسم المخططات.
اما في PowerPoint فيصنع عروضًا تقديمية انطلاقًا من ملفات نصية أو أوامر صوتية.
كما يستخدم كوبيلوت في Outlook حيث يكتب رسائل البريد الإلكتروني ويختصر المحادثات، كما يستخدم ايضًا في برنامج Teams حيث يلخص الاجتماعات ويوفر سياق المحادثات.
الفرق بين Copilot وباقي روبوتات الذكاء الاصطناعيعلى غرار ChatGPT وGemini من غوغل، يعد "كوبيلوت" روبوت دردشة ذكي. ولكن ما يميّزه هو تكامله العميق داخل التطبيقات، إذ يتفاعل مباشرة مع بيانات المستخدم ومحتواه، ما يقلل من الخطوات ويزيد من الكفاءة.
بالمقارنة، روبوتات مثل ChatGPT وClaude تعمل بشكل منفصل عن تطبيقات الإنتاجية، ما يجعل "Copilot" أكثر تكاملاً لمن يستخدم بيئة مايكروسوفت.
ماذا عن الخصوصية؟ هل يجب أن نقلق؟يشير الدكتور أشيك خضابخش، أستاذ هندسة البرمجيات في معهد روتشستر للتكنولوجيا، إلى أن أدوات الذكاء الاصطناعي ليست بطبيعتها انتهاكية، إذ تم تطوير العديد منها وفقًا لمبادئ "الخصوصية حسب التصميم".
ومع ذلك، يحذر من مخاطر "تسرب البيانات" بين الأنظمة المختلفة، ويشدد على أهمية أن يكون المستخدم واعيًا لما يوافق عليه عند تحميل التطبيقات أو تفعيل المزايا.
خاصية "Recall": الخطوة المثيرة للجدلواحدة من أكثر مزايا "Copilot" إثارة للجدل كانت ميزة Recall، التي تلتقط صورًا (snapshots) للشاشة لمساعدتك في استرجاع ما شاهدته لاحقًا.
رغم أن الميزة تعمل محليًا على الجهاز ولا تُرسل أي بيانات لمايكروسوفت، إلا أن المخاوف من "الرقابة الرقمية" دفعت الشركة إلى سحبها مؤقتًا، على أن تبدأ بإعادة إطلاقها تدريجيًا في نسخة المعاينة.
مزايا وتحديثات جديدة في 2024أعلنت مايكروسوفت مؤخرًا عن مزايا جديدة تشمل، تتبع أسعار المنتجات في الوقت الفعلي للمستخدمين في الولايات المتحدة.
بالاضافة إلى تكامل "كوبيلوت" مع تطبيقات الدردشة مثل WhatsApp وTelegram وViber علاةى على تحديث النموذج إلى OpenAI o3-mini.
علاوة على ودود ميزة Copilot Vision لتحليل الصور على الهاتف مباشرة.
هل تستحق "Copilot" التجربة؟يمثل "كوبيلوت" نقلة نوعية في كيفية استخدام الذكاء الاصطناعي داخل التطبيقات اليومية. فهو لا يهدف فقط إلى تسريع العمل، بل يخفف من أعباء المهام الروتينية، ويمنح المستخدم تجربة إنتاجية أكثر سلاسة.
ورغم أن الأداة ليست مثالية وقد تقع في "الهلوسة" أحيانًا، إلا أنها من أفضل مساعدي الذكاء الاصطناعي المتاحة حاليًا، خاصةً إذا كنت تعمل ضمن بيئة مايكروسوفت.
المصدر: صدى البلد
كلمات دلالية: المزيد الذکاء الاصطناعی
إقرأ أيضاً:
كيف أصبحت غزة ساحة لتطوير الاحتلال قدرات الذكاء الاصطناعي وتجريبه؟
كشف تقرير نشرته صحيفة "نيويورك تايمز"، عن مدى توغل التكنولوجيا المتقدمة، وخاصة الذكاء الاصطناعي، في العمليات العسكرية الإسرائيلية خلال حربها المستمرة على قطاع غزة.
وأوضح التقرير الذي ترجمته "عربي21"، أن الاحتلال الإسرائيلي اعتمد بشكل متزايد على أدوات وتقنيات الذكاء الاصطناعي لتحقيق تفوق نوعي في ميدان المعركة، وهو ما أدى في بعض الأحيان إلى نتائج قاتلة طالت المدنيين.
وأشار التقرير إلى أن أبرز مثال على هذا الاستخدام جاء في أواخر عام 2023، عندما حاولت القوات الإسرائيلية اغتيال إبراهيم البياري، أحد القادة البارزين في حركة حماس. ونظراً لصعوبة تحديد مكانه الفعلي، نظراً لاحتمال اختبائه في شبكة الأنفاق المنتشرة تحت غزة، لجأ جيش الاحتلال الإسرائيلي إلى تقنية تحليل صوتي مدعومة بالذكاء الاصطناعي، كانت قد طُورت قبل نحو عقد من الزمن لكنها لم تُستخدم في ساحات القتال من قبل.
وبحسب مصادر أمريكية وإسرائيلية مطلعة تحدثت للصحيفة، فقد تولى مهندسون في الوحدة 8200، المكافئة الإسرائيلية لوكالة الأمن القومي الأمريكية، تطوير الأداة ودمجها بتقنيات ذكاء اصطناعي متقدمة.
وتم تحليل مكالمات البياري، واعتمادا على تلك البيانات الصوتية، قامت قوات الاحتلال الإسرائيلي بشن غارة جوية في 31 تشرين الأول/أكتوبر 2023 استهدفت الموقع المشتبه به. غير أن الغارة، التي فشلت في قتل البياري، أسفرت عن استشهاد 125 مدنيا، بحسب منظمة "إيروورز" المعنية بتوثيق ضحايا الحروب.
ويمثل هذا الهجوم، وفق التقرير، نموذجاً مصغراً لطريقة استخدام إسرائيل لتقنيات الذكاء الاصطناعي في حربها ضد غزة، حيث دمجت هذه التقنيات بمجالات متعددة تشمل التعرف على الوجوه، وتحليل البيانات النصية، وتحديد الأهداف العسكرية المحتملة. وقد أشارت مصادر الصحيفة إلى أن عمليات تطوير هذه الأدوات جرت عبر تعاون وثيق بين ضباط الوحدة 8200 وعدد من جنود الاحتياط العاملين في شركات تكنولوجية كبرى مثل غوغل، مايكروسوفت، وميتا.
وتحدث التقرير عن إنشاء ما يعرف بـ"الاستوديو"، وهو مركز ابتكار تابع للوحدة 8200، يهدف إلى تسريع إنتاج وتطبيق أدوات الذكاء الاصطناعي في العمليات العسكرية. وبيّن أن نشر هذه الترسانة التكنولوجية أدى أحياناً إلى نتائج كارثية، منها أخطاء في تحديد الهوية، واعتقالات عشوائية، بل ووقوع ضحايا مدنيين، وهو ما أثار تساؤلات أخلاقية لدى مسؤولين عسكريين إسرائيليين وأمريكيين على حد سواء.
وفي هذا السياق، قالت هاداس لوربر، المديرة السابقة لمجلس الأمن القومي الإسرائيلي ورئيسة معهد الأبحاث التطبيقية في الذكاء الاصطناعي، إن "وتيرة الابتكار تسارعت تحت وطأة الحاجة الملحة للرد على التهديدات"، مشيرة إلى أن هذه الابتكارات التقنية منحت الجيش الإسرائيلي "مزايا استراتيجية"، لكنها "أثارت أيضاً قضايا أخلاقية جوهرية تتطلب وجود ضوابط صارمة".
ورغم امتناع جيش الاحتلال الإسرائيلي عن التعليق المباشر على هذه التقنيات لأسباب تتعلق بالسرية، إلا أن مصادر التقرير كشفت أن الجيش أطلق تحقيقاً داخلياً في الغارة التي استهدفت البياري. أما شركات التكنولوجيا التي ذُكر أن موظفيها شاركوا في هذه الجهود ضمن صفوف جنود الاحتياط، فقد رفض معظمها التعليق، بينما قالت شركة غوغل إن مشاركة موظفيها "لا علاقة لها بمهامهم داخل الشركة".
ويذكر التقرير أن الاحتلال الإسرائيلي دأب على استغلال الحروب، خاصة في غزة ولبنان، كمنصات لاختبار وتطوير قدراتها التكنولوجية، مثل الطائرات بدون طيار، وأدوات اختراق الهواتف، ونظام الدفاع الصاروخي "القبة الحديدية".
ومنذ 7 تشرين الأول/ أكتوبر، فتح الاحتلال المجال أمام استخدام واسع النطاق لتقنيات الذكاء الاصطناعي بالتعاون مع الوحدات العسكرية المختصة.
كما طوّر جيش الاحتلال الإسرائيلي نموذجاً لغوياً كبيراً باللغة العربية، أنشئ لتشغيل روبوت محادثة قادر على تحليل الرسائل النصية، ومنشورات وسائل التواصل الاجتماعي، وغير ذلك من البيانات. وتم تغذيته بكم هائل من البيانات التي جمعت خلال سنوات من المراقبة الإلكترونية، مما مكنه من تمييز اللهجات المختلفة وتحليل ردود الفعل العامة، كما حدث بعد اغتيال حسن نصر الله في أيلول/سبتمبر الماضي، وفق ما أفاد به ضباط إسرائيليون للصحيفة.
إلا أن النموذج لم يكن خالياً من العيوب، إذ فشل أحياناً في تفسير بعض المصطلحات العامية، أو أخطأ في فهم المحتوى البصري، ما تطلب تدخل ضباط مخضرمين لتصحيح هذه الأخطاء. وعلى الأرض، زودت إسرائيل نقاط التفتيش المؤقتة في غزة بكاميرات مدعومة بتقنيات التعرف على الوجه، لكنها أخفقت أحياناً في التعرف على الأشخاص بدقة، ما تسبب في اعتقال مدنيين عن طريق الخطأ.
ومن بين الأدوات التي أثارت جدلاً أيضاً، خوارزمية "لافندر"، وهي أداة تعلم آلي صممت لتحديد المقاتلين منخفضي الرتب في حماس، لكنها كانت غير دقيقة، ومع ذلك استخدمت لتحديد أهداف في بداية الحرب.
ويخلص التقرير إلى أن هذه التجارب التقنية، رغم ما توفره من قدرات عسكرية متقدمة، قد تؤدي إلى تسريع وتيرة العنف وسقوط ضحايا من المدنيين، في وقت لم تُحسم فيه بعد الأسئلة الأخلاقية الكبرى المرتبطة باستخدام الذكاء الاصطناعي في ميادين الحروب.