Google Photos تظهر وقت تعديل الصور باستخدام الذكاء الاصطناعي
تاريخ النشر: 26th, October 2024 GMT
أطلقت شركات التكنولوجيا الكبرى أدوات الذكاء الاصطناعي في جميع عروض البرامج الخاصة بها على مدار العام الماضي. ولكن مع تزايد سهولة التلاعب بالصور والفيديو باستخدام الذكاء الاصطناعي التوليدي، كانت هناك موجة ثانية من إطلاق سياسات مصاحبة لإعلام الأشخاص بشكل أفضل عندما يتم تطبيق هذه التكنولوجيا على المحتوى.
بعد إطلاق أدوات مثل Magic Editor في الربيع الماضي ودمج الذكاء الاصطناعي في محرر الفيديو الخاص بها الشهر الماضي، ستبدأ خدمة Google Photos في وضع علامات على المحتوى المرئي الذي تم تعديله باستخدام الذكاء الاصطناعي. كانت Google بالفعل تقوم بوضع علامات على الصور المعدلة بالذكاء الاصطناعي باستخدام البيانات الوصفية المقابلة، ولكن الآن سيصاحب الصور المعدلة بيان بلغة بسيطة. في المثال الذي شاركته الشركة في منشور مدونتها، يوجد قسم في أسفل شاشة تفاصيل الصورة بعنوان "معلومات الذكاء الاصطناعي". ثم يسرد هذا القسم رصيد أداة الذكاء الاصطناعي المستخدمة لتكييف الصورة. كما سيوضح متى تم تعديل الصورة باستخدام الذكاء الاصطناعي التوليدي أو عندما تكون الصورة عبارة عن مجموعة من عدة صور دون استخدام الذكاء الاصطناعي التوليدي، مثل ميزة Best Take. ستظهر اللغة الجديدة في Google Photos بدءًا من الأسبوع المقبل.
المصدر: بوابة الوفد
كلمات دلالية: باستخدام الذکاء الاصطناعی
إقرأ أيضاً:
الذكاء الاصطناعي.. حجرٌ لا يتعاطف!
مؤيد الزعبي
أغلب تطبيقات الذكاء الاصطناعي تعجبني شخصيًا، وأنتظر المزيد منها لتسهل حياتنا وأعمالنا وتقدم لنا نموذج جديد لحياتنا، ولكن ما لا يعجبني أن الذكاء الاصطناعي كما نقولها في العامية "مثل الحجر" لا يتعاطف مع ما يُعرض أمامه أو ما نطلبه منه، فحتى لو قام الذكاء الاصطناعي بتوليد صورة رومانسية فلن يتعاطف معها، وبنفس الدرجة لن يتعاطف مع مظلوم أو يكون لديه موقف من دولة معينة تقتل أطفال فيتبنى قضيتهم.
وماذا لو كان الذكاء الاصطناعي مكان الضابط السوفيتي ستانيسلاف بيتروف الذي شكك في صحة التهديد النووي الأمريكي فرفض الرد الفوري مما جنّب العالم كارثة نووية محتملة وتبين لاحقًا أنه كان تهديد خاطئ وعاطفته هي من أنقذت البشرية، وهنا أجد أن إشكالية تعاطف الذكاء الاصطناعي من عدمه إشكالية يصعب تحديد فيما إذا كانت إيجابية أم سلبية، ولهذا سوف أحاول أن اتناول هذا الجانب بشقيه من خلال هذا الطرح.
إشكاليتنا اليوم بسيطة طالما هي على ورق أي إنها لم تتحول لتطبيق عملي، وبما أننا نستعد لأن نوجد قاضي ذكاء اصطناعي فلن يأخذ هذا القاضي في حسبانه أن القاتل قد يكون بريئًا فبالنسبة له كل الأدلة ضده، بينما القاضي البشري قد يتعاطف مع أطروحة معينة فيأمر في المزيد من التحقيقات لتحقيق العدالة، وأيضًا لن تتعاطف السيارة الروبوت بأن تختار أن تصطدم هي بشجرة لحماية أروحا أبرياء يعبرون الشارع، ولن يتعاطف الذكاء الاصطناعي مع إنسان يريد حلًا لمشكلته العاطفية يتكلم عنها بحرقة قلب أو بوجع يفوق تصورات هذا الذكاء الاصطناعي وما تم برمجته عليه، وأيضًا لن تذرف له دمعة على مشاهد أطفال تقتل تحت ألة حرب جاثمة فبالنسبة له المعادلة مغايرة، وأيضًا لن يتعاطف مع مريض يتعذب من العلاج فيقرر أن الرحمة تستوجب عدم المحاولة مرة أخرى، ولن يتعاطف مع محاول للانتحار أو مريضًا نفسيًا بحاجة لم يتغلغل عاطفته؛ صحيح أن كل هذه السيناريوهات مازالت بعيدة إلا أننا يجب أن نفكر بها الآن ونحن نستعد لعصر الذكاء الاصطناعي لكي نأخذها بعين الاعتبار ونحن نبرمجه ونحن ندخله مجالاتنا وحياتنا وأنظمتنا ومدننا ومستشفياتنا وحتى قلوبنا وعقولنا.
في كثير من الأحيان يكون قرارنا المصيري كبشر مبني على عاطفة تجذبنا نحو طريق أو خيار معين، فالتفكير العاطفي جزء من مكوننا البشري وأجد أنه كان ومازال وسيظل نهجًا قويًا يحافظ على استمرارية بقاؤنا، في حين أننا نتطلع اليوم لأن نستبدل أنظمتنا الحالية بأنظمة ذكاء اصطناعي تعتمد على عقلانية خوارزمية إن صح التعبير لتكون بديلًا عن نظام إنساني عاش ملايين السنين، وفي الحقيقة لقد سألت الذكاء الاصطناعي نفسه فيما إذا كانت إشكالية طرحنا اليوم إيجابية أم سلبية فكانت هذه هي إجابته.
الجانب الإيجابي: عدم امتلاك الذكاء الاصطناعي للتعاطف يعني قدرته على تقديم قرارات وتحليلات موضوعية دون تأثير المشاعر الشخصية، مما يساعد في مجالات كالتشخيص الطبي، تحليل المخاطر، أو اتخاذ القرارات التجارية. التزام الذكاء الاصطناعي بالحياد في مثل هذه الحالات يقلل من احتمالية التحيز العاطفي الذي قد يؤثر على القرارات، مثل توجيه علاج معين أو اتخاذ خطوات استباقية في إدارة الأزمات، أما الجانب السلبي: ففي السياقات التي تحتاج إلى تفاعل إنساني وحساسية عالية، مثل دعم الصحة النفسية أو التواصل مع الأفراد المتأثرين بالكوارث، قد يبدو عدم وجود تعاطف لدى الذكاء الاصطناعي نقطة ضعف. التفاعل مع الأفراد الذين يمرون بصعوبات نفسية أو عاطفية يتطلب تفهمًا وتعاطفًا قد يعجز الذكاء الاصطناعي عن محاكاته بشكل كافٍ، وهذا يمكن أن يجعل الردود التي يقدمها باردة أو غير مناسبة.
نعم عزيزي القارئ الذكاء الاصطناعي قدم لنا إجابة نموذجية ولكنها هي الأخرى ليست عاطفية ولا تحمل أي تفكير عاطفي، وهناك ملايين الأسئلة التي نريد للعاطفة أن تكون جزء من إجاباتها، بينما نحن البشر سنحتاج لأن يتخلل الذكاء الاصطناعي جانبًا من التفكير العاطفي لأننا سنحتاجه كثيرًا في قادم الأيام خصوصًا وأن هناك الملايين من البشر ممن سيعتبرونه صديقًا وطبيبًا ومعلمًا وربما سيجد فيه البعض أمًا وأبًا وأخًا ومن الواجب أن يكون عاطفيًا في جزيئات معينة ليقدم لنا ما نحن بحاجة إليه في قادم الأيام، وبنفس الوقت يحافظ على العقلانية والحيادية المطلوبة منه والتي لا يمكننا نحن كبشر أن نصل لها، ولهذا أجد أنه على المطورين أن يطوروا وعي الذكاء الاصطناعي ليفهم الطبيعة التي هو بها ويختار ما يناسبها من عقلانية وعاطفة أو لأي درجة يكون عقلانيًا مقابل العاطفة ففي مواقف كثيرة قد نحتاج لأن تكون نسبة العقلانية هي الطاغية وفي أحيانًا كثيرة يجب أن تكون نسبة العاطفة هي الطاغية، والإنسان بخبراته وعلومه استطاع أن يُدرك هذه النسبة ويُجيد استخدامها وبهذه النقطة نحن كبشر نتفوق على الذكاء الاصطناعي ما لم يتم تطويره ليحقق هذه المعادلة بطريقة أفضل منا كبشر.
في النهاية عزيزي القارئ يجب أن أصارحك أن إشكالية اليوم هي واحدة من بين إشكاليات كثيرة يجب أن نضعها في الحسبان عندما نطور الذكاء الاصطناعي لما هو قادم، وهناك نماذج أعقد من الأمثلة التي ذكرتها تستوجب أن يكون الذكاء الاصطناعي عاطفيًا لدرجة عقلانية حتى يساعدنا ولا يقضي علينا.
رابط مختصر