أخبارنا:
2024-06-29@22:58:34 GMT

10 ميزات علىشات جي بي تي تصدم العالم في 2023

تاريخ النشر: 31st, December 2023 GMT

10 ميزات علىشات جي بي تي تصدم العالم في 2023

في عام مضطرب تميز بتحولات تكنولوجية عميقة، تصدر "شات جي بي تي" المشهد التقني بقوة، وأثر على قطاعات متنوعة وأدى إلى تطورات غير مسبوقة في هذه القطاعات.

فيما يلي مجموعة من الطرق التي أثر فيها "شات جي بي تي" على العالم في عام 2023، وفق ما أورد موقع "كريبتو بوليتان" الإلكتروني:

 
ظهور الروايات الوهمية

كان صعود "شات جي بي تي" إلى الواجهة بمثابة بداية حقبة جديدة تتميز بارتفاع في الروايات المضللة، مما أدى إلى انتشار واسع النطاق للتزييف العميق والمعلومات المضللة.



إن إمكانية هذه التكنولوجيا، منحت البعض القدرة على ممارسة التأثير على الأحداث العالمية، مثل تلفيق حوارات سياسية وهمية تماماً.

وأكدت هذه الحالات على الضرورة الحتمية للشفافية ليس فقط في جوهر المعلومات، ولكن أيضاً في أصولها، خاصة في عصر يهيمن فيه استهلاك الأخبار الرقمية.

 
التحقق من الأصالة

نظراً لأن عالم المحتوى الذي تم إنشاؤه بواسطة الذكاء الاصطناعي أدى إلى طمس الحدود التي كانت واضحة سابقاً بين الأصالة والتزييف، فقد وجد المشهد الإعلامي نفسه يخضع لتحول نموذجي عميق.

واتخذت العلامات التجارية المحترمة، موقفاً إيجابياً من خلال الاعتراف بالقصص الإخبارية التي يولدها الذكاء الاصطناعي، مما ولد العديد من الاستفسارات بشأن الحاجة الملحة إلى مبادئ توجيهية قابلة للتطبيق عالمياً.

وأظهرت المساعي الاستراتيجية الرامية إلى التحقق من أصول المحتوى، كما تجسدت في مبادرات مثل "التحالف من أجل مصدر المحتوى وأصالته"، مساراً واعداً.

 
رسم مسار عالمي لسلامة الذكاء الاصطناعي

أدى الصعود السريع لـ "شات جي بي تي" إلى تقارب دبلوماسي تاريخي، حيث جمع 29 دولة ومنظمة في قمة سلامة الذكاء الاصطناعي في المملكة المتحدة.

وشدد الإعلان الصادر عن القمة، على الإمكانات التحويلية للذكاء الاصطناعي مع التعهد بالالتزام بإعطاء الأولوية لنشره المسؤول.

وأدى هذا الحدث التاريخي إلى إنشاء معاهد سلامة الذكاء الاصطناعي في كل من المملكة المتحدة والولايات المتحدة، حيث سعت الحكومات في جميع أنحاء العالم إلى تنظيم ومراقبة تأثير الذكاء الاصطناعي على المجتمع.

 
الحكومات تحشد جهودها من أجل سلامة الذكاء الاصطناعي

أدى استيعاب "شات جي بي تي" على نطاق واسع في مختلف القطاعات إلى تسريع الجهود الحكومية المتعلقة بسلامة الذكاء الاصطناعي، إذ انبثقت الأطر التنظيمية، من كيانات بارزة مثل الاتحاد الأوروبي، والصين، والولايات المتحدة، والمملكة المتحدة.

وقد تم تصميم هذه الأطر بشكل معقد لإعطاء الأولوية للنشر الواعي والآمن لتقنيات الذكاء الاصطناعي، والتأكيد على الالتزام الجماعي بالممارسات المسؤولة.

وفي الوقت نفسه، تم التوصل إلى اتفاقيات غير ملزمة ومواثيق إقليمية، مما أدى إلى تضخيم الحاجة الملحة إلى معالجة سلامة الذكاء الاصطناعي ضمن البيئة الديناميكية للمشهد التكنولوجي سريع التقدم.

 
إعادة تحديد الاستراتيجيات في مجال الأمن الداخلي والحرب

نظراً لبراعة "شات جي بي تي" التحليلية، أنشأت وزارة الدفاع الأمريكية فريق عمل متخصصاً في الذكاء الاصطناعي لاستكشاف التطبيقات الإستراتيجية والمسؤولة في الحرب الحديثة. وتضمنت المحادثات الاستفادة من الذكاء الاصطناعي لتقييم المخاطر وتقييم الاستخبارات وتبسيط العمليات العسكرية.

وبينما استمرت المخاوف بشأن الحرب التي تتمحور حول الذكاء الاصطناعي، أكد الخبراء على الدور الذي لا غنى عنه للرقابة البشرية في تنفيذ الخطط التي ينشئها الذكاء الاصطناعي.

 
تطور بيئات العمل واضطرابات العمل

كان ظهور قدرات الذكاء الاصطناعي التوليدية بمثابة الحافز لمداولات مكثفة بشأن المسار المحتمل لسوق العمل، وهو الخطاب الذي تتخلله غالباً عناوين رئيسية تتنبأ بشكل مشؤوم باضطرابات واسعة النطاق في تشغيل العمالة.

وجدت الشركات نفسها تواجه المهمة المعقدة المتمثلة في دمج الذكاء الاصطناعي بسلاسة في عملياتها، والتنقل عبر تضاريس الشفافية الدقيقة.

وفي الوقت نفسه، تم وضع تقديم "شات جي بي تي 4" كمناورة استراتيجية لتبسيط وتسريع استيعاب تقنيات الذكاء الاصطناعي ضمن الأطر التنظيمية.

ويتصور هذا التحول النموذجي وجود علاقة تكافلية بين الذكاء الاصطناعي والعاملين من البشر، مما يستلزم بالتالي إيجاد توازن دقيق بين تعزيز الابتكار وضمان الحفاظ على الأمن الوظيفي.

 
مواجهة التحيز تحدٍّ مستمر

مع صعود "شات جي بي تي"، اكتسبت قضية التحيز في الذكاء الاصطناعي أهمية كبيرة.

واعترفت شركة "أوبن إيه آي" بوجود تحيزات في استجابات "شات جي بي تي"، مؤكدة الأبحاث الجارية للتخفيف من هذه التحيزات.

وأدى التركيز المكثف على الذكاء الاصطناعي والتحيز إلى إطلاق مبادرات مثل مؤشر الشفافية النموذجي لمؤسسة جامعة ستانفورد، والذي يقيم شفافية شركات التكنولوجيا الكبرى في تدريب نماذج الذكاء الاصطناعي.

 
تحديات الأمن السيبراني

قدم الاستخدام الواسع النطاق لـ "شات جي بي تي" تحديات جديدة لخبراء الأمن السيبراني، حيث توقعوا هجمات مبتكرة يمكن أن تؤدي إلى تقويض التدابير الأمنية التقليدية.

واستخدم مجرمو الإنترنت الذكاء الاصطناعي لأتمتة الهجمات، مما جعل محاولات التصيد الاحتيالي أكثر تعقيداً.

وعلى الرغم من التحديات، وجد محللو الأمن السيبراني فرصاً لاستخدام الذكاء الاصطناعي، بما في ذلك "شات جي بي تي"، في تحديد نقاط الضعف والمساعدة في اختبار الاختراق.

 
المشهد التعليمي في عصر "شات جي بي تي"

أدى الدمج السريع لـ "شات جي بي تي" في البيئات التعليمية إلى سلسلة من الاستفسارات المحيطة بدمج الذكاء الاصطناعي داخل الفصول الدراسية.

وأدرك الطلاب الفائدة المحتملة لـ "شات جي بي تي"، فطلبوا مساعدتها بشكل متزايد في إنشاء المهام، وبالتالي دفع المعلمين إلى المهمة المعقدة المتمثلة في التأقلم مع مشهد تربوي جديد تماماً.

وأكد الخطاب الذي أعقب ذلك حول التطبيقات المسموح بها لأدوات الذكاء الاصطناعي التوليدية، الضرورة الحتمية لسياسات محددة جيداً.

ووجد المعلمون أنفسهم يتصارعون مع التحدي المعقد المتمثل في إعادة تقييم الأساليب التقليدية لتقييم تعلم الطلاب، لا سيما ضمن نموذج يقف فيه الذكاء الاصطناعي على أهبة الاستعداد لتقديم حلول فورية، مما يستلزم اتباع نهج مدروس ودقيق في التعامل مع البيئة التعليمية المتطورة.

 
معضلة حقوق الطبع والنشر وحدود الذكاء الاصطناعي

أدى دمج "شات جي بي تي" في العمليات الإبداعية إلى مشهد قانوني معقد حول ملكية حقوق الطبع والنشر.

وأثيرت أسئلة حول أصالة المحتوى الناتج عن الذكاء الاصطناعي ومسؤولية كيانات الذكاء الاصطناعي.

وسلطت الدعوى القضائية التي رفعتها صحيفة نيويورك تايمز ضد "أوبن إيه آي" ومايكروسوفت الضوء على تحديات حقوق الطبع والنشر.

المصدر: أخبارنا

كلمات دلالية: سلامة الذکاء الاصطناعی شات جی بی تی أدى إلى

إقرأ أيضاً:

5 طرق للكشف عن التزييف العميق لمستخدمي تقنيات الذكاء الاصطناعي

مع التقدم التكنولوجي وتطور أدوات الذكاء الاصطناعي نكتشف كل يومٍ تقنيات جديدة تساعد على تسهيل المهام اليومية، ومن بينها تقنية «التزييف العميق»، التي كانت تستخدم في إنتاج الإعمال الإبداعية أو للتسلية، لكنها بدأت في الانتشار بشكلٍ متزايد في حملات التضليل والاحتيال، وتشويه سمعة المشاهير، لذا عملت الحكومات على مواجهة هذه التقنية ووضع آليات لكشفها.

وكشف مركز معلومات مجلس الوزراء، عن 5 طرق للكشف عن التزييف العميق لمستخدمي تقنيات الذكاء الاصطناعي، وذلك وفق تحليل صادر عنه تناول من خلاله التقنية بدءًا من زيادة اعتماد المستخدمين على تقنيات الذكاء الاصطناعي.

طرق للكشف عن التزييف العميق

وأوضح المركز أنّ هناك 5 طرق للكشف عن التزييف العميق لمستخدمي تقنيات الذكاء الاصطناعي، تتمثل فيما يلي:

- منصة Sentinel: تسمح للمستخدمين بتحميل الوسائط الرقمية ثم تحليلها تلقائيًّا؛ للتعرف على مدى صحة هذه الوسائط، ويُستخدم هذا الصدد خوارزميات ذكاء اصطناعي متقدمة؛ لتحديد ما إذا كان تمّ التلاعب بها أم لا.

- كاشف التزييف العميق من إنتل في الوقت الحقيقي FakeCatcher: تُمكن هذه التقنية من اكتشاف مقاطع الفيديو المزيفة بمعدل دقة يبلغ 96%، ما يؤدي إلى إرجاع النتائج في أجزاء من الثانية.

وتعمل هذه التقنية بما يسمى «تدفق الدم»، إذ إنّه عند تحدث الشخص في أي مقطع فيديو يتغير لون العروق نتيجة تدفق الدم من القلب، فتجمع التقنية إشارات تدفق الدم هذه من جميع أنحاء الوجه وتترجم الخوارزميات هذه الإشارات إلى خرائط زمانية مكانية، ويتم بعد ذلك اكتشاف مدى مصداقية الفيديو.

- نحن نتحقق WeVerify: تحلل الوسائط الاجتماعية ووضعها في سياق النظام البيئي الأوسع على شبكة الإنترنت، كما أنّه يعتمد على قاعدة بيانات عامة قائمة على blockchain للمزيفات المعروفة.

- أداة مصادقة الفيديو من Microsoft: يمكن من خلال هذه الأداة تحليل مقطع فيديو أو صورة ثابتة، إضافة إلى تحليل عناصر التزييف العميق والعناصر الرمادية الدقيقة التي لا يُمكن اكتشافها بالعين البشرية بشكل فوري.

- استخدام عدم التطابق Phoneme-Viseme: تستغل هذه التقنية حقيقة أن البصمات، التي تشير إلى ديناميكيات شكل الفم، تكون أحيانًا مختلفة أو غير متوافقة مع الصوت المنطوق. ويعد هذا التناقض عيب في التزييف العميق. لذا تعتمد هذه التقنية على خوارزميات متقدمة للذكاء الاصطناعي لتحليل الفيديو واكتشاف التناقضات.

التزييف العميق تقنية مثيرة للجدل

وأوضح التحليل أن «التزييف العميق» يظهر بوصفه تقنية «مثيرة للجدل» تجمع بين الإبداع الفني والتحديات الأخلاقية والأمنية، ورغم فوائد استخدامه في العديد من المجالات مثل الفن والتسلية والتعلم والطب، فإنّ القلق الأساسي يبقى حول استخدامه في التلاعب بالمعلومات والتأثير في الرأي العام، لذا، يتطلب الأمر تحديد وتطوير استراتيجيات مبتكرة لمواجهة هذه التحديات بشكل فعّال، سواء عبر تطوير تقنيات الكشف عن التزييف أو تعزيز الوعي الجماهيري بمخاطره.

وفي النهاية، يبقى التوازن بين التقدم التكنولوجي والحفاظ على الأمان والنزاهة واحدًا من أهم التحديات التي تواجهنا في عصر التزييف العميق.

مقالات مشابهة

  • سنغافورة تسعى لاستقطاب شركات الذكاء الاصطناعي من الصين
  • هل أثر الذكاء الاصطناعي على معدلات التوظيف في الولايات المتحدة؟
  • الجابر: الترابط بين الذكاء الاصطناعي والطاقة ضروري
  • دعوى قضائية ضد OpenAI وMicrosoft
  • 45 طالباً في برنامج تدريبي بجامعة محمد بن زايد للذكاء الاصطناعي
  • معلومات الوزراء: 254.8 مليون شخص استخدموا أدوات الذكاء الاصطناعي عالميا عام 2023
  • هل اقترب عصر الذكاء الاصطناعي الواعي؟
  • 5 طرق للكشف عن التزييف العميق لمستخدمي تقنيات الذكاء الاصطناعي
  • «معلومات الوزراء»: 254.8 مليون شخص استخدموا أدوات الذكاء الاصطناعي في 2023
  • معلومات الوزراء: 254.8 مليون شخص استخدموا أدوات الذكاء الاصطناعي عالمياً عام 2023