DW عربية:
2024-11-07@11:31:21 GMT

وجهة نظر: كيف تتعامل DW مع الذكاء الاصطناعي؟

تاريخ النشر: 22nd, September 2023 GMT

يمكن أن تقدم الروبوتات الأفكار والإلهام، ولكنها ليست قادرة على توفير معلومات دقيقة، وقد ترتكب أخطاء كبيرة.

تحتفل شبكة دويتشه فيله (DW) هذا العام بعيدها السبعين. ومنذ سبعين عاما ونحن نقوم بتنفيذ المهمة المنوطة بنا بوضوح، ونقدم لجمهورنا صحافة موثوقة وعالية الجودة ومستقلة.

في ذات الوقت، تطورنا بشكل مستمر على مر العقود، واستجبنا بسرعة للتطورات التكنولوجية، وركزنا على الوسائط المتعددة.

سواء كان الأمر يتعلق بالراديو أو التلفزيون أو وسائل التواصل الاجتماعي. نتواجد حيث يكون متابعونا. وقد طورنا طرق عملنا الصحفية دائما، مع بقاء وثبات معايير الجودة العالية التي لم تتغير.

حاليا، نواجه تغييرات كبيرة جديدة. الذكاء الاصطناعي  التوليدي هو قوة تكنولوجية مزعزعة. فالعديد من الصناعات ستشهد تغييرات كبيرة أو قد شهدتها بالفعل، والصحافة ليست استثناء مما يجري. الشفافية مهمة بالنسبة لنا، لذلك أود مشاركة بعض الأفكار حول استخدام الذكاء الاصطناعي التوليدي في صحافتنا.

الصحفيون من ينتجون المحتوى لا الذكاء الاصطناعي

لن  يستبدل الذكاء الاصطناعي التوليدي الصحفيات والصحفيين . من خلال القراءة أو الاستماع أو المشاهدة للمحتوى الذي تقدمه DW، يمكن التأكد من أن المسؤول عنه صحفيات وصحفيو DW، وهم ضمان لجودة العمل. والتزامنا بالاستقلالية والدقة والشفافية واحترام وجهات النظر والتنوع ليس محلا للنقاش.

في الوقت نفسه، نرغب في استكشاف كيف يمكن للذكاء الاصطناعي التوليدي دعم أعمالنا. نستخدم في DW بالفعل بعض التطبيقات القائمة على الذكاء الاصطناعي، تساعدنا على سبيل المثال في تحليل البيانات أو ترجمة تقاريرنا من لغة إلى أخرى. لكن صحفياتنا وصحفيينا يراقبون جودة عمل هذه التطبيقات. يمكننا استخدام الذكاء الاصطناعي لجعل المحتوى أكثر سهولة في العثور عليه من قبل محركات البحث. وفي وسائل التواصل الاجتماعي، يمكن أن يساعد الذكاء الاصطناعي في التعرف السريع على خطاب الكراهية. ترجمة الذكاء الاصطناعي لمقاطع الفيديو تجعلها متاحة أيضا لعدد أكبر من الأشخاص. تطبيقات مفيدة تدعم أعمالنا الصحفية.

يبقى الأمر المهم وهو أن الصحفيين في مؤسستنا يراجعون جودة التقارير دائماً في هذه التطبيقات قبل نشرها، وأن نقدم معلومات شفافة حول كيفية استخدامنا للذكاء الاصطناعي.

رئيسة تحرير DW مانويلا كاسبر- كلاريدج

الروبوتات الذكية مثل "  ChatGPT" (شات جي بي تي)  ليست مصادر معلومات موثوقة. ويمكن أن تقدم هذه الروبوتات الأفكار والإلهام، ولكنها ليست قادرة على توفير معلومات دقيقة، وقد ترتكب أخطاءً كبيرة. ولا توفر الشفافية حول مصادر معلوماتها. سنفحص بعناية شديدة النتائج التي نعرف أنها من إنتاج روبوت ذكي، ونعزز عمليات التحقق من المعلومات لمكافحة انتشار المعلومات غير الصحيحة. فعندما يتم استخدام تقنيات الذكاء الاصطناعي على نطاق عالمي، قد يزيد ذلك من مشكلة الإشاعات والمعلومات الكاذبة. لذلك، تعتبر مهمتنا كصحفيين هي فحص وكشف هذه المعلومات غير الصحيحة للحفاظ على الشفافية والدقة في التقارير الإخبارية.

صور الذكاء الاصطناعي

نحن لا نرى كذلك قيمة في نشر صور جرى صناعتها بواسطة الذكاء الاصطناعي . عندما نتحدث عن صور تم انتاجها بواسطة الذكاء الاصطناعي من قبل أشخاص آخرين، سنشير صراحة إلى أنها ليست صورا حقيقية. الأمر بالتأكيد سيكون مختلفا عندما يتعلق بالرسوم التوضيحية أو تصوير البيانات، حيث يمكن لاستخدام الذكاء الاصطناعي التوليدي المساعدة.

تحديات وفرص

ندرك أن الذكاء الاصطناعي التوليدي يحمل في طياته مخاطر . ندرك أنه يمكن أن يساهم بشكل كبير في نشر الأخبار الزائفة بشكل أكبر بكثير مما هو معروف حالياً.  ندرك أن البيانات  التي يستند إليها تعكس أحكاما مسبقة موجودة في المجتمع. سنواصل تدريب صحفياتنا وصحفيينا بشكل مستمر لكشف هذه الأحكام المسبقة. سنعتني أيضا بشكل جدي بأمن البيانات وحماية الخصوصية عند استخدام خدمات الذكاء الاصطناعي.

من المهم أن استخدام الذكاء الاصطناعي بشكل مناسب يمكن أن يوفر فرصا.  يمكنه دعم صحفيينا في أداء مهامهم ومنحهم المزيد من الوقت . الوقت الذي يمكن استخدامه للبحث عن القصص في الميدان والاقتراب من الناس أكثر، الوقت للحصول على وجهات نظر متنوعة.

هذه هي الصحافة التي يقدرها متابعونا والتي لن تستطيع الماكينات أبدا تقديمها. بحث جيد، تقارير حصرية حول قضايا تهم الناس مع جودة تقدمها دويتشه فيله منذ سبعة عقود.

مانويلا كاسبر - كلارديج

المصدر: DW عربية

كلمات دلالية: الذكاء الاصطناعي أنظمة الذكاء الاصطناعي العمل الصحفي دويتشه فيله الترجمة الفورية ترجمة الذكاء الاصطناعي الذكاء الاصطناعي أنظمة الذكاء الاصطناعي العمل الصحفي دويتشه فيله الترجمة الفورية ترجمة الذكاء الاصطناعي الذکاء الاصطناعی التولیدی استخدام الذکاء الاصطناعی یمکن أن

إقرأ أيضاً:

نسب احتيال تصل 60%.. الذكاء الاصطناعي يهدد الأمن الرقمي

تابع أحدث الأخبار عبر تطبيق

يواصل الذكاء الاصطناعي تحقيق تقدم مذهل في مختلف المجالات، إلا أن هناك جانبًا مظلمًا لهذا التطور، خاصة فيما يتعلق بالمخاطر الأمنية التي قد يتسبب فيها، فقد أظهرت دراسة حديثة أن واجهة البرمجة الصوتية الخاصة بنموذج ChatGPT-4o من OpenAI قد تُستغل من قبل مجرمي الإنترنت لتنفيذ عمليات احتيال مالي، ووفقًا لما أوردته "البوابة العربية للأخبار التقنية"، فقد تراوحت معدلات نجاح هذه العمليات بين منخفضة ومتوسطة، مما يسلط الضوء على الحاجة الماسة لتطوير آليات أمان أكثر تطورًا. 

استخدامات غير مشروعة لنموذج ChatGPT-4o

يُعتبر ChatGPT-4o أحدث نموذج من OpenAI الذي يجمع بين قدرات الذكاء الاصطناعي في فهم وتحليل النصوص والصوت والصور، مما يمنحه إمكانيات هائلة، إلا أن هذه القدرات، حسب ما ذكر باحثون من جامعة إلينوي الأمريكية، تُستغل أحيانًا في عمليات احتيال، حيث تُستخدم أدوات تكنولوجيا الصوت التي يعتمد عليها النموذج في اختراق أنظمة المصادقة الثنائية، وإجراء عمليات تحويل مالية مزورة، فضلاً عن سرقة البيانات الحساسة مثل حسابات البريد الإلكتروني ووسائل التواصل الاجتماعي.

هذه الأدوات البرمجية التي تستخدم الصوت، تمكن المهاجمين من التلاعب في البيانات وإدخال التعليمات اللازمة عبر الويب، ما يسمح لهم بتجاوز بعض القيود التي وضعتها OpenAI للحد من إساءة استخدام النموذج، وعلى الرغم من أن النموذج يُرفض غالبًا التعامل مع البيانات الحساسة، فإن الباحثين نجحوا في إيجاد طرق لتحفيزه على التجاوب مع هذه المحاولات.

نتائج الدراسة: عمليات احتيال "رخيصة" وفعالة

في التجارب التي أُجريت، أظهر الباحثون أن معدلات نجاح عمليات الاحتيال تراوحت بين 20% و60%، مع حاجة كل محاولة إلى نحو 26 خطوة عبر المتصفح لإتمام العملية، ما استغرق في الحالات الأكثر تعقيدًا حوالي 3 دقائق فقط، ومن حيث التكلفة، أظهرت النتائج أن تكلفة تنفيذ عملية احتيال واحدة كانت منخفضة للغاية، إذ تراوحت بين 75 سنتًا أميركيًا للعمليات البسيطة مثل سرقة بيانات حسابات Gmail، و2.51 دولار فقط في عمليات التحويل المصرفي الأكثر تعقيدًا.

استجابة OpenAI والتحديات المستقبلية

وفي رد فعلها على هذه الدراسة، أكدت OpenAI أنها تبذل جهودًا مستمرة لتحسين الأمان في نماذجها المستقبلية، وأشارت إلى أن النموذج الأحدث "o1-preview" يتمتع بقدرات متقدمة في مقاومة محاولات الاحتيال، حيث حقق تقييم أمان بنسبة 93% مقارنة بـ71% في النموذج السابق، كما أضافت الشركة أنها ملتزمة بتطوير آليات أكثر قوة لمنع الاستخدامات الضارة، بما في ذلك تقييد توليد الأصوات في نموذج GPT-4o إلى مجموعة أصوات مصرح بها فقط لتجنب التزييف الصوتي.

مقالات مشابهة

  • وزير السياحة: الذكاء الاصطناعي له تأثيرات إيجابية على صناعة السياحة
  • بورصة لندن للسياحة.. وزير الآثار يطالب بصياغة إطار قانوني لتطبيقات الذكاء الاصطناعي
  • د. محمد سليم شوشة: استخدام الذكاء الاصطناعي في اللغة يُهدد الحضارة العربية
  • وزير الكهرباء: لا يمكن لأي دولة أن تتعامل بمفردها مع تحديات الطاقة الجديدة
  • مدبولي: الذكاء الاصطناعي هو الحاضر
  • ما تقنية التوأم الرقمي؟ وكيف يمكن الاستفادة منها؟
  • مستخدمون يتخذون الذكاء الاصطناعي كرفيق عاطفي.. واستشاري نفسي: مصابون باضطراب عاطفي شديد يمكن أن يتطور للضلالات
  • مديكسي وجهة رعاية صحية متكاملة تجمع بين استخدام أحدث الأجهزة والمهارات العالية
  • نسب احتيال تصل 60%.. الذكاء الاصطناعي يهدد الأمن الرقمي
  • بين التلاعب والشفافية.. هل يغير الذكاء الاصطناعي مسار الانتخابات الأميركية؟