تقرير خاص| هل سيقضي الذكاء الاصطناعي على عمل الصحفيين؟
تاريخ النشر: 23rd, September 2023 GMT
يتميز عالم الصحافة دائمًا بقدرته على التكيف مع التقنيات الجديدة، ومنذ اختراع المطبعة وحتى ظهور الإنترنت، وجد الصحفيون باستمرار طرقًا للاستفادة من الأدوات الناشئة لتحسين تقاريرهم.
وفي السنوات الأخيرة، برز الذكاء الاصطناعي (AI) كقوة مؤثرة في مجال الصحافة، حيث يعد بأداء مهام الصحفيين المختلفة وتبسيط عملية إنتاج الأخبار.
ومع ذلك، فإن السؤال الذي يلوح في الأفق هو ما إذا كان الذكاء الاصطناعي سيقضي على عمل الصحفيين تماما. ويستكشف موقع صدي البلد الإخباري في هذا المقال الوضع الحالي للذكاء الاصطناعي في الصحافة، وتأثيره المحتمل على الصناعة، ودور الصحفيين البشريين في مشهد آلي متزايد.
صعود الذكاء الاصطناعي في الصحافةووجد الذكاء الاصطناعي طريقه إلى كل جانب من جوانب الصحافة تقريبًا، بدءًا من إنشاء المحتوى وحتى تحليل البيانات وتوزيعها. فيما يلي بعض الطرق الرئيسية التي يتم من خلالها استخدام الذكاء الاصطناعي حاليًا في هذا المجال:
إنشاء المحتوى تلقائيًا: يمكن للأدوات التي تعمل بالذكاء الاصطناعي إنشاء مقالات إخبارية وتقارير وحتى ملخصات من بيانات منظمة أو قوالب محددة مسبقًا. يمكن لهذه الأنظمة إنشاء محتوى بوتيرة سريعة، مما يساعد المؤسسات الإخبارية على تغطية الأخبار العاجلة بكفاءة أكبر.
تحليل البيانات: خوارزميات الذكاء الاصطناعي ماهرة في معالجة مجموعات البيانات الكبيرة واستخلاص رؤى ذات معنى. يمكن للصحفيين استخدام الذكاء الاصطناعي لتحليل البيانات لإعداد التقارير الاستقصائية واتجاهات السوق وتحليل المشاعر.
المحتوى المخصص: تساعد محركات التوصية المعتمدة على الذكاء الاصطناعي الناشرين على تقديم محتوى مخصص لقرائهم، مما يزيد من التفاعل والاحتفاظ بهم.
ترجمة اللغة: تعمل أدوات الترجمة المدعومة بالذكاء الاصطناعي على كسر حواجز اللغة، مما يسمح للصحفيين بالوصول إلى القصص العالمية والكتابة عنها بسهولة أكبر.
التحقق من الحقائق: يمكن أن يساعد الذكاء الاصطناعي في التحقق من المعلومات، مما يساعد على مكافحة انتشار الأخبار المزيفة.
روبوتات الدردشة والمساعدون الافتراضيون: تستخدم المؤسسات الإخبارية روبوتات الدردشة والمساعدين الافتراضيين المعتمدة على الذكاء الاصطناعي للتفاعل مع القراء والإجابة على الأسئلة وتقديم التحديثات في الوقت الفعلي.
تأثير الذكاء الاصطناعي على الصحافةفي حين أن الذكاء الاصطناعي قد حقق بلا شك تطورات كبيرة في مجال الصحافة، فمن المهم النظر في تأثيره على الصناعة، سواء كان إيجابيًا أو سلبيًا:
الكفاءة والسرعة: يمكن للذكاء الاصطناعي أن يساعد غرف الأخبار على إنتاج المحتوى بشكل أسرع وبموارد أقل، مما يمكنها من تغطية المزيد من القصص في وقت أقل.
تحسين الدقة: يمكن لأدوات التحقق من الحقائق وتحليل البيانات المدعومة بالذكاء الاصطناعي أن تعزز دقة التقارير الإخبارية، مما يقلل من احتمالية حدوث أخطاء.
توفير التكاليف: يمكن أن تؤدي أتمتة المهام الروتينية إلى توفير التكاليف للمؤسسات الإخبارية، مما يسمح لها بتخصيص الموارد لإعداد تقارير أكثر تعمقًا.
إنشاء المحتوى: يمكن أن يكون المحتوى الذي ينشئه الذكاء الاصطناعي مفيدًا لتغطية موضوعات كثيفة البيانات، لكنه يفتقر إلى الدقة والسياق الذي يوفره الصحفيون البشريون.
الجودة والأخلاق: هناك مخاوف بشأن جودة وأخلاقيات المحتوى الناتج عن الذكاء الاصطناعي. يمكن لأنظمة الذكاء الاصطناعي أن تؤدي عن غير قصد إلى إدامة التحيزات الموجودة في بيانات التدريب الخاصة بها، وقد لا تلتزم دائمًا بالمعايير الصحفية.
دور الصحفيين البشريينفي حين حقق الذكاء الاصطناعي تقدمًا كبيرًا في مجال الصحافة، إلا أن الصحفيين البشريين يظلون لا غنى عنهم لعدة أسباب:
التفكير النقدي: يمتلك الصحفيون البشريون مهارات التفكير النقدي والتعاطف والقدرة على تفسير الأحداث المعقدة، مما يوفر السياق والتحليل الذي لا يستطيع الذكاء الاصطناعي محاكاته.
التقارير الاستقصائية: غالبًا ما تتطلب الصحافة الاستقصائية بحثًا مكثفًا والتحقق من المصدر والاعتبارات الأخلاقية، وهي مهام تتجاوز قدرات الذكاء الاصطناعي.
سرد القصص: يتفوق البشر في سرد القصص، وصياغة الروايات التي يتردد صداها مع القراء على مستوى عاطفي عميق.
الرقابة الأخلاقية: يلتزم الصحفيون بالمعايير الأخلاقية، ويضمنون أن تظل التقارير الإخبارية عادلة وغير متحيزة وخاضعة للمساءلة.
في النهاية، لا شك أن الذكاء الاصطناعي قد أحدث تحولاً في مشهد الصحافة، حيث قدم الأدوات والقدرات التي تعزز الكفاءة والدقة. ومع ذلك، فإن فكرة أن الذكاء الاصطناعي سيقضي على عمل الصحفيين من غير المرجح أن تتحقق بالكامل. وبدلاً من ذلك، سيستمر الذكاء الاصطناعي في استكمال عمل الصحفيين البشريين، وتمكينهم من التركيز على الجوانب الأكثر تعقيدًا وإبداعًا في مهنتهم.
وتظل الصحافة مجالًا ديناميكيًا ومتطورًا، ويعتمد التكامل الناجح للذكاء الاصطناعي على اتباع نهج مسؤول وأخلاقي. ويمكن أن تؤدي العلاقة التكافلية بين الذكاء الاصطناعي والصحفيين البشريين في نهاية المطاف إلى تغطية إخبارية أكثر استنارة وتنوعا وفي الوقت المناسب، مما يفيد كل من المؤسسات الإخبارية وجماهيرها.
وفي هذا العصر الجديد من الصحافة، قد يحدد التعاون بين الذكاء البشري والاصطناعي مستقبل الصناعة.
المصدر: صدى البلد
كلمات دلالية: الذكاء الاصطناعي الصحفيين الصحافة الاخبار الذکاء الاصطناعی الاصطناعی على عمل الصحفیین الاصطناعی فی یمکن أن مجال ا
إقرأ أيضاً:
الذكاء الاصطناعي العام (AGI) الخطوة التالية لقطاع التكنولوجيا..ما المخاطر؟!
في ظل التسارع المذهل في تطوير تقنيات الذكاء الاصطناعي، يتطلع قادة التكنولوجيا والأعمال إلى الخطوة التالية في هذا المجال، وهي "الذكاء العام الاصطناعي" (AGI)، وهو نوع من الذكاء الاصطناعي يتمتع بقدرات إدراكية شبيهة بالبشر.
إن إيجاد طرق جديدة لضمان عدم عمل هذه الآلة -التي تتمتع بمستوى ذكاء البشر نفسه- ضد مصالح البشر،هدف مهم يسعى إليه الباحثون، ويصبح من الضروري أن تتكاتف الجهود، في الوصول إليه.
وأصدر باحثون في شركة "جوجل ديب مايند" التابعة لجوجل ورقة بحثية جديدة، مكونة من أكثر من 100 صفحة، تشرح طريقة تطوير الذكاء العام الاصطناعي بأمان. بحسب تقرير لموقع "ArsTechnica" المتخصص في أخبار التكنولوجيا.
اقرأ أيضاً..الذكاء الاصطناعي.. من منظور إيجابي
تشير تقديرات "ديب مايند" إلى إمكانية ظهور AGI خلال السنوات الخمس القادمة، وتحديدًا بحلول عام 2030، مما يستدعي تعاونًا دوليًا عاجلًا لوضع الأطر القانونية والأخلاقية.
لا يملك البشر حتى الآن وسيلة لمنع خروج الذكاء العام الاصطناعي -في حالة الوصول إليه- عن السيطرة، لكن الباحثين في شركة "جوجل ديب مايند" التابعة لجوجل يعملون على هذه المشكلة.
كشف الباحثون عن أربعة مخاطر رئيسية قد تنجم عن تطوير الذكاء الاصطناعي العام (AGI) الشبيه بذكاء الإنسان وقد يؤدي إلى "أضرار جسيمة"، لأجل هذا سعوا إلى فهم مخاطره.
أبرز المخاطر
حدد الباحثون أربعة أنواع محتملة من مخاطر الذكاء العام الاصطناعي، وقدموا اقتراحات حول طرق التخفيف من هذه المخاطر.
وصنّف فريق "ديب مايند" النتائج السلبية للذكاء العام الاصطناعي على أنها سوء الاستخدام، والانحراف، والأخطاء، والمخاطر الهيكلية. وقد ناقش البحث سوء الاستخدام والانحراف بإسهاب، وتناول الأخيران بإيجاز.
المشكلة المحتملة الأولى، هي سوء الاستخدام، بحيث تتشابه بشكل أساسي مع مخاطر الذكاء الاصطناعي الحالية. ومع ذلك، ولأن الذكاء العام الاصطناعي سيكون أقوى بحكم تعريفه، فإن الضرر الذي قد يُلحقه سيكون أكبر بكثير.
وقد يُسيء أي شخص لديه إمكانية الوصول إلى الذكاء العام الاصطناعي استخدام النظام لإلحاق الضرر، على سبيل المثال، من خلال مطالبة النظام بتحديد ثغرات واستغلالها، أو إنشاء فيروس مُصمَّم يمكن استخدامه كسلاح بيولوجي.
قال فريق "ديب مايند" إنه سيتعين على الشركات التي تُطور الذكاء العام الاصطناعي إجراء اختبارات مكثفة ووضع بروتوكولات سلامة قوية لما بعد التدريب. بعبارة أخرى، حواجز أمان معززة للذكاء الاصطناعي.
ويقترح الفريق أيضًا ابتكار طريقة لكبح القدرات الخطيرة تمامًا، تُسمى أحيانًا "إلغاء التعلم" (unlearning)، ولكن من غير الواضح ما إذا كان ذلك ممكنًا من دون تقييد قدرات النماذج بشكل كبير.
أما مشكلة "الانحراف" فهي ليست محل قلق حاليًا مع الذكاء الاصطناعي التوليدي في صورته الحالية. لكن مع الذكاء العام الاصطناعي قد يختلف الأمر.
أخبار ذات صلةتُصور مشكلة "الانحراف" هذه كآلة متمردة تجاوزت القيود التي فرضها عليها مصمموها، كما هو الحال في فيلم "ترميناترو". وبشكل أكثر تحديدًا، يتخذ الذكاء الاصطناعي إجراءات يعلم أنها لا تتماشى مع ما يقصده المطور.
وقالت "ديب مايند" إن معيارها للانحراف في ما يتعلق بالذكاء العام الاصطناعي أكثر تقدمًا من مجرد الخداع أو التخطيط.
حلول مقترحة
لتجنب ذلك، تقترح "ديب مايند" على المطورين استخدام تقنيات مثل الإشراف المُعزز، حيث تتحقق نسختان من الذكاء الاصطناعي من مخرجات بعضهما البعض، لإنشاء أنظمة قوية من لا يُحتمل أن تنحرف عن مسارها.
وإذا فشل ذلك، تقترح "ديب مايند" إجراء اختبارات ضغط ومراقبة مكثفة لاكتشاف أي مؤشر على أن الذكاء الاصطناعي قد يبدأ في التمرد ضدنا.
وقالت إن إبقاء الذكاء الاصطناعي العام في بيئة افتراضية آمنة للغاية وإشراف بشري مباشر يمكن أن يُساعد في التخفيف من حدة المشكلات الناجمة عن الانحراف.
الأخطاء
من ناحية أخرى، إذا لم يكن الذكاء الاصطناعي يعلم أن مخرجاته ستكون ضارة، ولم يكن المشغل البشري يقصد ذلك، فهذا "خطأ". ويحدث الكثير من هذه الأخطاء مع أنظمة الذكاء الاصطناعي الحالية.مع ذلك، قد تكون هذه المشكلة أصعب مع الذكاء العام الاصطناعي.
تشير "ديب مايند" إلى أن الجيوش قد تنشر الذكاء العام الاصطناعي بسبب "الضغط التنافسي"، لكن هذه الأنظمة قد ترتكب أخطاء جسيمة لأنها ستُكلف بوظائف أكثر تعقيدًا بكثير من الذكاء الاصطناعي الحالي.
توصي الورقة بعدد من الإجراءات الوقائية، للحد من الأخطاء. باختصار، يتلخص الأمر في عدم السماح للذكاء العام الاصطناعي بأن يصبح قويًا جدًا في المقام الأول.
وتدعو "ديب مايند" إلى نشر الذكاء العام الاصطناعي تدريجيًا والحد من صلاحياته، وتمرير أوامر الذكاء العام الاصطناعي عبر نظام حماية يضمن أن تكون آمنة قبل تنفيذها.
مخاطر هيكلية
تُعرف "ديب مايند" المخاطر الهيكلية على أنها عواقب غير مقصودة، وإن كانت حقيقية، للأنظمة متعددة الوكلاء التي تُسهم في تعقيد حياتنا البشرية.
على سبيل المثال، قد يُنتج الذكاء العام الاصطناعي معلومات مُضلّلة تبدو مُقنعة لدرجة أننا لم نعد نعرف بمن أو بما نثق. كما تُثير الورقة البحثية احتمالية أن يُراكِم الذكاء العام الاصطناعي سيطرة متزايدة على الأنظمة الاقتصادية والسياسية، ربما من خلال وضع مخططات تعريفات جمركية مُفرطة.
وقد تؤدي هذه المخاطر الهيكلية إلى أن نجد في يومٍ ما أن الآلات هي المُسيطرة بدلًا منّا.
وتُعتبر هذه الفئة من المخاطر أيضًا الأصعب في الحماية منها، لأنها ستعتمد على طريقة عمل الأفراد والبنية التحتية والمؤسسات في المستقبل.
لضمان أن يكون الذكاء الاصطناعي العام أداة لخدمة البشرية، لا مصدرًا لتهديدها..كما تشير "ديب مايند"، فإن التقدم نحو AGI قد يكون أسرع مما نتخيل، ما يجعل من وضع الحواجز الأخلاقية والتقنية ضرورة عاجلة لا تحتمل التأجيل.
لمياء الصديق(أبوظبي)