دراسة جديدة تكشف عن غزو الذكاء الاصطناعي للمحتوى على الإنترنت
تاريخ النشر: 12th, March 2025 GMT
كشفت دراسة حديثة، نُشرت على خادم الأبحاث الأولية arXiv التابع لجامعة كورنيل، عن الانتشار الواسع للمحتوى المُنشأ بالذكاء الاصطناعي على الإنترنت، مما يثير مخاوف بشأن تأثيره على جودة المعلومات التي نتعرض لها يوميًا.
ووفقًا للتحليل الذي شمل أكثر من 300 مليون وثيقة، بما في ذلك شكاوى المستهلكين، البيانات الصحفية للشركات، إعلانات الوظائف، والبيانات الإعلامية الصادرة عن الأمم المتحدة، فإن استخدام أدوات الذكاء الاصطناعي في إنشاء المحتوى شهد قفزة كبيرة منذ إطلاق ChatGPT .
ووفقاً لموقع "FASTCOMPANY" أوضح الباحث ياوهوي زانغ، من جامعة ستانفورد وأحد مؤلفي الدراسة، أن الفريق أراد قياس مدى استخدام الأفراد لهذه الأدوات، وكانت النتيجة مفاجئة. فقبل إطلاق ChatGPT، كانت نسبة المحتوى الذي يُشتبه في أنه أُنشئ بمساعدة الذكاء الاصطناعي لا تتجاوز 1.5%، لكنها ارتفعت بسرعة بعشرة أضعاف بعد انتشار الأداة، خاصة في شكاوى المستهلكين والبيانات الصحفية.
اقرأ أيضاً.. كارل.. ذكاء اصطناعي يكتب أبحاثاً معترف بها
استخدمت الدراسة بيانات من شكاوى المستهلكين المقدمة إلى مكتب حماية المستهلك المالي CFPB قبل حله من قبل إدارة ترامب، لتحليل انتشار المحتوى المُنشأ بالذكاء الاصطناعي في مختلف الولايات الأميركية.
أخبار ذات صلة
وأظهرت النتائج أن ولايات أركنساس، ميزوري، وداكوتا الشمالية كانت الأكثر استخدامًا للذكاء الاصطناعي، حيث تم رصد أدلة على ذلك في ربع الشكاوى تقريبًا. في المقابل، كانت ولايات فيرمونت، أيداهو، وويست فرجينيا الأقل اعتمادًا عليه، حيث أظهرت البيانات أن ما بين 5% إلى 2.5% فقط من الشكاوى تضمنت إشارات لاستخدام الذكاء الاصطناعي.
على عكس أدوات الكشف التقليدية، طور فريق البحث نموذجًا إحصائيًا جديدًا لتحديد المحتوى الذي يُرجح أنه أُنشئ بالذكاء الاصطناعي. اعتمد هذا النموذج على تحليل أنماط اللغة، وتوزيع الكلمات، والبنية النصية، حيث تمت مقارنة النصوص المكتوبة قبل ظهور ChatGPT مع تلك المعروفة بأنها مُعدلة أو منشأة بواسطة النماذج اللغوية الضخمة. وكانت نسبة الخطأ في التنبؤ أقل من 3.3%، مما يعزز دقة النتائج.
في ظل هذا الانتشار الواسع، يعبر زانغ وفريقه عن قلقهم من أن الذكاء الاصطناعي قد يُقيد الإبداع البشري، حيث أصبحت العديد من أنواع المحتوى - من الشكاوى الاستهلاكية إلى البيانات الصحفية - تعتمد بشكل متزايد على النماذج التوليدية بدلًا من الأسلوب البشري التقليدي.
اقرأ أيضاً.. هل يستطيع الذكاء الاصطناعي أن يكون طوق النجاة للمحتاجين؟
ومع استمرار تطور تقنيات الذكاء الاصطناعي، يتزايد الجدل حول مدى تأثيرها على جودة المعلومات، ومدى قدرتها على استبدال الإبداع البشري بنصوص مصممة وفق خوارزميات، مما يثير تساؤلات حول مستقبل المحتوى على الإنترنت.
إسلام العبادي(الاتحاد)
المصدر: صحيفة الاتحاد
كلمات دلالية: تشات جي بي تي الذكاء الاصطناعي الإنترنت الذکاء الاصطناعی
إقرأ أيضاً:
روبوت DOGE الخاص بـ إيلون ماسك يتجسس على موظفين فيدراليين باستخدام الذكاء الاصطناعي
كشف تقرير جديد أن فريقًا تقنيًا سريًا تابعًا للملياردير الأمريكي إيلون ماسك، يعرف باسم "فريق DOGE"، يستخدم تقنيات الذكاء الاصطناعي لمراقبة الاتصالات داخل إحدى الوكالات الفيدرالية الأمريكية، بهدف رصد أي مواقف معادية للرئيس السابق دونالد ترامب وأجندته السياسية، بحسب ما نقله مصدران مطلعان لرويترز.
وبينما تظل تفاصيل عمل "إدارة كفاءة الحكومة" التابعة لماسك محاطة بالسرية، تشير المعلومات إلى أن الفريق يستخدم أدوات تكنولوجية متقدمة، مثل روبوت الدردشة Grok المدعوم بالذكاء الاصطناعي وتطبيق Signal للتواصل، ما يثير مخاوف متزايدة بشأن الشفافية وحماية الخصوصية في عمل هذه الكيانات داخل الحكومة.
قال أحد المطلعة المصادر لوكالة رويترز إن فريق DOGE يستخدم تطبيق Signal المشفر لإجراء محادثاته، وهو ما قد يشكل انتهاكًا لقواعد حفظ السجلات الفيدرالية، خاصة وأن الرسائل يتم ضبطها لتختفي تلقائيًا بعد فترة زمنية.
كما أشار المصدر إلى أن الفريق يوظف "بوت ماسك الذكي" Grok في عمليات تقليص الهيكل الإداري للحكومة.
وقالت الأستاذة كاثلين كلارك، خبيرة أخلاقيات الحكومة في جامعة واشنطن بسانت لويس، إن استخدام Signal دون حفظ الرسائل يعد غير قانوني.
وأضافت: "هذا النوع من الممارسات يفاقم القلق بشأن الشفافية وأمن البيانات داخل الإدارة الفيدرالية".
ذكاء اصطناعي لمراقبة الموظفينفي وكالة حماية البيئة الأمريكية (EPA)، أبلغ بعض المديرين من قبل مسؤولين عيّنهم ترامب بأن فريق ماسك بدأ في استخدام الذكاء الاصطناعي لرصد سلوك الموظفين، تحديدًا من خلال تحليل العبارات المكتوبة التي قد تحمل مواقف معادية للرئيس السابق أو لماسك نفسه.
وقالت مصادر مطلعة إن مراقبة الاتصالات تتم عبر منصات مثل Microsoft Teams، حيث تم تحذير الموظفين من أن النظام يتتبع كل ما يقولونه أو يكتبونه.
وتواجه الوكالة خفضًا حادًا في ميزانيتها بنسبة 65%، مع تعليق عمل أكثر من 600 موظف منذ يناير الماضي.
وفي ردها على التقرير، أصدرت وكالة حماية البيئة بيانًا أكدت فيه أنها "تدرس استخدام الذكاء الاصطناعي لتحسين الأداء الإداري"، لكنها نفت أن تكون هذه التقنية تستخدم لاتخاذ قرارات تتعلق بالموظفين بالتعاون مع DOGE، ولم توضح ما إذا كانت تستخدمها في مراقبة الاتصالات.
انتقادات حادة وتحقيقات قانونيةورغم محاولات التبرير، تصاعدت الانتقادات داخل الأوساط السياسية الأمريكية، حيث اتهم ديمقراطيون ماسك وترامب بالسعي لإقصاء موظفين مستقلين من الجهاز الإداري واستبدالهم بولاء سياسي، بينما وصف خبراء أخلاقيات حكومية هذه الممارسات بأنها "إساءة استخدام للسلطة" وتهديد لحرية التعبير.
وذكرت رويترز أن تحقيقاتها شملت مقابلات مع نحو 20 شخصًا مطلعًا على عمل DOGE، إضافة إلى مراجعة مئات الوثائق القانونية التي تتناول ممارسات الوصول إلى البيانات الحكومية، ما سلط الضوء على استخدام غير تقليدي للتكنولوجيا داخل إدارة ترامب.
سرية مفرطة وخرق للبروتوكولاتوكشف التقرير أن بعض موظفي DOGE يتجاوزون الإجراءات الرسمية لتداول الوثائق الحكومية، ويستخدمون مستندات Google بشكل جماعي في التعديل، ما يُصعّب تتبع النسخ النهائية أو معرفة من أجرى التعديلات.
ورفض البيت الأبيض وماسك التعليق على هذه المعلومات، بينما أكدت إدارة ترامب أن DOGE لا يخضع لقوانين الشفافية التي تتيح للصحافة والجمهور الاطلاع على سجلات الجهات الفيدرالية.
وفي 10 مارس الماضي، أمر قاضٍ فيدرالي إدارة DOGE بتسليم مستنداتها إلى منظمة "مواطنون من أجل المسؤولية والأخلاقيات في واشنطن"، التي رفعت دعوى قضائية تطالب بالكشف عن هذه الوثائق، وحتى اليوم، لم تسلّم DOGE أي وثائق وفقًا للمنظمة.
السيطرة على البنية التحتية الرقمية للحكومةوأشار التقرير إلى أن فريق ماسك عزز سيطرته على البنية الرقمية لبعض المؤسسات، مثل مكتب إدارة شؤون الموظفين OPM، حيث تم حجب وصول الموظفين إلى قاعدة بيانات تضم معلومات حساسة لأكثر من 10 ملايين موظف حالي وسابق.
ولم يتبق سوى موظفين اثنين يمكنهم الوصول، أحدهما موظف عينه ترامب وكان يعمل سابقًا في شركة ناشئة بمجال الذكاء الاصطناعي.
وينظر إلى OPM على أنه أداة تنفيذية رئيسية لتنفيذ رؤية الإدارة الجديدة بتقليص الجهاز الإداري الفيدرالي.