الجزيرة:
2024-09-15@19:28:13 GMT

قوانين جمة لتقويض الذكاء الاصطناعي.. ما أثرها؟

تاريخ النشر: 4th, September 2024 GMT

قوانين جمة لتقويض الذكاء الاصطناعي.. ما أثرها؟

قام الاتحاد الأوروبي بالتصديق على قانون الذكاء الاصطناعي الأول من نوعه في العالم كما وصفه بيان الاتحاد الرسمي، وهو قانون يهدف لتنظيم العمليات المتعلقة بالذكاء الاصطناعي سواء كانت في التطوير أو الاستخدام داخل دول الاتحاد الأوروبي أو خارجها طالما كانت الشركة تمتلك عمليات داخل الدول التي تخضع للقانون.

ربما كان الاتحاد الأوروبي أول جهة تنظيمية تصدر قانونا مباشرا وصريحا متعلقا بإدارة الذكاء الاصطناعي وتنظيمه، ولكن من المؤكد أن مختلف الدول الكبرى في العالم تتبعه في المستقبل، وفي مقدمتها أميركا التي تخضع الذكاء الاصطناعي حاليا لمجموعة من القوانين المتعلقة بمكونات هذه التقنية وطرق تدريبها وبنائها.

ورغم كون الهدف من هذه القوانين تنظيم وحماية المستخدمين من مخاطر الذكاء الاصطناعي المستقبلية، فإن طرحها وتنفيذها أثار استياء بعض العاملين في قطاع الذكاء الاصطناعي، خوفا من تقويض نمو التقنية بشكل يمنع من تطورها.

لكن هل يمكن القول إن هذه القوانين سيكون لها أثر سلبي فعلا على تقنيات الذكاء الاصطناعي، أم إن الشركات العاملة في هذا القطاع تحاول إزاحة القيود من أمامها حتى تتصرف كما تشاء؟

قانون الذكاء الاصطناعي الأوروبي

أقر الاتحاد الأوروبي هذا القانون في مايو/أيار الماضي، أي بعد طرحه بأكثر من 4 أعوام تمت خلالها مناقشته بشكل موسع وتطويعه ليتناسب مع هذه التقنية الناشئة التي قد لا تملك قيودا واضحة، وأما عن السلطة القضائية لهذا القانون، فإنها تخضع جميع الشركات التي تملك أعمالا داخل حدود دول الاتحاد الأوروبي حتى لو كان مقرها خارج القارة الأوروبية تماما، أي أن "مايكروسوفت" و"غوغل" و"أوبن إيه آي" و"بايدو" تخضع لهذا القانون مثل أي شركة ذكاء اصطناعي أوروبية.

في جوهره، يقسم القانون تقنيات الذكاء الاصطناعي إلى عدة مستويات وأقسام، لكل منها قانونه التنظيمي الخاص بشكل لا يتعارض بعضها مع بعض، ويأخذ في الاعتبار المخاطر المتوقعة لكل تقنية ومعدل تطبيقها وانتشارها.

يعتمد القانون الأوروبي على مستوى خطورة الذكاء الاصطناعي في عملية التقسيم هذه، بدءا من المستوى الأخطر، وهو الذي يتدخل بشكل واضح على حياة البشر أو أسلوب معيشتهم ويهدد أمنهم واستقرارهم، مثل تقنيات السيارات ذاتية القيادة، فضلا عن تقنيات المسح السكاني وتصنيف السكان أو حتى قراءة المشاعر وبناء التوقعات والتوصيات بناء عليها.

وعلى هذا التقسيم، فإن القانون يحظر تطوير واستخدام تقنيات الذكاء الاصطناعي التي تشكل خطرا واسعا من المستوى الأعلى دون محاولة تنظيمها، مثل تقنيات القيادة الذاتية التي تشكل خطرا على المستخدمين أو تقنيات توقع الجرائم والقبض على مرتكبيها قبل وقوعها.

في حالة مخالفة القانون الأوروبي للذكاء الاصطناعي، فإن مفوضية الاتحاد الأوروبي تخضع المخالفين لغرامات متنوعة تتناسب مع مستوى خطر الذكاء الاصطناعي الذي تم تقييمه سابقا، وتبدأ هذه الغرامات من 7.5 ملايين يورو أو 1.5% من إجمالي أرباح الشركة حتى 35 مليون يورو أو 7% من إجمالي أرباح الشركة، أيهما كان أعلى وأكثر قيمة.

في حالة مخالفة القانون الأوروبي للذكاء الاصطناعي، فإن مفوضية الاتحاد الأوروبي تخضع المخالفين لغرامات متنوعة (شترستوك) تحديات تنظيمية جمة

جاء قرار الاتحاد الأوروبي بتصنيف الذكاء الاصطناعي بحسب مخاطره، وهو قرار ملائم للضرر المتوقع حدوثه من الذكاء الاصطناعي وبالتالي محاولة منع وقوع هذا الضرر من الأساس، ورغم ذلك، فإن مظلة القانون تظل قاصرة بفضل التنوع الواسع في تقنيات الذكاء الاصطناعي ودخول العديد من الجوانب في تكوينها وبالتالي الحاجة لتنظيمها بشكل كامل.

وذلك لأن بعض تقنيات الذكاء الاصطناعي قد تمثل خطرا في سياق بعينه، مثل استخدام تقنيات التشغيل الذاتي في الأدوات الجراحية حيث تهدد مثل هذه التقنيات حياة وصحة الإنسان بشكل مباشر، ولكن تقنيات القيادة الذاتية في السيارات لا تملك الخطر ذاته، مما يتعارض بشكل مباشر مع تقييم مستوى الخطر لتقنيات التشغيل الذاتي بشكل عام.

تنوع استخدامات الذكاء الاصطناعي وتطبيقاته يجعل من الصعب وضع قانون واحد يضم كل التنظيمات المتعلقة به، ومن ضمن الأمثلة الواضحة على هذا الأمر تقديم تقنيات الذكاء الاصطناعي في الحروب العسكرية، إذ تعد وظيفة هذه التقنية الأساسية تيسير الفوز في الحروب ومقاومة الأعداء دون النظر إلى الحياة البشرية ومقدار الضرر الحادث، ولكن في الوقت نفسه، فإن هذه التقنية تمثل خطرا كبيرا على حياة البشر.

كما يمثل سياق استخدام تقنيات الذكاء الاصطناعي عاملا مهما في تحديد القانون الذي تخضع له، فبينما يحظر الاتحاد الأوروبي استخدام تقنيات التصنيف الاجتماعي العشوائي للمواطنين ضمن الشركات والاستخدامات المعتادة، فإن مثل هذه التقنية قد تكون مفيدة في الاستخدامات القضائية ومحاولة كبح أعمال الشغب واكتشاف المجرمين المختبئين وسط المستخدمين.

من المتوقع بالطبع أن يتم تعزيز قانون الذكاء الاصطناعي الأوروبي بالعديد من المواد بحسب ما يستجد في عالم الذكاء الاصطناعي، ولكن هل تكون عملية التحديث هذه بسرعة الإصدار ذاتها؟ إذ إن شركات الذكاء الاصطناعي تعمل بوتيرة متسارعة لتقديم تقنيات جديدة للبقاء في المنافسة، فهل تستطيع الجهات القانونية الأوروبية مواكبة هذه الوتيرة؟

تعارض متعدد المستويات

تأخرت حكومة الولايات المتحدة في طرح قانونها لتنظيم عمليات وتقنيات الذكاء الاصطناعي بشكل مباشر، ورغم هذا، فإنها لم تترك هذه الساحة دون قوانين تنظيمية، إذ قامت بفصل تقنيات الذكاء الاصطناعي وتوزيعها على القوانين والهيئات الموجودة حاليا، كأن تخضع تقنيات القيادة الذاتية لقوانين هيئات المركبات الفدرالية وتخضع الأسلحة الذكية للقوانين المتعلقة بالأسلحة بشكل عام وتقنيات الذكاء الاصطناعي التوليدي للقوانين الإبداعية.

فضلا عن ترك مهمة تحديد القوانين المخصصة للذكاء الاصطناعي على عاتق الإدارات الفدرالية في كل ولاية بمفردها، لذا قد توجد تقنية ذكاء اصطناعي محظورة في ولاية ما لكنها مسموحة في ولاية أخرى، وبينما يوفر هذا الأسلوب على الحكومة الفيدرالية للولايات المتحدة وقتا وجهدا في الاجتماع والتشاور، فإنه يخلق مستوى أعمق من التعارض بين القوانين.

فإن كان القانون الأوروبي يواجه هذا التعارض بين الاستخدامات المختلفة، فإن الحكومة الأميركية تواجه هذا التعارض بين الولايات والهيئات المختلفة داخل الحكومة ذاتها، وقد ينظر البعض لهذا التعارض على أنه فرصة لاستغلال الثغرات القانونية المتاحة في كل ولاية أو هيئة بمفردها، إلا أنه في الحقيقة يعرقل نمو الشركات وتطوير التقنيات بشكل صحيح، إذ يجب على الشركة تحديد أي قانون ترغب في اتباعه ثم التضحية بالولايات أو الدول التي تتعارض مع هذا القانون.

وبينما تشكل الشركات الأميركية الآن السواد الأعظم للشركات المطورة في قطاع الذكاء الاصطناعي، فإن هذا لا يعني وجود منافسين من خارج الحدود، وفي هذه الحالة، لماذا يجب أن تخضع الشركات الأوروبية أو العربية للقوانين الأميركية لتنظيم الذكاء الاصطناعي؟ والعكس صحيح كذلك، لذا من الأنسب بناء هيئة عالمية موحدة على غرار مجلس الأمن والأمم المتحدة لتنظيم هذه التقنيات، وذلك حتى تخضع الشركات لقانون موحد دوليا.

الهيئات التنظيمية والقانونية الدولية تنظر لشركات تطوير الذكاء الاصطناعي بعين الهيمنة (رويترز) الهرب بدلا من الخضوع للغرامات

تنظر الهيئات التنظيمية والقانونية الدولية لشركات تطوير الذكاء الاصطناعي بعين الهيمنة، إذ تعتقد بأنها قد توافق وتخضع لأي قانون صادر تجاهها، وفي حين كان هذا الأمر صحيحا في الماضي مع وجود حدود فيزيائية تمنع الشركات من العمل في أماكن بعيدة عن مقارها، فإن هذا الأمر اختلف تماما منذ مطلع القرن العشرين.

تستطيع الشركات الآن التخلي عن أسواق وقطاعات بأكملها هربا من الغرامات والقوانين المنظمة التي لا يمكن التماشي معها، وربما كان ما فعلته "ميتا" (Meta) في نهاية يونيو/حزيران الماضي مثالا حيا لذلك، إذ فضلت الشركة تأجيل طرحها لتقنيات الذكاء الاصطناعي داخل دول الاتحاد الأوروبي حتى الانتهاء من تطويعها بشكل يتماشى مع القانون، وقد تتخلى الشركة تماما عن طرح هذه التقنية في تلك البلاد هربا من العقوبات والغرامات.

في الوقت الحالي لم تعلن أي شركة غير "ميتا" عن هذا الأسلوب، ولكن قد نراه مستقبلا مع الشركات الأخرى إذا ما أثبت نجاحه مع "ميتا" وحماها من الوقوع تحت طائلة القانون الأوروبي، وفي هذه الحالة، فإن أسواق الذكاء الاصطناعي ستتحول من أسواق عالمية لا مركزية يمكن للجميع المشاركة فيها إلى أسواق محلية تركز على التماشي مع القوانين المطبقة محليا على كل منها.

الحاجة إلى فهم عميق

يتمتع الذكاء الاصطناعي بخصوصية تجعله مختلفا عن التقنيات الأخرى، إذ تتنوع استخدامات هذه التقنية وطرق تطويرها ويتدخل في الأمر العديد من المفاهيم التقنية المعقدة في مختلف نماذج واستخدامات الذكاء الاصطناعي، بدءا من نماذج الذكاء الاصطناعي التوليدي وحتى الروبوتات البشرية المعززة بالذكاء الاصطناعي أو حتى السيارات الذاتية القيادة.

لهذا السبب تحديدا، طالب الكونغرس شركات الذكاء الاصطناعي في مطلع هذا العام بالتكفل بعملية تدريب أعضائه وتثقيفهم حول تقنيات الذكاء الاصطناعي أملا في صك قوانين أكثر تفهما لطبيعة هذا القطاع الفريدة ومحاولة تنظيمه بما لا يتعارض مع نموه بشكل واسع.

وفي حين يبدو هذا المطلب غير واقعي، فإنه يمثل الطريق الأنسب لمحاولة الوصول إلى تقنيات وتشريعات عادلة بحق الذكاء الاصطناعي والشركات التابعة له، ويظل الحل البديل هو تشريع القوانين دون النظر إلى خصوصية التقنية، مما يولد أسوارا تمنع التقنية من النمو بشكل واقعي.

المصدر: الجزيرة

كلمات دلالية: حراك الجامعات حريات تقنیات الذکاء الاصطناعی الاتحاد الأوروبی القانون الأوروبی هذه التقنیة هذا القانون

إقرأ أيضاً:

تأثير الذكاء الاصطناعي على وسائل الإعلام التقليدية (3-3)

 

عبيدلي العبيدلي **

7. التعرف الآلي على الفيديو والصور:

يُساعد الذكاء الاصطناعي في وضع العلامات والتصنيف التلقائي لمحتوى الفيديو والصورة. ومن الطبيعي أن يساعد ذلك شركات الإعلام في إدارة أرشيفاتها الرقمية بشكل أفضل، وضمان إمكانية البحث في المحتوى والوصول إليه، بطرق أسرع.

وتعمل كل تلك التحسينات على تطوير الكفاءة في التعامل مع كميات كبيرة من محتوى الوسائط المتعددة، ولكنه يقلل من الحاجة إلى المحررين البشريين في مناطق معينة.

8. مذيعو الأخبار وروبوتات الدردشة التي تعمل بالطاقة الذكاء الاصطناعي

مذيعو الأخبار الذين يعملون بطاقة الذكاء الاصطناعي، مثل أولئك الذين شوهدوا في الصين، وروبوتات الدردشة التي تستخدمها شركات الإعلام للتفاعل مع الجماهير هي اتجاهات ناشئة. يمكن لهذه الكيانات الافتراضية تقديم الأخبار والتعامل مع استفسارات العملاء وتعزيز تفاعل الجمهور.

وبفضل مثل هذه النقلات النوعية يمكن للمذيعين وروبوتات الدردشة التي تعتمد على الذكاء الاصطناعي العمل على مدار الساعة، مما يحسن الكفاءة، لكنهم يثيرون أسئلة أخلاقية حول تجريد تقديم الأخبار من إنسانيتهم.

9. التحديات التي تواجه أخلاقيات الصحافة التقليدية

يجلب دور الذكاء الاصطناعي في إنشاء المحتوى ونشره تحديات أخلاقية، خاصة فيما يتعلق بالتحيز والشفافية والمساءلة. يمكن للخوارزميات الذكاء الاصطناعي نشر معلومات مضللة أو تحيزات عن غير قصد في اختيار الأخبار وتقديمها.

كل ذلك يستلزم ذلك وضع معايير صحفية وآليات رقابة جديدة لضمان حفاظ العمليات التي تقودها الذكاء الاصطناعي على النزاهة الأخلاقية.

10. خفض التكاليف ورفع مستوى الكفاءة

يقوم الذكاء الاصطناعي بأتمتة المهام التي كانت تتطلب في السابق عملا يدويًا، مثل نسخ المقابلات أو تحرير مقاطع الفيديو أو تنظيم المحتوى. هذا يقلل من التكاليف لشركات الإعلام التقليدية.

على أنه في حين أن هذا يزيد من الكفاءة التشغيلية، فإنه يؤدي أيضا إلى إزاحة الوظائف لأدوار محددة في صناعة الإعلام.

خاتمة

إنَّ تأثير الذكاء الاصطناعي على وسائل الإعلام التقليدية عميق ومتعدد الأوجه، مما يؤدي إلى فرص وتحديات، على حد سواء. إنه يحسن الكفاءة، والتخصيص، ومشاركة الجمهور مع إثارة الأسئلة الأخلاقية، وخلق أدوار وظيفية جديدة، وتغيير أشكال العمل الصحفي، وإنشاء المحتوى الإعلامي الجيد.

ومن الضرورة بمكان هنا، التأكيد على أن مؤسسات الإعلام التقليدي الهادفة لتحقيق الاستفادة القصوى من استخدام برمجيات الذكاء الاصطناعي لتطوير أدائها، مطالبة باتخاذ خطوة أخرى تسبق ذلك، وهي وضع أقدامها بثبات، ورسم  ورؤية واضحة، على الطريق الصحيح الذي يمكنها من الاستجابة، ومن مدخل ابتكاري، لمتطلبات رحلة التحول الرقمي.

ومثل هذه الرحلة لا تتوقف عند إجراء تحسينات تشغيلية، مهما بلغ الحيز الذي تشغله التحسينات فحسب. ولا تكتفي باقتناء أفضل الحواسيب، وأكثرها سرعة، أو التمسك بنيل ضمانات توفر لها أفضل سرعات الإنترنت فقط، بل تتطلب وضع خطة متكاملة، تستجيب لاحتياجات استراتيجية واضحة، تشمل كل ما سبق، لكنها محكومة بنظرة مهنية متقدمة تقوم على تحديد مسبق لاحتياجات المنظمة الإعلامية التقليدية بشكل علمي، يلبي متطلبات العمل، ويتناسب مع إمكاناتها المالية والبشرية، ويستجيب لاحتياجات الأسواق التي تخاطبها والجمهور الذي تتوجه نحوه.

ويفترض ذلك التحول نهج مرحلي، يمكن للمنظمة خلال فترته تقليل اضطرابات العمل، مع تعظيم عائد الاستثمار، ويضمن المراقبة المستمرة والتكيف مع البيئة الرقمية الجديدة، وتطوير مستوى أداء الموظفين لضمان نجاح هذا التحول على المدى الطويل.

 

 

 

الطريق إلى الأمام

تتمثل الخطوة الأولى في وضع خطة شاملة للمضي قدما في استراتيجية التحول الرقمي للمؤسسة الإعلامية التقليدية، في الخطوات التالية:

1. فهم الوضع الحالي للمنظمة:

التقييم: إجراء تدقيق داخلي للقدرات التكنولوجية الحالية للمؤسسة، وسير العمل والأداء الإداري في أقسامها. تحديد الثغرات: تحديد مجالات معينة يمكن للتكنولوجيا، وخاصة الذكاء الاصطناعي، تعزيز الكفاءة وإنشاء المحتوى المطلوب.

2. إجراء البحوث وتحديد مصادر المعلومات:

دراسات الحالة: دراسة التحولات الرقمية الناجحة في شركات الإعلام. إذ ستوفر الأمثلة العالمية والإقليمية الناجحة رؤى حول كيفية تنفيذ الذكاء الاصطناعي للأتمتة وتنظيم المحتوى والإعلانات المخصصة. الذكاء الاصطناعي في تقارير وسائل الإعلام: استخدام التقارير من مصادر حسنة السمعة ومشهود لها بالنجاح والموضوعية في إجراء دراسات مفصلة حول كيفية دمج الذكاء الاصطناعي في إعدادات الوسائط التقليدية. أدوات الذكاء الاصطناعي: تقييم جدوى استخدام أدوات الذكاء الاصطناعي ذات الصلة بالوسائط، مثل خوارزميات إنشاء الأخبار، وأنظمة بناء المحتوى، وبرامج تحرير الفيديو التي تعتمد على الذكاء الاصطناعي.

3. صياغة خطة التحول الرقمي:

الرؤية والأهداف: تحديد أهداف واضحة للتحول. على سبيل المثال، "زيادة مشاركة الجمهور بنسبة 20% من خلال المحتوى المخصص" أو "تقليل تكاليف إنتاج المحتوى عن طريق أتمتة 50% من المهام المتكررة". التنفيذ المرحلي: إنشاء خارطة طريق تحدد مراحل التنفيذ، والتقيد بمحطاتها العملياتية الرئيسية، بدءا من عمليات تكامل الذكاء الاصطناعي الصغيرة مثل روبوتات المحادثة أو التحرير الآلي، والانتقال إلى مشاريع أكبر مثل إنشاء محتوى الذكاء الاصطناعي. تقدير الميزانية وإدارة التكاليف: مواءمة تنفيذ الذكاء الاصطناعي مع الميزانية المتاحة من خلال التركيز على أدوات الذكاء الاصطناعي الفعالة من حيث التكلفة والاستثمارات المرحلية.

4. مصادر المعلومات والمراجع

مقابلات أصحاب المصلحة الداخليين: جمع الأفكار من أصحاب المصلحة الداخليين لفهم التحديات والتوقعات الحالية. أبحاث السوق: استخدم الأوراق البيضاء (White Papers) ورؤى الصناعة من الأبحاث الذكاء الاصطناعي والخاصة بالوسائط.

** خبير إعلامي

رابط مختصر

مقالات مشابهة

  • دراسة: تزايد اعتماد الشركات على الذكاء الاصطناعي لتعزيز الإنتاجية
  • تأثير الذكاء الاصطناعي على وسائل الإعلام التقليدية (3-3)
  • الذكاء الاصطناعي.. أداة يحبها ترامب وتتجنبها هاريس
  • مسلسل «برغم القانون».. الـذكاء الاصطناعي يسيطر على تتر العمل
  • بعد نجاح ألبومها.. أنغام تهاجم الذكاء الاصطناعي
  • كيف تستفيد الخدمات المالية من الذكاء الاصطناعي؟
  • كيف أدى مشروع قانون الذكاء الاصطناعي بكاليفورنيا إلى الانقسام في وادي السيليكون؟
  • هل ينجح الذكاء الاصطناعي في توقّع الزلازل؟
  • في عصر الذكاء الاصطناعي .. أهمية الحلول المحلية لحماية البيانات
  • كومبيوترات محمولة للطلاب تدعم تقنيات الذكاء الاصطناعي وهذه أسعارها ومواصفاتها بالسعودية