بين قدراته وسلبياته.. العالم يتخوف من تطبيق الذكاء الصناعي في المهن الحيوية
تاريخ النشر: 15th, October 2023 GMT
يتخوف البعض من أصحاب المهن المختلفة حول العالم من قدرة الذكاء الصناعي على إنشاء محتوى في هذا المجال مثل إنتاج محتوى تسويقي أو ترجمة أو كتابة أو عمليات حسابية، ما قد يؤثر على سوق العمل الخاص بهم.
وليس فقط المخاوف من استبدال الأفراد بالبرنامج الافتراض لكن أيضا تثار الشكوك والمخاوف من إنتاج المعلومات الخاطئة على نطاق واسع وعدم التحقق من المصادر وعدم اتباع منهجية في تحري الدقة المعلوماتية.
ومع وضع هذه الجوانب السلبية المحتملة في الحسبان، تحاول الحكومات في جميع أنحاء العالم إنشاء لوائح تنظيمية، أو قوانين للذكاء الاصطناعي، تعمل على تعزيز السلامة والاستخدام العادل، مع الاستمرار في تشجيع الابتكار.
امريكا تحاول تنظيم الذكاء الصناعي
على سبيل المثال، سمحت حكومة الولايات المتحدة حتى الآن لشركات التكنولوجيا بوضع ضماناتها الخاصة حول الذكاء الاصطناعي، لكن المشرعين يقولون إن تنظيم الذكاء الاصطناعي ضروري؛ إذ عقدوا اجتماعات متعددة في عام 2023 مع شركات الذكاء الاصطناعي الرائدة من «OpenAI» إلى «Nvidia».
وناقش المشرعون متطلبات الترخيص، وإصدار الشهادات لنماذج الذكاء الاصطناعي عالية المخاطر عند الضرورة.
وفي الوقت نفسه، قالت الوكالات الفيدرالية، مثل مكتب الحماية المالية للمستهلك، ووزارة العدل، ولجنة تكافؤ فرص العمل، ولجنة التجارة الفيدرالية، إن الكثير من تطبيقات الذكاء الاصطناعي تخضع بالفعل للقوانين الحالية.
وتعمل تكنولوجيا الذكاء الاصطناعي على تحسين أداء المؤسسات وإنتاجيتها عن طريق أتمتة العمليات أو المهام التي كانت تتطلب القوة البشرية فيما مضى. كما يمكن للذكاء الاصطناعي فهم البيانات على نطاق واسع لا يمكن لأي إنسان تحقيقه.
وهذه القدرة يمكن أن تعود بمزايا كبيرة على الأعمال. فعلى سبيل المثال، تستخدم شركة Netflix التعلم الآلي لتوفير مستوى من التخصيص مما ساعد الشركة على تنمية قاعدة عملائها بأكثر من 25%.
ويحتل الذكاء الاصطناعي رأس أولويات جداول أعمال المنظمات الدولية والإقليمية، مثل مجموعة السبعة (G7) ومجموعة العشرين (G20) واليونسكو ومنظمة التعاون الاقتصادي والتنمية (OECD) والمنظمة العالمية للمليكة الفكرية (WIPO) والاتحاد الأوروبي وجامعة الدول العربية والاتحاد الأفريقي، وغيرها. ويهدف هذا الحوار الدولي إلى بناء فهم مشترك لتكنولوجيات الذكاء الاصطناعي الناشئة.
ولدى منظمة الأمم المتحدة كذلك مبادرات عديدة قائمة ذات صلة بالذكاء الاصطناعي تهدف إلى تحديد مبادئ وأولويات سياسات الذكاء الاصطناعي من أجل إسراع وتيرة التقدم نحو تحقيق أهداف الأمم المتحدة للتنمية المستدامة.
وفي الصين يجب أن يخضع مقدمو خدمات الذكاء الاصطناعي التوليدي لتقييم أمني، ويجب أن تلتزم أدوات الذكاء الاصطناعي بالقيم الاشتراكية.
لكن تكنولوجيا الذكاء الاصطناعي التوليدية، التي تم تطويرها للاستخدام خارج البلاد فقط، معفاة من القواعد. وتمتلك شركات التكنولوجيا الصينية، مثل «بايدو»، و«تينسينت»، و«هواوي»، مراكز بحث وتطوير في وادي السيليكون.
ولمنافسة «تشات جي بي تي» من شركة «أوبن إيه إي»، أعلنت «علي بابا» و«بايدو» و«جاي دي» أكبر شركات الإنترنت في البلاد، عن تطوير روبوتات الدردشة الخاصة بها، التي تعمل بالذكاء الاصطناعي.
في الماضي، قالت الصين إنها تريد أن تكون الرائدة عالمياً في مجال الذكاء الاصطناعي بحلول عام 2030، ووضعت خططاً لتسويق الذكاء الاصطناعي تجارياً في عدد من المجالات، من المدن الذكية إلى الاستخدامات العسكرية، حسبما ذكرت شبكة CNBC.
تميل اليابان نحو قواعد أكثر ليونة تحكم استخدام الذكاء الاصطناعي. وفي الأسبوع الفائت تعهد رئيس الوزراء فوميو كيشيدا بأن الحزمة الاقتصادية التالية ستشمل تمويل تطوير الذكاء الاصطناعي في الشركات الصغيرة والمتوسطة الحجم، وهو ما يمكن أن يساعد في تعزيز ريادة اليابان المفقودة في مجال التكنولوجيا.
قالت اليابان أيضاً إن استخدام الصور المحمية بحقوق الطبع والنشر لتدريب نماذج الذكاء الاصطناعي لا ينتهك قوانين حقوق الطبع والنشر، ما يعني أن موفري الذكاء الاصطناعي التوليدي يمكنهم استخدام الأعمال المحمية بحقوق الطبع والنشر، دون الحصول على إذن من أصحاب الصور.
وقال أحد أعضاء «مجلس النواب» عن اليابان: «في اليابان، يمكن استخدام أعمال تحليل المعلومات، بغض النظر عن الطريقة، سواء لأغراض غير ربحية، أو من أجل الربح، أو لأعمال أخرى غير الاستنساخ، أو لمحتوى تم الحصول عليه من مواقع غير قانونية». الحزب «الديمقراطي الدستوري» الياباني.
ومع ذلك، أقر الممثل بأن استخدام الصورة ضد إرادة صاحب حقوق الطبع والنشر يمثل مشكلة من وجهة نظر حماية الحقوق، واقترح الحاجة إلى «لوائح جديدة لحماية أصحاب حقوق الطبع والنشر».
وفي مصر، أنشأت الحكومة المجلس الوطني للذكاء الاصطناعي في نوفمبر 2019 باعتباره شراكة بين المؤسسات الحكومية والأكاديميين والممارسين البارزين من الشركات الرائدة في مجال الذكاء الاصطناعي.
يرأس وزير الاتصالات وتكنولوجيا المعلومات المجلس الوطني للذكاء الاصطناعي، الذي يُعد مسؤولًا عن وضع استراتيجية الذكاء الاصطناعي وتنفيذها وإدارتها من خلال تعاون وثيق مع الخبراء والجهات المعنية.
مسؤوليات المجلس
- وضع الاستراتيجية الوطنية للذكاء الاصطناعي
- تحديد آليات المتابعة لتنفيذ الاستراتيجية الوطنية للذكاء الاصطناعي بطريقة تتوافق مع أفضل الممارسات الدولية في هذا المجال
- تحديد الأولويات الوطنية في مجال تطبيقات الذكاء الاصطناعي
- اقتراح سياسات وطنية وتقديم توصيات ذات صلة بالأطر الفنية والقانونية والاقتصادية لتطبيقات الذكاء الاصطناعي
- تعزيز التعاون في هذا المجال على المستويين الإقليمي والدولي، بما في ذلك تبادل أفضل الممارسات والخبرات
- تحديد تطبيقات الذكاء الاصطناعي التي تقدم حلولًا وخدمات ذكية وآمنة ومستدامة
- مراجعة البروتوكولات والاتفاقات الدولية في مجال الذكاء الاصطناعي
- التوصية ببرامج بناء القدرات وتعزيز مهارات ومعارف الكوادر الوطنية
البطالة
صحيح أن للذكاء الاصطناعي له ميزة في تقليل التكاليف، إلا إنه من جانب آخر قد يتسبب في مشكلة كبيرة وهي البطالة، حيث عندما يتم استبدال الأيدي العاملة البشرية بآلات الصناعية، سيتم تهديد طبيعة الحياة في المجتمعات وخلق قضايا جديدة.
مصادر البيانات وانتهاك الخصوصية الشخصية
مع توقع مؤسسة البيانات الدولية أن ينمو مجال البيانات العالمي من 33 تريليون غيغابايت في عام 2018 إلى 175 غيغابايت بحلول عام 2025، حيث تتوفر كميات هائلة من البيانات المنظمة وغير المهيكلة للشركات لتعدينها ومعالجتها.
المسؤولية القانونية غير واضحة
بالنظر إلى المخاطر المحتملة للذكاء الاصطناعي التي تمت مناقشتها حتى الآن، تؤدي هذه المخاوف إلى مسألة المسؤولية القانونية، إذا كان نظام الذكاء الاصطناعي مصممًا بخوارزميات غامضة، ويسمح التعلم الآلي لاتخاذ القرار بتحسين نفسه، فمن المسؤول قانونيًا عن النتيجة.
المصدر: صدى البلد
كلمات دلالية: ترجمة سوق العمل الذکاء الاصطناعی للذکاء الاصطناعی الطبع والنشر الاصطناعی ا فی مجال
إقرأ أيضاً:
روبوت DOGE الخاص بـ إيلون ماسك يتجسس على موظفين فيدراليين باستخدام الذكاء الاصطناعي
كشف تقرير جديد أن فريقًا تقنيًا سريًا تابعًا للملياردير الأمريكي إيلون ماسك، يعرف باسم "فريق DOGE"، يستخدم تقنيات الذكاء الاصطناعي لمراقبة الاتصالات داخل إحدى الوكالات الفيدرالية الأمريكية، بهدف رصد أي مواقف معادية للرئيس السابق دونالد ترامب وأجندته السياسية، بحسب ما نقله مصدران مطلعان لرويترز.
وبينما تظل تفاصيل عمل "إدارة كفاءة الحكومة" التابعة لماسك محاطة بالسرية، تشير المعلومات إلى أن الفريق يستخدم أدوات تكنولوجية متقدمة، مثل روبوت الدردشة Grok المدعوم بالذكاء الاصطناعي وتطبيق Signal للتواصل، ما يثير مخاوف متزايدة بشأن الشفافية وحماية الخصوصية في عمل هذه الكيانات داخل الحكومة.
قال أحد المطلعة المصادر لوكالة رويترز إن فريق DOGE يستخدم تطبيق Signal المشفر لإجراء محادثاته، وهو ما قد يشكل انتهاكًا لقواعد حفظ السجلات الفيدرالية، خاصة وأن الرسائل يتم ضبطها لتختفي تلقائيًا بعد فترة زمنية.
كما أشار المصدر إلى أن الفريق يوظف "بوت ماسك الذكي" Grok في عمليات تقليص الهيكل الإداري للحكومة.
وقالت الأستاذة كاثلين كلارك، خبيرة أخلاقيات الحكومة في جامعة واشنطن بسانت لويس، إن استخدام Signal دون حفظ الرسائل يعد غير قانوني.
وأضافت: "هذا النوع من الممارسات يفاقم القلق بشأن الشفافية وأمن البيانات داخل الإدارة الفيدرالية".
ذكاء اصطناعي لمراقبة الموظفينفي وكالة حماية البيئة الأمريكية (EPA)، أبلغ بعض المديرين من قبل مسؤولين عيّنهم ترامب بأن فريق ماسك بدأ في استخدام الذكاء الاصطناعي لرصد سلوك الموظفين، تحديدًا من خلال تحليل العبارات المكتوبة التي قد تحمل مواقف معادية للرئيس السابق أو لماسك نفسه.
وقالت مصادر مطلعة إن مراقبة الاتصالات تتم عبر منصات مثل Microsoft Teams، حيث تم تحذير الموظفين من أن النظام يتتبع كل ما يقولونه أو يكتبونه.
وتواجه الوكالة خفضًا حادًا في ميزانيتها بنسبة 65%، مع تعليق عمل أكثر من 600 موظف منذ يناير الماضي.
وفي ردها على التقرير، أصدرت وكالة حماية البيئة بيانًا أكدت فيه أنها "تدرس استخدام الذكاء الاصطناعي لتحسين الأداء الإداري"، لكنها نفت أن تكون هذه التقنية تستخدم لاتخاذ قرارات تتعلق بالموظفين بالتعاون مع DOGE، ولم توضح ما إذا كانت تستخدمها في مراقبة الاتصالات.
انتقادات حادة وتحقيقات قانونيةورغم محاولات التبرير، تصاعدت الانتقادات داخل الأوساط السياسية الأمريكية، حيث اتهم ديمقراطيون ماسك وترامب بالسعي لإقصاء موظفين مستقلين من الجهاز الإداري واستبدالهم بولاء سياسي، بينما وصف خبراء أخلاقيات حكومية هذه الممارسات بأنها "إساءة استخدام للسلطة" وتهديد لحرية التعبير.
وذكرت رويترز أن تحقيقاتها شملت مقابلات مع نحو 20 شخصًا مطلعًا على عمل DOGE، إضافة إلى مراجعة مئات الوثائق القانونية التي تتناول ممارسات الوصول إلى البيانات الحكومية، ما سلط الضوء على استخدام غير تقليدي للتكنولوجيا داخل إدارة ترامب.
سرية مفرطة وخرق للبروتوكولاتوكشف التقرير أن بعض موظفي DOGE يتجاوزون الإجراءات الرسمية لتداول الوثائق الحكومية، ويستخدمون مستندات Google بشكل جماعي في التعديل، ما يُصعّب تتبع النسخ النهائية أو معرفة من أجرى التعديلات.
ورفض البيت الأبيض وماسك التعليق على هذه المعلومات، بينما أكدت إدارة ترامب أن DOGE لا يخضع لقوانين الشفافية التي تتيح للصحافة والجمهور الاطلاع على سجلات الجهات الفيدرالية.
وفي 10 مارس الماضي، أمر قاضٍ فيدرالي إدارة DOGE بتسليم مستنداتها إلى منظمة "مواطنون من أجل المسؤولية والأخلاقيات في واشنطن"، التي رفعت دعوى قضائية تطالب بالكشف عن هذه الوثائق، وحتى اليوم، لم تسلّم DOGE أي وثائق وفقًا للمنظمة.
السيطرة على البنية التحتية الرقمية للحكومةوأشار التقرير إلى أن فريق ماسك عزز سيطرته على البنية الرقمية لبعض المؤسسات، مثل مكتب إدارة شؤون الموظفين OPM، حيث تم حجب وصول الموظفين إلى قاعدة بيانات تضم معلومات حساسة لأكثر من 10 ملايين موظف حالي وسابق.
ولم يتبق سوى موظفين اثنين يمكنهم الوصول، أحدهما موظف عينه ترامب وكان يعمل سابقًا في شركة ناشئة بمجال الذكاء الاصطناعي.
وينظر إلى OPM على أنه أداة تنفيذية رئيسية لتنفيذ رؤية الإدارة الجديدة بتقليص الجهاز الإداري الفيدرالي.