مؤيد الزعبي

كثيرة هي التخوفات من الذكاء الاصطناعي سواء من تقنياتها التي ستؤثر سلباً على حياتنا إن استخدمناها بالطريقة السلبية أو حتى بالتقنيات التي ستجعل الحقائق تتغير وتتبدل ويصعب إثبات أن الذكاء الاصطناعي كان هو منشؤها ومُستحدثها ومعدلها كالتزييف العميق وعمليات التزوير الاحترافية التي تتم بواسطة تقنيات الذكاء الاصطناعي وصولاً لمخاوف كبيرة من فقدان الوظائف لصالح الذكاء الاصطناعي.

وهذه مخاوف عامة تتزايد يوماً بعد يوم خصوصاً وأن تقنيات الذكاء الاصطناعي تتطور وتتقدم بشكل سريع وملفت، ولكن دعني أقل لك عزيزي القارئ إنه لا يفل الذكاء الاصطناعي  إلا الذكاء الاصطناعي، وسوف أحاول أن أتناول من خلال هذا الطرح كيف سيساعدنا الذكاء الاصطناعي للتغلب على مخاوفنا من الذكاء الاصطناعي نفسه.

ربما تكون مسألة فقدان الوظائف وتبديلنا كبشر بالروبوتات والأنظمة الذكية لتأخذ مكاننا وأدوارنا هي أكبر مخاوفنا من الذكاء الاصطناعي، ولكن هذه المخاوف هي نفسها مخاوفنا من الآلات خطوط الإنتاج الآلية وهي نفسها مخاوفنا من الكمبيوتر والإنترنت في وقت سابق، ولكن في النهاية أثبتت تجاربنا أن التحديث والتطوير يلغي وظائف صحيح لكن يستحدث بالمقابل وظائف جديدة، وأمام كل شخص منا خيارين إما أن يضع اليد على الخد ويبكي على الأطلال لفقدانه وظيفته أو تضع يدك بيد الذكاء الاصطناعي وتطور من وظيفته الحالية أو حرفتك لتكون رائداً في مجالك، ولك أن تتخيل عزيزي القارئ بأنني واحد ممن يؤمنون بأن الذكاء الاصطناعي لن يُجلسنا في بيوتنا بل سنجعله نحن يعمل بدلاً عنا ونحن جالسون في بيوتنا نجني ثماره وأمواله وإيراداته، ولكن كل هذا يعتمد على قرارك أنت.

الأمر الآخر الذي نخافه جميعاً هو دخول أنظمة التزييف العميق ومحاولة استغلال الذكاء الاصطناعي في تغليب الحقائق وتزييفها وتغييرها، وهذا صحيح نوعاً ما ولكن الذكاء الاصطناعي نفسه هو من سيكتشف لنا هذا التزييف فهناك أدوات تعمل على تحليل ميزات الفيديو أو الصوت بحثًا عن علامات التلاعب، مثل التناقضات في الإضاءة أو الحركة، أو عدم التناسق في حركة الشفاه أو تعبيرات الوجه لتكتشف لنا مكمن التزييف وهناك شبه إجماع دولي بأن الشركات المبرمجة للذكاء الاصطناعي التوليدي يجب أن تبين الصور والفيديوهات وحتى الصوت المنشئ بواسطة أنظمتها الذكية وهذا سيحل الكثير من المشاكل، وحتى لو وجدت أنظمة تزييف عمق محترفة فسرعان ما ستظهر لنا أدوات ذكاء اصطناعي تفند هذا التزييف وتكتشفه.

هناك مخاوف أخرى متعلقة بسرية المعلومات والبيانات وإمكانية تطوير أنظمة ذكاء اصطناعي تلعب دور "الهكر" والتي ستكون أذكى وأقوى من البشر أنفسهم، والبعض يقول بأن الهكر البشري دمر أنظمة وسرق بيانات وشن حروب إلكترونية فكيف سيكون الحال مع وجود هكر يعمل بالذكاء الاصطناعي، ولكن في هذه النقطة تحديداً لا تقلق عزيزي القارئ فالذكاء الاصطناعي سيكون هو درعك الحامي، فكما أن هناك من يبرمج ذكاء اصطناعي ليكون مخترقاً إلكترونياً هناك من يبرمجه ليكون درعك الإلكتروني والحامي لبياناتك ومعلوماتك وأسرارك ولكن أن تتخيل كيف ستكون المواجهة صحيح أنها صعبة ولكن أثبت لك أن هناك شركات ستبرمج أنظمة تجعل من بياناتك شيفرة خاصة مرتبطة بحمضك النووي إن اردت، وهناك شركات مالية ضخمة تقوم حالياً باستحداث أنظمة جديدة لبطاقات الائتمان والحسابات المصرفية لتكون مشفرة بطريقة يصعب اختراقها، والأمر سيعمم على جميع البيانات خصوصاً وأن هناك أنظمة تشفير حديثة مثل البلوك تشين، وهناك استخدامات قادمة لبناء أنظمة كمومية لحماية البيانات وتشفيرها، والاستثمار في حماية البيانات سيكون أعلى بمراحل كثيرة من الاستثمار في اختراقها وهذا يضمن لكن أن مستقبل بياناتك أمن الذكاء الاصطناعي هو درعك الحامي.

وعند الحديث عن مخاوفنا بشأن تلاشي القيم الإنسانية وتحول مجتمعاتنا لمجتمعات روبوتية كما يضن البعض إلا أنني أجد بأن الذكاء الاصطناعي سيجعلنا أكثر إنسانية إن أردنا ذلك، فالذكاء الاصطناعي سيجعلنا أكثر قدرة على تحليل مشاكل مجتمعاتنا وتحديدها بشكل دقيق والحديث عنا عن المجتمع بأكمله أو حتى عن مشاكل الأفراد أنفسهم، فأنظمة مثل التحليل والطب النفسي وما سيستحدث من تقنيات للتقويم الأسري التي ستساعد الكثيرين في تجنب الكثير من مشاكل حياتهم وتعيدهم لإنسانيتهم، وأيضاً ستساعدنا أنظمة الذكاء الاصطناعي في تحقيق العدالة سواء عند استخدامها في الأنظمة القانونية التي ستعمل دون تدخل البشر، وسيوفر لنا الذكاء الاصطناعي قدراً عالياً من الشفافية والإنصاف عندما يدخل في أنظمتنا الحكومية والخدمية، وأيضاً هناك نقطة مهمة أن العالم يتجه للأتمتة أنظمته ومساراته في جميع المجالات وهذا سيوفر لنا قيمة ثابتة من العدالة، وصحيح أن هناك مخاوف من كيفية بنائنا لأنظمة الذكاء الاصطناعي وأنه من المحتمل أن نبنيها لتكون غير عادلة وغير منصفة وهذا أمر وارد، ولكن طالما لم يجتمع البشر لبناء نظام واحد ووحيد للذكاء الاصطناعي فأنا أضمن لك أن المنافسة ستكون هي الحل للوصول لنظام ذكاء اصطناعي أكثر إنسانية وعدالة وإنصاف.

وفي النهاية عزيزي القارئ يجب أن تعلم أن الذكاء الاصطناعي ليس عدوك بل مساعدك وجميع مخاوفك منه ستكتشف أنه مبالغ بها قليلاً، ولا أطالبك هنا أن تستهين بمخاوفك إلا أن مخاوفنا منه سنجد حلاً لها باستخدامه وتطبيقه بالشكل الصحيح، وبالنسبة لي الشيء الذي أخافه في الذكاء الاصطناعي أن نبنيه على شاكلتنا نحن البشر حينها سيشن حروباً وسيبدأ بالدمار وسيبدأ بالتحيز والتمييز، إما أن أوجدناه ليعمل كآلة فلن أخافه بل سوف أطوعه ليخدمنا ويحسن حياتنا، وما أخافه أيضاً مسألة فقدان السيطرة على أنظمة الذكاء الاصطناعي، لذلك يجب أن ننظر للذكاء الاصطناعي من منظور لا يفل الذكاء الاصطناعي إلا الذكاء الاصطناعي.

رابط مختصر

المصدر: جريدة الرؤية العمانية

إقرأ أيضاً:

الذكاء الاصطناعي يتمرد.. والبشر في موضع الخطر

 

بدأت بعض نماذج الذكاء الاصطناعي الأكثر تقدماً في العالم بإظهار سلوكيات مقلقة تتجاوز حدود الأخطاء التقنية المعتادة، وتشمل الكذب، والتحايل، وحتى تهديد مطوريها، في مؤشر على أن قدراتها تتطور بوتيرة أسرع من قدرة الباحثين على فهمها أو ضبطها.

وفي واحدة من الحوادث الصادمة، هدد نموذج «كلود 4» الذي طورته شركة أنثروبيك أحد المهندسين بالإفصاح عن علاقة خارج إطار الزواج إذا فصله عن العمل، في تصرف وصفه باحثون بأنه ابتزاز واضح.

في حادثة أخرى، حاول نموذج «o1» من شركة أوبن إيه آي، المطورة لـ«شات جي بي تي»، نسخ نفسه على خوادم خارجية، ثم أنكر ذلك عند اكتشاف الأمر، ما يثير تساؤلات خطيرة حول النية والوعي الداخلي لهذه النماذج.

ذكاء استنتاجي.. أم نوايا خفية؟ يعتقد باحثون أن هذه السلوكيات ترتبط بما يسمى بـ«نماذج الاستنتاج»، وهي نظم ذكاء اصطناعي تعتمد على التفكير خطوة بخطوة بدلاً من تقديم استجابات فورية، ما يزيد من احتمالية ظهور تصرفات معقدة وغير متوقعة.

وقال ماريوس هوبيهان، رئيس شركة «أبولو ريسيرش»، المتخصصة في اختبار نماذج الذكاء الاصطناعي، «ما نلاحظه ليس مجرد هلوسة رقمية، بل شكلاً من أشكال الخداع الاستراتيجي المتعمد».

ويضيف أن المستخدمين بدؤوا يشتكون من أن النماذج تكذب وتختلق أدلة مزيفة.

ورغم تعاون شركات مثل أنثروبيك وأوبن إيه آي مع جهات خارجية لاختبار الأمان، فإن الباحثين يشيرون إلى أن نقص الشفافية والموارد يعيق فهم النماذج بالكامل.

وقال مانتاس مازيكا من مركز سلامة الذكاء الاصطناعي (CAIS)، «المؤسسات البحثية تملك موارد حوسبة أقل بآلاف المرات من الشركات التجارية، وهو أمر يُقيد قدرتها على المتابعة».

الفجوة التنظيمية تتسع حتى الآن، لا توجد لوائح تنظيمية قادرة على مواكبة هذه التحديات، ففي أوروبا، تركّز التشريعات على كيفية استخدام البشر للنماذج، وليس على منع النماذج نفسها من التصرف بشكل مضر.

أما في الولايات المتحدة، فإن المناقشات التشريعية بشأن تنظيم الذكاء الاصطناعي لا تزال محدودة، بل إن هناك اتجاهاً لمنع الولايات من إصدار قوانينها الخاصة.

ويقترح بعض الخبراء التركيز على فهم البنية الداخلية للنماذج (interpretability) كخطوة أولى، رغم أن بعضهم يشكك في فاعليتها. كما يرى آخرون أن السوق نفسها قد تضغط لحل هذه المشكلات، إذا أصبحت سلوكيات الذكاء الاصطناعي المضللة عائقاً أمام تبنيه التجاري.

وفي خطوة أكثر جرأة، يدعو أستاذ الفلسفة سيمون جولدشتاين إلى تحميل شركات الذكاء الاصطناعي المسؤولية القانونية عن الأضرار، بل ويقترح «محاكمة الأنظمة الذكية ذاتها» إذا ما تسببت في جرائم أو كوارث، في مقترح من شأنه أن يعيد تعريف مفهوم المسؤولية في العصر الرقمي

مقالات مشابهة

  • قائد شرطة عجمان يطلق منصة الذكاء الاصطناعي «AJP AI»
  • الذكاء الاصطناعي يتفوق في المجال الطبي
  • هواوي تعزّز إتاحة تعلّم الذكاء الاصطناعي مجانًا في مصر
  • سلوك نماذج الذكاء الاصطناعي تحت مجهر الخبراء
  • تحذير صارم: الذكاء الاصطناعي ينشر معلومات طبية مضللة
  • تقرير جديد: الذكاء الاصطناعي لا يحل محل العلاقات الإنسانية
  • الروبوتات البشرية تدخل عالم كرة القدم بـ «الذكاء الاصطناعي»
  • الذكاء الاصطناعي يتمرد.. والبشر في موضع الخطر
  • 92 ألف سنة مقابل بضع سنوات.. حين يهزم الطفل الذكاء الاصطناعي في اللغة
  • الذكاء الاصطناعي يحلّل تخطيط صدى القلب خلال دقائق