الجزيرة من مكاتب غوغل كلاود تستشرف مستقبل الذكاء الاصطناعي في المنطقة العربية
تاريخ النشر: 5th, May 2024 GMT
بعد عام من لقائه لأول مرة في مؤتمر الذكاء الاصطناعي الأول الذي نظمه معهد الجزيرة عام 2023 والذي كان من أوائل المؤتمرات التي واكبت انطلاق ثورة الذكاء الاصطناعي في المنطقة، تلتقي الجزيرة الدكتورَ شوقي توبي مسؤول الذكاء الاصطناعي في قسم الشركاء، ولكن هذه المرة في مكاتب غوغل كلاود بالدوحة والذي كان لنا معه هذا اللقاء.
الدكتور توبي: "تغير الكثير، فكما تعلم غوغل كانت من رواد هذه التكنولوجيا فهي من أطلقت تكنولوجيا "الترانسفورمر" (Transformer)، سنة 2017، وجعلت مصدرها مفتوحا للجميع ثم قامت شركات بالبناء على هذا النموذج ومنهم شركة "أوبن إيه آي" (Open AI)
ببرنامجها "شات جي بي تي"، فحرف "تي" هو اختصار لكلمة "ترانسفورمر".
ولكن مع هذا كانت غوغل متحفظة بعض الشيء في إطلاق نماذج ذكاء اصطناعي توليدي للجمهور حتى مؤتمرها للمطورين في مايو/أيار 2023 والذي أعلنت فيه عن منتجها "بارد" (Bard) وهو برنامج دردشة باستخدام الذكاء الاصطناعي الموجه للمستخدمين مبني على برنامج "بالم" (Palm) الذي هو عبارة عن نموذج لغوي فائق الحجم (LLM) .
وفي نفس الوقت أطلقنا 6 "نماذج تأسيسية" (Foundation Models) من الذكاء الاصطناعي متخصصة بمهام معينة مثل "إيماجن" (Imagen) لخلق الصور أو "كودي" (Codey) لخلق البرامج، واستمرت غوغل بإطلاق عدة نماذج حتى وصلنا لإطلاق "جيميني" (Gemini) في نهاية 2023.
جيميني هو أول نظام يمكن اعتباره متعدد النماذج فهو ليس مختص فقط بإنشاء النصوص ولكنه يستطيع إنشاء النصوص والصور والفيديو من نفس النظام وهو الوحيد الذي يجمع عدة نماذج في نظام واحد.
ومع إطلاق جيميني بدأت الأمور تتسارع مع غوغل فبعد إطلاق النسخة 1.0 من جيميني في ديسمبر/كانون الأول 2023, أطلقنا جميني 1.5 في يناير/كانون الثاني 2024، وهو النسخة المطورة والذي يتقبل كميات ضخمة من البيانات في "البرومت" (Prompt) تصل إلى "مليون توكينز" (1M Tokens) أو ما يعادل ساعة كاملة من الفيديو أو 11 ساعة من الصوت. ونخطط لإطلاق نسخة منه على الموبايل تسمى نانو وهذه نسخة مخصصة للأجهزة المفصولة والتي تقوم بعمليات ذكاء اصطناعي داخلية إلى جانب نسختين إضافيتين تسمى آلترا وأخرى برو.
غوغل يطرح تصورين لتقديم جيميني إلى العالم: واحد موجه للأفراد وهو يسمى ببساطة "جيميني" (gemini.google.com)، والآخر للشركات، متاح عن طريق منصة متخصصة "فيرتكس إيه آي" (Vertex AI) لمساعدتهم على بناء برامج خاصة مبنية على الذكاء الاصطناعي التوليدي.
بالإضافة لكل ذلك غوغل يقدم "جيميني فور وركسبايس" (Gemini for Workspace) الموازي لـ"كوبايلوت" (Copilot) و"جيميني فور غوغل كلود" (Gemini for Google Cloud) المتخصص في مساعدة المستخدمين على التفاعل مع منصة "غوغل كلود" (Google Cloud) بطريقة سهلة مبنية على اللغة الطبيعية.
ومن جهة ثانية "فيرتكس إيه آي" يقدم تقنية "الأدابترز" (Adaptors) وهي طريقة تسمح للشركات بإعادة تدريب جيميني، بمساعدة بياناتها الخاصة التي يريد المستخدم تدريبه عليها. وفي العادة تستخدم هذه التقنية للاستفادة من قدرات "جيميني"، ولكن بناء على الأنظمة والخبرات الموجودة في المنظمة أو الشركة.
أيضا في هذا المجال لدينا نسخ من الذكاء الاصطناعي التوليدي متخصصة في في مجالات محددة تهم قطاعات بعينها فمثلا لدينا الآن "ميد إل إم" (MedLM) خاص بالقطاع الصحي الذي يمكن أن يكون جزءا من آلية مساعدة الأطباء في عمليات التشخيص على سبيل المثال، فهذا النظام مخصص فقط للقطاع الصحي فإذا طلبت أن يكتب لك مقالة فربما لا تكون بالشكل الذي تريده ولكن في الطلبات الخاصة بالقطاع الصحي سوف يكون أفضل بكثير من الذكاء الاصطناعي العام، لأنه مدرب بشكل حصري على هذه المعلومات. وهنالك "سيك إل إم" (SecLM) المختص بالأمن السيبراني.
الجزيرة: هذا العدد الكبير في أنظمة الذكاء الاصطناعي التي تقدمها غوغل تجعلنا نتساءل عن قدرة غوغل على إنشاء ذكاء اصطناعي مسؤول؟ خصوصا بعد الحوادث التي حدثت عند إطلاق عدد من هذه الخدمات والتي أثارت الجدل حول التحديات التي تواجه هذه التكنولوجيا.يقول الدكتور توبي: "للإجابة عن هذا السؤال يجب أن نحلل الحالات التي تظهر مشاكل معينة بشكل منفرد، ويجب أن نبدأ بالحالات التي كان بها الذكاء الاصطناعي غير مسؤول، ثم يجب أن ندخل بعمق أكثر في البيانات التي تدرب عليها الذكاء الاصطناعي في كل حالة من هذه الحالات. بهذه الطريقة سوف نعرف كيف حصلت هذه الحالات وما هو مصدر هذه المشاكل".
ويضيف: "لا تنس أن الذكاء الاصطناعي يتعلم من عدد هائل من البيانات التي يتم تزويده بها وهذه البيانات جزء كبير منها موجود من مصادر مفتوحة مثل الإنترنت ولذلك فهي قد تكون بيانات غير مصنفة بشكل سليم تعلم عليها الذكاء الاصطناعي وأفرزت هذه الحالات التي نجدها متحيزة ولكنها وصلت للذكاء الاصطناعي عن طريق البشر، وهو ما يجب أن نفرق بينه وبين القول إن هذه التكنولوجيا متحيزة".
الجزيرة: هذا يقودنا إلى المسؤولية عن انتشار هذه التكنولوجيا المهمة فكما نعلم هناك العديد من أنظمة الذكاء الاصطناعي مفتوحة المصدر وآخرها إعلان ماسك أنه سوف يجعل نظامه مفتوح المصدر ولكن ما خطورة هذا على مستقبل الذكاء الاصطناعي؟الدكتور شوقي: الحقيقة هذا الموضوع مهم جدا في الذكاء الاصطناعي كأي تكنولوجيا قد يستخدم في الخير أو الشر، مثل الكثير من التقنيات التي كان الهدف من تطويرها خير البشرية ولكن كان لها مع الأسف استخدامات ضارة، ولهذا يجب وضع ضوابط ومعايير خاصة لاستخدام الذكاء الاصطناعي كما هو الحال بأي تكنولوجيا.
حتى يتم هذا، يجب في البداية وضع ميثاق متفق عليه كما هو الحال في بعض مواثيق الأمم المتحدة، بحيث يحدد هذا الميثاق كيف يجب أن تدار كافة الأنشطة المتعلقة بهذه التكنولوجيا بداية من البحوث والتطوير ونهاية بالاستخدامات والتأثير المتوقع على البشرية.
لذلك فالحد من انتشار هذه التكنولوجيا والحرص على وصولها بمسؤولية لأيدي الأفراد والشركات والدول هو مسؤولية الشركات المطورة ولكن أيضا هذه العملية يجب أن تخضع لضوابط ومعايير عالمية تشارك فيها الدول والشركات والمؤسسات ومنظمات المجتمع المدني.
وضرب الدكتور توبي وسائل التواصل الاجتماعي كمثال حيث كانت تعتبر تكنولوجيا تواصل جميلة في البداية ولكن ظهرت تأثيرات الاستخدام الخاطئ بعد ذلك مثل انتهاكات الخصوصية وإساءة استخدام بيانات الأفراد، وهو ما استدعى الجهات التشريعية في أوروبا بإطلاق "النظام العام لحماية البيانات" أو ما يعرف اختصارا بـ(GDPR) لحماية الأفراد والمؤسسات الأوروبية من إساءة استغلال هذه التكنولوجيا. فالشركات مجبرة على الالتزام بهذه التشريعات وإلا سوف تطالها عقوبات كبيرة ربما لا تستطيع أن تتحمل تكلفتها المادية والمعنوية".
الدكتور توبي ذكر أن الذكاء الاصطناعي المفتوح المصدر يجعل من السهل على العديد من المطورين والشركات وحتى المجموعات الاستفادة من هذه التكنولوجيا لعمل برامج خبيثة أو استخدامه في تحسين عمل النشاطات المشبوهة ومن هذا المنطلق كانت غوغل حريصة على ألا تتعجل في إطلاق هذه التكنولوجيا بالرغم من أنها من روادها، ولكن مرة أخرى هذا التنظيم يجب أن يأتي من جهات أعلى من المؤسسات ويجب أن يكون الجهد مشترك بين جميع الدول.
الدكتور توبي: "التغير موجود في كل الثورات الصناعية وقد أثرت على الكثير من الوظائف، الاختلاف الآن هو في التسارع، ولكن حتى هذا التسارع لن يلغي الوجود البشري، فهذا الانتقال من الاعتماد على البشر للاعتماد على الذكاء الاصطناعي سيمر بمراحل هي:
1- مرحلة زيادة الإنتاجية وهي مرحلة عدم الثقة بالذكاء الاصطناعي، فالوضع الحالي يمكن للذكاء الاصطناعي أن يقوم بالأعمال ومساعدة البشر في زيادة إنتاجيتهم ولكن لا يمكن أن يحل بديلا عنهم بسبب عدم وجود الثقة في أدائه فلا يمكن أن تستبدل شخص خبير في مجاله برنامج ذكاء اصطناعي بل أنت تحتاج لهذا الخبير حتى يتأكد من أن مخرجات الذكاء الاصطناعي جيدة في الوقت الحالي.
2- أما المرحلة الثانية فهي زيادة السوق وتغيير المفاهيم، وهنا نعم سيحل الذكاء الاصطناعي الجيد والمسؤول محل بعض الوظائف شأنه شأن الآلة الطابعة والحاسوب ولكن هنا سوف يكون هناك زيادة وتغير في خريطة المهن حول العالم وهذا سيستدعي وجود وظائف جديدة للبشر والأكيد أنها ستكون أكثر من الحالية، فمثلا في الوقت الحالي هناك طلب كبير على الوظائف الخاصة بالذكاء الاصطناعي وعلى المهارات التي يمكنها التعامل مع هذه التكنولوجيا، لذلك لا يمكننا القول إن المستقبل سوف يكون للآلة دون البشر.
بل أنا أرى أن هناك جانب إيجابي آخر في حالة دخول الذكاء الاصطناعي وهو تقليل أيام العمل في الأسبوع، فحاليا نسمع عن رغبة بعض الدول والمؤسسات في تبني نظام العمل لـ4 أيام في الأسبوع. تكنولوجيا الذكاء الاصطناعي قد يكون المفتاح لتعميم هذه التجربة على جميع المؤسسات الحكومية والخاصة.
ولكن حتى نستطيع مواكبة هذه المراحل والتأكد أن مخرجاتها مفيدة للإنسان يجب العمل منذ الآن على تغيير المفاهيم واستشراف المستقبل وتبني خطط تعليم تقوم على مستقبل الوظائف الجديدة.
وجود غوغل في المنطقة العربية يجعلنا نتساءل كيف ترى الشركة تبني دول المنطقة للذكاء الاصطناعي؟الدكتور توبي: "هناك العديد من المشاريع التي تعمل عليها غوغل مع دول المنطقة وخصوصا منطقة الخليج والتي هي متقدمة في هذا المجال وربما لديها فرصة أفضل من بعض الدول الأوروبية في الوصول لمراكز متقدمة في هذا المجال بسبب وجود رؤوس الأموال وتبني الدول لاستراتيجيات متقدمة في مجال الذكاء الاصطناعي".
الدكتور شوقي :" من بين هذه الدول قطر والسعودية والإمارات وعمان والكويت التي يوجد بها مشاريع وقوانين تعتبر نواة لبناء مستقبل صناعة تقنية في هذا المجال".
الدكتور شوقي: "فمثلا في دولة قطر هناك وثيقة "رؤية قطر للذكاء الاصطناعي" والتي خرجت أول مرة عام 2019 والآن يتم تحديثها لتواكب التطورات في هذا المجال".
ما القطاع الذي تجد أنه الأكثر تأثرا وتأثيرا في مجال الذكاء الاصطناعي وانتشاره سواء على مستوى الحكومات أو الشركات أو الأفراد؟
الدكتور توبي: "التعليم، يجب أن تتغير مناهج التعليم ونظرة التعليم وطريقته. لا يمكن إذا أردنا أن نكون سباقين في هذا المجال أن تظل الأسس التي تقوم عليها منظومة تحديث العملية التعليمية تعمل ببطء ولا تراعي التغيرات السريعة في السوق، وهذا الفرق بين النظام التعليمي في أميركا وغيره من الأنظمة الأخرى؛ ففي الولايات المتحدة تتماشى الأنظمة التعليمية مع السوق، وتتغير بشكل سريع حتى تستطيع رفد السوق بالقوى المحركة التي تستطيع القيام بالعمل".
الدكتور توبي: "إن قدرة المؤسسات والجامعات وبدعم من السوق على التأقلم مع المتغيرات والاحتياجات التي تطرأ بشكل أسرع، سيؤثر بلا شك على تطوير الذكاء الاصطناعي".
"وفي الجانب الآخر تبني هذه المؤسسات التعليمية أنظمة الذكاء الاصطناعي لدعم دور المدرسة والمدرس في العملية التعليمية، حتى في المراحل الأولى من المدرسة، وليس أن يحل محلهما؛ سيكون له أثر كبير في سرعة قبول المجتمعات والأفراد للتأثير الإيجابي لهذه التكنولوجيا ومعرفة أبعادها، وتغيير النظرة المتشائمة حولها".
المصدر: الجزيرة
كلمات دلالية: ترجمات حريات الذکاء الاصطناعی فی هذه التکنولوجیا الدکتور شوقی ذکاء اصطناعی
إقرأ أيضاً:
بتشويه «فوضى الذكاء الاصطناعي» للواقع يمضي العالم إلى كارثة
تهيمن قناتان متوازيتان للصور على استهلاكنا البصري اليومي. في إحداهما، صور ولقطات حقيقية للعالم كما نعرفه، ففيها سياسة ورياضة وأخبار وترفيه. وفي الثانية، فوضى الذكاء الاصطناعي [أو ما يعرف بـ AI slop]، بمحتوى متواضع الجودة ليس فيه من الإسهام البشري إلا الحد الأدنى. بعض ما فيه تافه الشأن عديم المعنى، لا يعدو صورا كرتونية لمشاهير، ومناظر طبيعية خيالية، وحيوانات ذات سمات بشرية. وبعضه الآخر عرض خادش للحياء...ففيه تجد حبيبات افتراضيات لا يمكن أن تتفاعل معهن تفاعلا حقيقيا. ونطاق هذا المحتوى وحجمه مذهلان، فهو يتسرب إلى كل شيء، من صفحات التواصل الاجتماعي إلى الرسائل المتداولة على واتساب. فلا تكون النتيجة محض تشويش على الواقع، وإنما هي تشويه له.
وفي فوضى الذكاء الاصطناعي شيء جديد هو الخيال السياسي اليميني. فعلى موقع يوتيوب مقاطع فيديو كاملة ذات سيناريوهات مختلقة ينتصر فيها مسؤولو ترامب على القوى الليبرالية. وقد استغل حساب البيت الأبيض على منصة إكس صيحة إنشاء صور بأسلوب استوديو جيبلي، ونشر صورة لامرأة من الدومينيكان تبكي أثناء تعرضها للاعتقال على يد إدارة الهجرة والجمارك (ICE). والواقع أن السخرية السياسية باستعمال الذكاء الاصطناعي قد انتشرت على مستوى العالم.
فهناك مقاطع فيديو صينية من إنتاج الذكاء الاصطناعي تسخر من العمال الأمريكيين البدناء وهم يقفون في خطوط التجميع بعد إعلان التعريفات الجمركية، وقد أثارت هذه المقاطع سؤالا موجها للمتحدثة باسم البيت الأبيض الأسبوع الماضي وردا منها. فقد قالت المتحدثة: إن هذه مقاطع أنتجها من «لا يرون إمكانات العامل الأمريكي». ولإثبات مدى انتشار فوضى الذكاء الاصطناعي، كان علي أن أتأكد ثلاث مرات من أنه حتى هذا الرد نفسه لم يكن في حد ذاته محتوى ذكاء اصطناعي منفذا على عجل مختلقا خدعة أخرى لأعداء ترامب.
وليس الدافع إلى تسييس الذكاء الاصطناعي بالأمر الجديد، فهو ببساطة امتداد للبروباجندا المعهودة. ولكن الجديد هو مدى ديمقراطيته وانتشاره، وأنه لا يحتوي أشخاصا حقيقيين ويخلو من قيود الحياة الواقعية المادية، فيوفر بذلك ما لا حصر له من السيناريوهات الخيالية.
وانتشار محتوى الذكاء الاصطناعي عبر قنوات الدردشة الضخمة عظيمة الحضور، من قبيل واتساب، يعني غياب أي ردود أو تعليقات تشكك في صحته. فكل ما تتلقاه ينعم بسلطة من ثقتك في الشخص الذي أرسله إليك. لذلك أخوض صراعا دائما مع قريبة لي كبيرة السن، مطلعة على عالم الإنترنت، تتلقى سيلا من محتوى الذكاء الاصطناعي على واتساب بشأن حرب السودان وتصدقه. تبدو الصور ومقاطع الفيديو حقيقية بالنسبة لها، وترد إليها موجهة من أشخاص تثق فيهم. ويصعب على المرء حتى أن يستوعب قدرة التكنولوجيا على إنتاج محتوى يبدو حقيقيا إلى هذه الدرجة.
وبإضافة هذه القدرة إلى توافق المحتوى مع رغبات قريبتي السياسية، ستجد نفسك متعلقا به إلى حد بعيد، حتى لو اعتراك بعض من الشك فيه. فوسط الكم الهائل من القطط [في بعض الفيديوهات المختلقة]، يجري استعمال الذكاء الاصطناعي في خلق سيناريوهات سياسية، وتحسينها والوصول بها إلى درجة الكمال عبر تقديمها بلغة بصرية تؤجج الرغبة في الانتصار أو تعتمد على الشعور بالحنين.
يشير البروفيسور رولاند ماير، الباحث في الإعلام والثقافة البصرية، إلى «موجة حديثة من الصور المولدة بالذكاء الاصطناعي لعائلات بيضاء شقراء، تطرحها حسابات إلكترونية فاشية جديدة بوصفها نماذج لمستقبل مشرق». وهو لا يعزو ذلك إلى اللحظة السياسية الراهنة فحسب، وإنما إلى أن «الذكاء الاصطناعي التوليدي محافظ بطبيعته، بل ويقوم على حنين إلى الماضي». فالذكاء الاصطناعي التوليدي يقوم على بيانات مسبقة أثبتت الأبحاث أنها بيانات متحيزة بطبيعتها ضد التنوع العرقي، والأدوار الجندرية والميول الجنسية التقدمية، فتأتي منتجات الذكاء الصناعي بتركيز كبير على هذه المعايير.
يمكن أن نرى الأمر نفسه في محتوى «الزوجة التقليدية» [“trad wife”]، الذي لا يقدم ربات البيوت الجميلات الخاضعات فحسب، وإنما يقدم عالما رجعيا كاملا لينغمس فيه الرجال. وتغص جداول موقع إكس بنوع من المواد الإباحية غير الجنسية، حيث تلمع على الشاشة صور الذكاء الاصطناعي لنساء يوصفن بالحسن والخصوبة والخضوع. ويجري طرح سيادة البيض والاستبداد وتقديس التراتبيات الهرمية في العرق والجندر بوصفها سلة متكاملة من الحنين إلى ماض موهوم. فبات الذكاء الاصطناعي يوصف بالفعل بأنه جمالية الفاشية الجديدة.
لكن الأمر لا يكون دائما على هذا القدر من التماسك. ففي معظم الأحيان، لا تعدو فوضى الذكاء الاصطناعي محتوى فيه بعض المبالغة أو الإثارة بما يغري على التفاعل، ويوفر لمبدعيه فرصة ربح المال من المشاركات والتعليقات وما إلى ذلك. وقد تبين للصحفي ماكس ريد أن فوضى الذكاء الاصطناعي على فيسبوك ـ وهي الفوضى الكبرى على الإطلاق ـ ليست «محض محتوى غير مرغوب فيه» من وجهة نظر فيسبوك، وإنما هي «ما تريده الشركة بالضبط: فهي محتوى شديد الجاذبية». والمحتوى بالنسبة لعمالقة التواصل الاجتماعي هو المحتوى، فكلما كان أرخص، وقلت فيه الحاجة إلى جهد بشري، فذلك أفضل. وتكون النتيجة أن يتحول الإنترنت إلى إنترنت الروبوتات التي تدغدغ مشاعر المستخدمين البشريين وتؤجج فيهم أي أحاسيس أو عواطف تبقيهم منشغلين.
ولكن بغض النظر عن نوايا مبتكريه، يؤدي هذا السيل من محتوى الذكاء الاصطناعي إلى فقدان الإحساس بالواقعية وإرهاق الحواس البصرية. والتأثير العام لدوام التعرض لصور الذكاء الاصطناعي، ما كان منها تافها أو مهدئا أو أيديولوجيا، هو أن كل شيء يبدأ في اتخاذ مسار مختلف. ففي العالم الواقعي، يقف الساسة الأمريكيون خارج أقفاص سجن الترحيل. وتنصب الأكمنة لطلاب الجامعات الأمريكية في الشوارع ليجري إبعادهم. ويحترق أهل غزة أحياء. وتمضي هذه الصور والفيديوهات مع سيل لانهائي من الصور والفيديوهات الأخرى التي تنتهك القوانين المادية والأخلاقية. فتكون النتيجة ارتباكا عميقا. ولا يعود بوسعك أن تصدق عينيك، ولكن ما الذي يمكن أن تصدقه إن لم تصدق عينيك؟ فكل شيء يبدو حقيقيا للغاية وغير واقعي بالمرة، في آن واحد.
أضف إلى هذا ما نعرفه من التبسيط الضروري والإيجاز المستفز في (اقتصاد الانتباه)، وإذا بك في سيرك ضخم من التجاوزات. فحتى عندما يكون المحتوى شديد الجدية، يجري تقديمه بوصفه ترفيها، أو فاصلا، أشبه بنسخة مرئية من موسيقى المصاعد. فهل أفزعك هجوم دونالد ترامب وجيه دي فانس على زيلينسكي؟ حسنا، إليك رسم مصمم بالذكاء الاصطناعي لفانس في هيئة رضيع عملاق. تشعر بالتوتر والإرهاق؟ فها هو بلسم للعين في كوخ فيه نار موقدة والثلج يتساقط في الخارج. ولسبب ما، قرر فيسبوك أنني بحاجة إلى رؤية تيار مستمر من الشقق الصغيرة اللطيفة مع تنويعات من التعليقات التوضيحية مفادها أن «هذا هو كل ما أحتاج إليه».
وتؤدي التحورات السريعة للخوارزميات إلى إمداد المستخدمين بمزيد مما حصدته لهم معتبرة أنه مثير لاهتمامهم. والنتيجة هي أنه يستحيل ترشيد ذلك الاستهلاك حتى لأكثر المستخدمين اتزانا. لأنك تزداد انغماسا في عوالم ذاتية بدلا من الواقع الموضوعي. فتكون النتيجة انفصالا شديد الغرابة. ويضعف الشعور بالقلق والحاجة إلى العمل الذي ينبغي أن يوحي به عالمنا الممزق، وذلك بسبب طريقة عرض المعلومات. وإذن فها هي طريقة جديدة لكي نسير نياما نحو الكارثة وهي طريقة لا تقوم على نقص المعرفة، وإنما تنشأ بسبب الشلل الناجم عن تمرير كل شيء من خلال هذا النظام المشوه، فهو محض جزء آخر من العرض البصري المبالغ فيه.