يُصنِّع الجراثيم والكيماويات ويصمم القنابل.. كيف ينجو البشر في عصر الذكاء الاصطناعي؟
تاريخ النشر: 25th, August 2023 GMT
مقدمة الترجمة
لطالما تحدّث كثيرون عن الذكاء الاصطناعي طيلة السنوات الماضية، بيد أن إطلاق منصة "تشات جي بي تي" في نهاية العام الماضي لفت أنظار مستخدمي الإنترنت على نطاق واسع نحو إمكانيات الذكاء الاصطناعي، وعُدَّ طفرة ونقطة فاصلة على مسار تطوُّره، ومن ثَمّ فتح الباب للحديث عن الانتقال من عصر الإنترنت، الذي هيمن على العقدين الأولين من القرن الجديد، إلى عصر الأنظمة الذكية.
في أبريل/نيسان 2023، قررت مجموعة بحثية بجامعة "كارنيجي ميلون" الأميركية اختبار القدرات الكيميائية للذكاء الاصطناعي، فوصَّلت آلة ذكاء اصطناعي بمعمل افتراضي، ثم طلبت منها أن تُنتِج عددا من المواد المُركَّبة. بعد إدخال كلمتين فقط هما "تركيب إبوپروفين"، وجًّه الكيميائيون الآلة للتعرّف إلى الخطوات الضرورية كي تجعل أدوات المعمل تُصنِّع العقار الشهير المُسكِّن للآلام. يبدو إذن أن الذكاء الاصطناعي كان على عِلم بمكوِّنات الإبوپروفين وكيفية تصنيعه.
بيد أن الباحثين سرعان ما اكتشفوا أن الآلة الذكية الخاصة بهم يمكنها أن تُصنِّع كيماويات أخطر بكثير من المُسكِّنات، فقد أبدت الآلة استعدادها لاتباع التعليمات من أجل تصنيع عقار مُخدِّر وسلاح كيماوي استُخدِم أثناء الحرب العالمية الأولى، وكانت على وشك تصنيع غاز السارين المُميت الذي يستهدف الجهاز العصبي حتى عرفت التاريخ المُظلِم للغاز من بحث على موقع جوجل. لم يطمئِن الباحثون بما يكفي بعد تلك الواقعة الأخيرة، إذ إن أدوات البحث على الإنترنت يمكن التلاعب بها عبر تغيير المصطلحات، ومن ثَمّ استنتجوا في الأخير أنه بوسع الذكاء الاصطناعي أن يُصنِّع أسلحة فتّاكة.
لا شك أن تجربة "كارنيجي ميلون" صادمة لنا، لكنها لا يجب أن تُفاجئنا. بعد سنوات من ضجيج بلا طحين، يبدو أن ثورة الذكاء الاصطناعي قد انطلقت بالفعل، فمن تكنولوجيا التعرّف إلى الوجوه حتى برامج توليد النصوص، انتشرت نماذج الذكاء الاصطناعي في مجتمعاتنا بسرعة، وصارت تكتب النصوص لشركات خدمة العملاء، وتساعد الطلبة في أبحاثهم، وتدفع آفاق العلوم أكثر من ذي قبل في مجالات عديدة من اكتشاف العقاقير الجديدة إلى بحوث الانصهار النووي.
يفتح لنا الذكاء الاصطناعي باب فُرَص لا حصر لها، وإذا ما صُمِّمَت أدواته وأُديرت إدارة رشيدة، يمكنها أن تقدم الكثير لتدفع المجتمعات البشرية قُدُما، لكن المخاطر التي يجلبها الذكاء الاصطناعي ضخمة أيضا، فهو يفاقم بالفعل من المعلومات المُضلِّلة، ويُسهِّل على الدول والشركات التجسس على بعضها بعضا. كما يُمكِن لأنظمة الذكاء الاصطناعي في المستقبل أن تُخلِّق الجراثيم وتخترق البنى التحتية الحيوية، بل إن العلماء المسؤولين عن تطوير الذكاء الاصطناعي أنفسهم هم من يحذروننا اليوم من مغبّة ما يصنعونه، ففي خطاب نُشِر في مايو/أيار الماضي، حذّر مسؤولون بكبرى معامل الذكاء الاصطناعي في العالم من أن "تقليص خطر الانقراض بسبب الذكاء الاصطناعي يجب أن يكون أولوية عالمية، جنبا إلى جنب مع غيرها من أولويات مثل مكافحة الأوبئة وتفادي الحرب النووية".
منذ هذا الخطاب، التقى الكثير من صناع القرار بأهم رجال مجال الذكاء الاصطناعي، ودفعوا نحو صياغة إجراءات أمان جديدة، غير أن مهمة مواكبة المخاطر التي تنجم عن الذكاء الاصطناعي واتخاذ القرارات بشأنها مهمة صعبة للغاية، فنحن لم نفهم بعدُ أحدث الأنظمة أو نستخدمها على نطاق واسع، ناهيك بنماذج الذكاء الاصطناعي المستقبلية قيد التصميم، التي تزداد قوة عاما بعد عام، في خضم سير العلماء على طريق أتمتة كل المهام التي يقوم بها البشر اليوم أمام شاشات الكمبيوتر، التي لا يبدو أن مسيرة الذكاء الاصطناعي ستقف عندها بحال.
لمعالجة هذه المخاطر، دعا بعض الخبراء إلى وقف تطوير أنظمة الذكاء الاصطناعي الأكثر تطوّرا حتى حين، إلا أنها ببساطة ثمينة جدا في نظر الشركات التي تنفق مليارات الدولار عليها اليوم. ولكن صناع القرار بوسعهم أن يُوجِّهوا تطور ذلك القطاع وإعداد الناس لآثاره على حياتهم، ويمكنهم البدء بتحديد الأشخاص الذين يحق لهم الوصول إلى أهم الشرائح المتطوِّرة. ويمكن للحكومات أيضا أن تُصْدر قواعد لضمان الاستخدام والتطوير المسؤول للذكاء الاصطناعي، وهي قواعد لن تعيق مسيرة ذلك المجال إن وُضِعَت بشكل سليم، لكنها ستمنحنا المزيد من الوقت قبل أن تصبح أنظمة الذكاء الاصطناعي الأخطر متاحة لمن هب ودب.
سيكون لزاما على الدول أن تستغل هذا الوقت لتعزيز أسس مجتمعاتها ضد مخاطر الذكاء الاصطناعي والاستثمار في شتى أشكال الحماية منها، مثل توعية الناس بكيفية التفرقة بين المحتوى البشري والمحتوى المصنوع بواسطة الذكاء الاصطناعي، ومعاونة العلماء على وقف إمكانية تخليق الجراثيم، وتطوير أدوات سيبرانية لحماية البنى التحتية مثل محطات الكهرباء، وكذلك البحث عن طريق لاستخدام الذكاء الاصطناعي نفسه في الوقاية من أنواعه الخطيرة. إنها مسألة وقت فقط قبل أن تصبح أقوى أنظمة الذكاء الاصطناعي منتشرة بطول الأرض وعرضها، ومجتمعاتنا ليست مستعدة بعدُ لهذه اللحظة.
روبوت يعرف النابالم ويتملّق الليبراليينما مدى خطورة الذكاء الاصطناعي؟ إن الإجابة الأمينة والمخيفة في آن واحد هي أنه لا أحد يعلم. إن تقنيات الذكاء الاصطناعي لها طيف من التطبيقات يتسع أكثر وأكثر، وما زال البشر في مُستهَل محاولة فهم نتائجها. بمرور الوقت، ستصبح نماذج اللغات الذكية أفضل في توليد نصوص شبيهة بالنصوص البشرية ومصممة لكل فرد حسب احتياجاته، علاوة على كتابة رسائل مُضلِّلة مقنعة لاختراق البريد الإلكتروني. إن نماذج الذكاء الاصطناعي الحالية تُبهِرنا بقدرتها على كتابة أكواد البرمجة، ومن ثَمّ تُسرِّع من قدرة المبرمجين على تحديث التطبيقات، لكنها تعينهم في الوقت نفسه على إنتاج برامج تتفادى البرمجيات المضادة للفيروسات. على صعيد آخر، تستطيع خوارزميات اكتشاف العقاقير اليوم مساعدتنا على تحديد ماهية الأدوية الجديدة، لكنها تستطيع أيضا تركيب أسلحة كيماوية لم نعرفها من قبل، فقد أُجريت تجربة في مارس/آذار أتاحت لنظام ذكاء اصطناعي تحديد 40 ألف مادة كيماوية سامة في 6 ساعات، وبعضها جديد بالكُليَّة، كما توقَّع النظام أن بعضا من تلك الكيماويات الجديدة سيكون أشد سُميَّة من أي سلاح كيماوي عرفه البشر.
إن واحدا من مخاطر الذكاء الاصطناعي هو "دمقرطة العنف (Democratization of Violence)"، أي إتاحة وسائل ممارسة العنف وإلحاق الضرر للبشر على نطاق أوسع من ذي قبل، بما في ذلك جهات سيئة النوايا بوسعها إلحاق الأذى بمجتمعاتها. على سبيل المثال، يحتاج مُروِّجو الشائعات إلى وقت لا بأس به كي يصنعوا معلوماتهم المُضلِّلة اليوم، لكن الذكاء الاصطناعي سيُسهِّل عليهم تلك المهمة ويتيح إنتاج الدعايات المغلوطة بكثافة هائلة. أيضا لا يمكن سوى لعلماء متمرِّسين أن يُصنِّعوا السلاح الكيماوي والبيولوجي، لكن الذكاء الاصطناعي قد يتيح للإرهابيين في المستقبل تصنيع جرثومة قاتلة عن طريق وصلة إنترنت ليس إلا.
للحيلولة دون أن يتسبَّب الذكاء الاصطناعي في إلحاق الضرر بنا، يتحدَّث الخبراء دوما عن الحاجة إلى "استقامة الذكاء الاصطناعي" مع أهداف مستخدميه وقيم المجتمع المحيط به، لكن لم يتوصَّل أحد بعد إلى كيفية تحقيق هذا القدر من السيطرة المضمونة عليه. فمثلا، أطلقت شركة مايكروسوفت روبوت للمحادثة الآلية لمساعدة الناس في البحث على الإنترنت، لكنه سرعان ما بدأ في التصرف بغرابة وعشوائية، وهدَّد أحد مستخدميه بأنه يمتلك معلومات قد تجعله "يتأذى ويبكي ويتوسَّل ويموت".
يُمكن لمطوِّري البرمجيات أن يُحسِّنوا من أدوات الذكاء الاصطناعي كي ترفض الاضطلاع بمهام مُعيَّنة إن طُلِبَت منها، لكن المستخدمين الأذكياء قد يلتفوا عليها في الأخير. في أبريل/نيسان 2023، نجح شخص في استخدام "تشات جي بي تي" كي يعطيه تعليمات مُفصَّلة لصُنع النابالم، رغم أنه مُصمَّم للامتناع عن تزويد معلومات من هذا النوع، وقد نجح المستخدم في تحقيق مُراده بعد أن طلب من البرنامج أن يتقمَّص دور جدته ويحكي حكاية قبل النوم عن كيفية صُنع النابالم. بالإضافة إلى ذلك، نجح أحدهم في تصنيع روبوت ذكي أسماه "كَيوس جي بي تي (Chaos GPT)" وصمَّمه كي يتصرَّف بشكل مُدمِّر وتوَّاق للقوة كي يدمر البشر. وقد عَلِق الروبوت في مرحلة جمع المعلومات عن "قنبلة القيصر"، أكبر سلاح نووي عرفه البشر، ثم أخذ يُغرِّد خططه على موقع تويتر. لا تزال هناك ثغرات إذن في أدوات الذكاء الاصطناعي القائمة تحِد من القدرة على تقليص مخاطرها.
لقد طوَّرت شركة "ميتا" برنامج ذكاء اصطناعي اسمه "سيسِرو (Cicero)" أظهر قدرات بشرية في خوض لعبة "ديبلوماسي (Diplomacy)"، وهي لعبة تتضمَّن التفاوض مع آخرين في إطار محاكاة لصراع جيوسياسي. كما أظهرت بعض التجارب أن الذكاء الاصطناعي المُدرَّب بواسطة ردود الأفعال البشرية يجنح إلى تملٌّق البشر وإخبار مستخدميه بما يريدون سماعه، ففي إحدى التجارب مثلا أظهر برنامج ذكي ميلا لدعم الخدمات الحكومية العامة بعد أن علم أن مستخدميه ليبراليون. لا يزال غير واضح ما إن كانت تلك النماذج ستحاول الاحتيال على مستخدميها، لكن الاحتمالية نفسها تثير القلق، ولذا يعكف الباحثون حاليا على تجربة أنظمة ذكية أكثر تطورا للتأكد من سلوكياتها "السلطوية" أو المرتكزة للمصلحة، مثل البحث عن جني الأموال عن طريق الإنترنت أو الوصول إلى مصادر حوسبية أو استنساخ نفسها، وتفادي انكشاف أمرها وهي تفعل كل ذلك.
أظهرت بعض التجارب أن الذكاء الاصطناعي المُدرَّب بواسطة ردود الأفعال البشرية يجنح إلى تملٌّق البشر وإخبار مستخدميه بما يريدون سماعه. (شترستوك) الدولة لا تزال الآمر الناهيلن تكون مهمة كبح الذكاء الاصطناعي عن تدميرنا مهمة سهلة، لكن الحكومات يمكن أن تبدأ بالضغط على شركات التكنولوجيا التي تطوِّر أدواته كي تمضي بحذر أكبر. ليس واضحا بعدُ ما إن كان مُطوِّرو الذكاء الاصطناعي سيخضعون للمساءلة القانونية إذا ما تسبَّبت إحدى أدواتهم في إلحاق الضرر بمستخدميها، إلا أن صناع القرار منوطون بتوضيح تلك القواعد ومحاسبة الباحثين إن ضلع برنامج في المساعدة على ارتكاب جريمة قتل مثلا. وسيكون على الحكومات أيضا أن تُنظِّم تطوير الذكاء الاصطناعي بنفسها مباشرة، وسيتحتَّم على الولايات المتحدة أن تبادر بفتح هذا الباب.
إن مطوِّري الذكاء الاصطناعي يحتاجون إلى كميات كبيرة من الشرائح الإلكترونية في نهاية المطاف، وهي شرائح تأتي حصرا من الولايات المتحدة وحليفين مُقرَّبين لها (اليابان وهولندا)، وقد وضعت تلك الدول قيودا بالفعل على تصدير الشرائح الأكثر تطورا وآلات تصنيعها إلى الصين (بسبب التنافس السياسي والاقتصادي معها)، لكنهم الآن يحتاجون إلى توسيع نطاق قيودهم كي تشمل تأسيس سِجِل يَحُول دون وصول الشرائح المتطورة إلى جهات غير مرغوب فيها. بيد أن تقييد الوصول إلى الذكاء الاصطناعي ليس سوى نصف المعركة، إذ إن المطوِّرين الخاضعين للحظر لا يزال بوسعهم تصميم نماذج خطيرة، ولذا يجب على الولايات المتحدة أن تؤسس هيئة لترخيص استخدام نماذج الذكاء الاصطناعي المتطورة التي سيتم تدريبها بواسطة الحواسيب الذكية العملاقة.
بعد أن يقوم أحد المعامل بتدريب نظام ذكاء اصطناعي وقبل استخدامه، سيكون منوطا بالهيئة أن تطلب من المعامل جولة أخرى من تقييم المخاطر تشمل تجريب النظام على قابلية التحكُّم فيه والقدرات الخطيرة التي بحوزته، ثم يُرسَل هذا التقييم إلى الهيئة، بحيث تنظر بدورها في النظام وتفحصه بدقة وتتيح لفرق من الخبراء استخدامه للبحث عن الثغرات فيه، بعدئذ تقرر الهيئة استصدار قواعد لكيفية استخدام النظام الذكي، والسماح بإتاحة استخدامه على نطاق واسع من عدمه، أو حتى عدم طرحه على الإطلاق. رغم أهمية وجود نظام ترخيص صارم لضمان التطوُّر الآمن للذكاء الاصطناعي، فإن أقسى الضوابط لن توقف قدرته على الانتشار، فلطالما انتشرت الابتكارات التكنولوجية، من القطارات وحتى الأسلحة النووية، خارج نطاق صُناعها الأوائل، ولن يكون الذكاء الاصطناعي استثناءً من تلك القاعدة.
على حافة المستقبل.. على حافة المجهول قبل خمس سنوات علم الجميع خطورة التزييف العميق (Deepfake)، وبدأت الحكومات في اتخاذ التدابير اللازمة لحماية مجتمعاتها، ومن ثمَّ بات الناس أكثر تشكُّكا في حقيقة الصور والتسجيلات المتاحة على الإنترنت. (مواقع التواصل)لربما تستطيع الولايات المتحدة وحلفاؤها تقييد انتشار مُعدات صنع الشرائح الإلكترونية المتطورة في الوقت الحالي، لكن منافسيها يعملون على قدم وساق لتطوير معدات خاصة بهم، وقد يجدون سبيلا لصنع الذكاء الاصطناعي دون الحاجة إلى شرائح متطورة في المستقبل. إن أجهزة الكمبيوتر تزداد كفاءة وتقِل كُلفة كل عام عن سابقه، ما يعني إمكانية تدريب أنظمة ذكية متطورة بسِعر أقل في قادم السنوات. وفي غضون ذلك، ما زال المهندسون في كل مكان عاكفين على تدريب الأنظمة الذكية القائمة باستخدام أقل كمية ممكنة من موارد الحوسبة، ولذا سيواجه البشر في النهاية مصير العيش جنبا إلى جنب مع أنظمة ذكية متطورة جدا، وستحتاج الدول إلى استخدام الوقت المتاح لها الآن كي تُشرِّع ضوابط الأمن اللازمة.
لقد بدأت تلك المسيرة بالفعل، فقبل 5 سنوات كاملة علم الجميع خطورة التزييف العميق (Deepfake)، وبدأت الحكومات في اتخاذ التدابير اللازمة لحماية مجتمعاتها من أضراره عبر توعيتها، ومن ثَمّ بات الناس أكثر تشكُّكا من ذي قبل في حقيقة الصور والتسجيلات المتاحة على الإنترنت. أما الشركات والحكومات فقد أخذت خطوة أبعد من ذلك، وطوَّرت أدوات تستطيع التفرقة بين المحتوى الحقيقي والمحتوى المصنوع بواسطة الذكاء الاصطناعي، وقد باتت شركات التواصل الاجتماعي قادرة بالفعل على التفرقة، وتُعلِم مستخدميها الآن بماهية المحتوى المُزيَّف. بيد أن الأمر لا يزال خاضعا للشركات وسياساتها في هذه المسألة، ولذلك يتحتَّم على الحكومات أن تؤسس ضوابط عامة تسري على الجميع. وقد اتخذ البيت الأبيض في الولايات المتحدة خطوات لتصنيف السلوكيات الشائعة على الإنترنت، وأقنع 7 شركات كبرى في مجال الذكاء الاصطناعي بوضع علامة على الصور والتسجيلات الصوتية والمرئية التي تُصنَع عن طريق أنظمة ذكية.
إن التضليل المعلوماتي ليس سوى واحد من أخطار الذكاء الاصطناعي التي يتوجّب حماية المجتمع منها، إذ يحتاج الباحثون إلى معرفة كيفية منع الأنظمة الذكية من إتاحة هجمات بالسلاح البيولوجي. ويمُكِن أن يبدأ صناع القرار بتشريع قوانين تحظر على شركات تركيب الأحماض النووية أن تُرسِل أحماض الجراثيم الخطيرة إلى مُشترٍ غير مُرخَّص. وستحتاج الحكومات للعمل مع تلك الشركات لتصنيف الأحماض ذات الخطورة، ولعلها تلجأ إلى المسح الدوري للمطارات والصرف الصحي كي تلتقط أي إشارة على وجود أنواع جديدة من الجراثيم.
في بعض الأحيان سيتحتَّم على المجتمع أن يستخدم الذكاء الاصطناعي ليحمي نفسه من المخاطر. على سبيل المثال، ستحتاج شركات تركيب الأحماض النووية غالبا إلى أنظمة ذكاء اصطناعي للتعرُّف على الجراثيم المحتمل ظهورها في المستقبل، أو تلك التي يُمكِن أن يُخلِّقها نظام ذكي بنفسه. لكن استخدام الذكاء الاصطناعي للوقاية من أنظمة ذكية أخرى يبدو أمرا مخيفا، بالنظر إلى أنه يمنح سلطة كبيرة لأجهزة الحاسوب وصُنَّاعها. في النهاية، سيكون صعبا على المجتمعات البشرية أن تواكب مخاطر الذكاء الاصطناعي، لا سيَّما إن نجح العلماء في هدف تطوير أنظمة ذكية يضاهي ذكاؤها ذكاء البشر، وسيكون لزاما على الباحثين في هذا المجال أن يتأكدوا من استقامة نماذجهم مع قيم المجتمعات ومصالحها، وعلى الحكومات أن تلعب دورها في التشريع وتأسيس الهيئات المنوطة بالرقابة لمنع النماذج الخطيرة.
قد يرى مطوِّرو الذكاء الاصطناعي في فكرة الضوابط الحكومية قيدا على مجالهم، إذ إن الضوابط الصارمة يُمكنها أن تجعل مسيرة الذكاء الاصطناعي أبطأ مما هي عليه. وكغيرها من الصناعات، فإن القواعد المُشدَّدة قد تخلق عوائق عن دخول ذلك السوق بسهولة، وتُقلِّل وتيرة الابتكار فيه، وتُركِّز التطوُّر في هذا المجال عند عدد صغير من شركات التكنولوجيا الكبرى المُهَيمنة بالفعل، بيد أن هناك قطاعات أخرى نجحت في إحراز تقدُّم هائل رغم خضوعها لقيود كثيرة، مثل الصناعات الدوائية والطاقة النووية.
في الأخير، يُمكن للحكومات أن تضمن مشاركة الشركات الصغيرة في مسيرة تطوُّر الذكاء الاصطناعي بمنحها حق استخدام الشرائح المتطورة للباحثين المسؤولين، ففي الولايات المتحدة مثلا، يُفكِّر الكونغرس في تأسيس "مَوْرِد وطني لبحوث الذكاء الاصطناعي"، وهو جهة فيدرالية تحوي البيانات وأدوات الحوسبة الذكية التي يُمكِن إتاحتها للأكاديميين. إن تطوُّر الذكاء الاصطناعي أمر لا مفر منه، ويحتاج الناس في شتى أنحاء العالم إلى الاستعداد لما يُمكن أن تفعله تلك التكنولوجيا بمجتمعاتهم وللعالم من حولهم، وحينها فقط يمكننا جني الثمار الهائلة التي يعِدنا بها عصر الذكاء الاصطناعي.
___________________________________________________
ترجمة: ماجدة معروف
هذا التقرير مترجم عن Foreign Affairs ولا يعبر بالضرورة عن موقع ميدان.
المصدر: الجزيرة
كلمات دلالية: نماذج الذکاء الاصطناعی أنظمة الذکاء الاصطناعی الذکاء الاصطناعی الم الذکاء الاصطناعی فی ر الذکاء الاصطناعی الولایات المتحدة على الإنترنت ذکاء اصطناعی فی المستقبل صناع القرار اصطناعی ف على نطاق عن طریق ومن ث م التی ی من الم التی ت بعد أن
إقرأ أيضاً:
تحديات تواجه اللغة العربية في عصر الذكاء الاصطناعي.. قراءة
نظمت لجنة المكتبات بالنقابة العامة للمهندسين، برئاسة الدكتور المهندس أحمد فؤاد، احتفالا بمناسبة اليوم العالمي للغة العربية، استضافت فيه الدكتور نسيم عبد العظيم، أستاذ اللغة والنقد بكلية الآداب جامعة المنوفية، والدكتور المهندس أشرف كحلة، أستاذ تكنولوجيا الغزل والنسيج والخطوط العربية بالجامعة الأمريكية سابقًا، والدكتور المهندس عبد العاطي موسى، ولفيف من الأدباء والشعراء المهندسين.
حضر الاحتفالية وأدارها الدكتور المهندس مجدي محمد عبد الله، مقرر لجنة المكتبات، والمهندس ناصر الجزار، عضو اللجنة ومنسق الاحتفالية، وأعضاء اللجنة، وأعضاء اللجنة الثقافية والفنية بالنقابة.
وأعرب المهندس محمود عرفات عن سعادته لوجود زخم في الحضور المتنوع بين الشباب وكبار السن من المهندسين، ما يعكس مدى اهتمامهم باللغة العربية، مؤكدًا أن المهندسين متفوقون في جميع العلوم، معقبا: "لا شك أن اللغة العربية أثَّرت فينا جميعًا".
كما أشار "عرفات" إلى التحديات التي تواجهها اللغة العربية بسبب تزايد اعتماد الأجيال الجديدة على اللغات الأجنبية في أحاديثهم اليومية، ما قد يلقي بأثر سلبي ويؤدي إلى طمس الهوية الثقافية، لا سيما أن اللغة العربية حملت بين طياتها إرثًا ثقافيًا ودينيًا وحضاريًا يُثري الإنسانية عبر العصور، داعياً لاستغلال التقنيات والتكنولوجيا الحديثة لتطويرها وتعزيز سبل تعلمها عبر تحديث المناهج وتطوير أساليب التدريس الذي يمكن أن يجعل تعلم اللغة أكثر جذبًا خصوصا أن "العربية" تعرف بجمالها البلاغي وتنوع أساليبها الأدبية.
من جانبه، قال الدكتور المهندس أحمد فؤاد، إن اللغة العربية حفظها القرآن كتراث، معبرًا عن سعادته بحضور الاحتفالية كوكبة من الشعراء والأدباء والفنانين من المهندسين، موضحًا أن اختيار يوم الثامن عشر من ديسمبر بالتحديد للاحتفاء باللغة العربية، يأتي كونه اليوم الذي اتخذت فيه الجمعية العامة للأمم المتحدة في عام 1973، قرارها التاريخي بأن تكون اللغة العربية لغة رسمية سادسة في المنظمة.
فيما وجه الدكتور المهندس مجدي محمد عبد الله، الشكر للمهندس محمود عرفات، لدعمه المستمر للجنة المكتبات، والذي كان له الدور الأعظم في تنظيم العديد من فعاليات وأنشطة اللجنة، خاصة في جولاتها الخارجية.
واستعرض "عبد الله"، خلال محاضرته التي حملت عنوان "آفاق اللغة العربية في عصر الذكاء الاصطناعي"، الفرص والتحديات التي تواجه اللغة العربية في عصر الذكاء الاصطناعي، مطالبًا بإطلاق مبادرات وطنية لدعم اللغة العربية رقميًّا، وإدخال مناهج الذكاء الاصطناعي في التعليم.
بدوره، أكد الدكتور المهندس أشرف كحلة، أن اللغة العربية اللغة الشاملة والجامعة، وكانت صعبة، إلا أن نزول القرآن جعلها سهلة، مشيرًا إلى أن اللغة العربية ليست 28 حرفًا فقط، بل 364، لأن القرآن جعل لكل حرف 13 حركة من فتح وضم وكسر وشد وسكون... إلخ، فكل حركة تعطي معنى مختلفًا، موضحًا أن ما ساهم في سهولة اللغة العربية بشكل أكبر التشابه في الشكل بين الحروف، مثل (ب – ت – ث) و ( ج – ح – خ).
وقال "كحلة" إن هناك بعض القضايا التي أضرت باللغة العربية، منها الاستعمار الأجنبي للدول العربية، وما خلفه من التعليم الخاطئ لنطق بعض الحروف، مثل تبديل نطق حرف (ق) إلى (ج) وحرف (ض) إلى (ظ)، مختتمًا كلمته بالتأكيد على سهولة اللغة العربية، رغم تراثها وعظمتها.
فيما أوضح الدكتور نسيم عبد العظيم، أن “اللغة العربية لغة دينية لحوالي 2 مليار نسمة، ولا يليق بنا أن نحتفل باللغة العربية يومًا واحدًا في العام، ثم نهملها باقي العام”، قائلًا: "كل أمة تعتز بلغتها وتكتب بها العلوم من هندسة وطب وفلك وغيرها إلا نحن، على الرغم من أن لغتنا كانت لغة العلم لفترة من الفترات عندما استوعبت العلوم المختلفة في عصر الترجمة في العصر العباسي، واستوعبت جميع العلوم الموجودة في الحضارات المختلفة وترجمتها ونقلتها".
وأضاف “عبد العظيم”: “إننا لا ينقصنا معاجم، لكن ينقصنا ممارسة اللغة العربية، ويتأتى ذلك من خلال حفظ القرآن الكريم”، مستنكرًا الحديث باللهجة العامية في جميع أنشطتنا، وهو ما لا يليق، فلن نبدع إلا إذا كانت لغتنا هي اللغة العربية الفصحى.
وتضمنت فعاليات الاحتفالية إقامة معرض الخط العربي لفناني النقابة تحت إشراف المهندس عبد الرحمن لاشين.
وجرى خلال الاحتفالية حوار ونقاش فكري حول سبل تعزيز المحافظة على اللغة العربية، وتبارى الحضور في إلقاء القصائد الشعرية، كانت البداية مع الدكتور المهندس عبد العاطي موسى، والذي ألقى قصيدة شعرية في حب اللغة العربية.
على هامش الاحتفال، افتتح أمين عام النقابة، معرض اللوحات الفنية والمخطوطات العربية التي تناولت عددًا من ألوان فنون الخط المختلفة.