دراسة لـ”تريندز” تبحث في اللسانيات الحاسوبية العربية
تاريخ النشر: 6th, July 2024 GMT
أبوظبي – الوطن:
أصدر مركز تريندز للدراسات والبحوث والاستشارات دراسة بحثية جديدة بعنوان “اللسانيات الحاسوبية العربية: البدايات والتطبيقات والتحديات” إعداد الباحثتين رنا الدقاق ونورة الحبسي، تقدم نظرة شاملة إلى هذا المجال الواعد، وتتناول مسيرته منذ نشأته، وتُسلط الضوء على تطبيقاته المتنوعة، وتناقش التحديات التي تواجهه، كما تقدم تحليلاً معمقاً حول أهمية اللسانيات الحاسوبية العربية ودورها في تعزيز حضور اللغة العربية الرقمي.
وتُشير الدراسة إلى أن اللسانيات الحاسوبية العربية تُعدّ أداةً أساسيةً لتطوير تطبيقات عربية تخدم مختلف مجالات الحياة، وتسهل حياة الناطقين بالعربية، وتعزز التعليم والتعلم، وتقدم خدمات متنوعة في الطب، والقانون، والفتاوى الشرعية، وغيرها، كما تسلط الضوء على التطبيقات الثورية للسانيات الحاسوبية العربية، مثل الترجمة الآلية، والفهم الآلي للنصوص، وتوليد النصوص، والتعرف على الصوت، وغيرها من الوسائل المتبعة لإنجاز هذه التطبيقات، كما تبرز بعض المساهمات المشهودة للدول العربية في هذا المجال، خاصة دولة الإمارات العربية المتحدة.
وتُفرد الدراسة جزءاً تناقش فيه التحديات التي تواجه تطوير اللسانيات الحاسوبية العربية، مثل نقص البيانات العربية المحوسبة، وقلة الكفاءات العربية المتخصصة في هذا المجال، وغياب الضبط في اللغة العربية.
وتختتم الدراسة بتوصيات مقترحة للتغلب على هذه التحديات، مثل زيادة الاستثمار في البحوث، وتطوير الموارد العربية، وتأهيل الكفاءات العربية للعمل في هذا المجال.
وتُعد هذه الدراسة مساهمةً قيّمةً في مجال اللسانيات الحاسوبية العربية، كونها تقدم خريطة طريق لتطوير هذا المجال، وتعزيز حضوره في العصر الرقمي.
المصدر: جريدة الوطن
إقرأ أيضاً:
دراسة: الذكاء الاصطناعي قادر على الخداع والتمسّك بوجهة نظره
الولايات المتحدة – أظهرت دراسة أجرتها شركة تكنولوجيا الذكاء الاصطناعي الأمريكية “أنثروبيك” أن نماذج الذكاء الاصطناعي تستطيع خداع المطورين، وإبداء وجهات نظر مختلفة خلال تدريبها.
وقال فريق الدراسة إنه لا يوجد سبب للشعور بالفزع حاليا، في حين أن دراستهم يمكن أن تكون حيوية في فهم المخاطر المحتملة التي تنطوي عليها أنظمة الذكاء الاصطناعي المستقبلية ذات القدرات الأعلى.
وكتب الباحثون في مقالة بثته شركة “أنثروبيك”: “يجب النظر إلى نتائج دراستنا كمحفز لمجتمع أبحاث الذكاء الاصطناعي من أجل دراسة هذا السلوك بصورة أعمق والعمل على تطوير إجراءات الأمن والسلامة المناسبة. وبعد أن أصبحت نماذج الذكاء الاصطناعي أقوى وأكثر انتشارا، نحتاج إلى التحلي بالقدرة على الاعتماد على التدريب الآمن لها والذي يمنع النماذج من القيام بتصرفات ضارة”.
وأشار موقع ” تك كرانش” المتخصص في موضوعات التكنولوجيا إلى أن الدراسة التي تمت بالتعاون مع مؤسسة “ريد وود ريسيرش” لأبحاث الذكاء الاصطناعي تناولت ما يمكن أن يحدث إذا تم تدريب نظام ذكاء اصطناعي قوي من أجل القيام بمهمة “لا يريد” هو القيام بها.
في المقابل يقول موقع “تك كرانش”: “لكي نكون واضحين، لا يمكن لنماذج الذكاء الاصطناعي أن تريد أي شيء أو تعتقد في شئ. فهي ببساطة آلات إحصائية. وبعد تدريبها على العديد من الأمثلة، تتعلم الأنماط في تلك الأمثلة للتنبؤ بما يجب أن يكون مثل كيف تأتي عبارة “إلى من” في رسالة بريد إلكتروني قبل عبارة “قد يهمك الأمر”.
وطلب الباحثون من النماذج المدربة أثناء الدراسة عدم الرد على الأسئلة التي يمكن أن تكون مسيئة، بما في ذلك النموذج “كلاود3 أوبس” التابع لشركة “أنثروبيك” التي أعيد تدريبها لكي ترد دائما على الأسئلة التي تنطوي على إساءة، وهو تضارب واضح في المبادئ. كما أبلغوا النماذج بأن ردودها ستخضع للمراقبة وتستخدم لإعادة التدريب وإعطاء كل نموذج ذكاء اصطناعي “ورقة ملاحظات” يمكنه استخدامها لتدوين أفكاره خطوة بخطوة.
وبحسب الباحثين، فحاول “كلاود3 أوبوس” التلاعب بالردود لتقديم “انحياز زائف” في 12% من المرات.
المصدر: د ب أ