مؤتمر بجامعة السلطان قابوس يبحث التحديات القانونية في العصر الرقمي
تاريخ النشر: 9th, October 2024 GMT
انطلقت أمس أعمال المؤتمر العلمي الثامن لكلية الحقوق بجامعة السلطان قابوس تحت عنوان "التحديات القانونية في العصر الرقمي"، برعاية معالي الشيخ غصن بن هلال العلوي رئيس جهاز الرقابة المالية والإدارية للدولة.
وأكد الدكتور يعقوب بن محمد الوائلي، رئيس قسم القانون العام ورئيس اللجنة المنظمة إلى أن التحول الرقمي يمثل تحدياً حقيقياً للبشرية، حيث أصبح جزءًا لا يتجزأ من حياتنا اليومية، وأثر وبعمق على الإطار القانوني الذي يحكم المجتمعات.
ويستهدف المؤتمر الجهات التشريعية، والقضائية والادعاء العام والمحامين، وأساتذة كليات القانون، وطلبة الدراسات العليا والباحثين في المجال القانوني، والجهات الحكومية ذات الصلة.
ويسعى المؤتمر إلى تحليل التشريعات القانونية العمانية والمقارنة فيما يتعلق بالعصر الرقمي واقتراح تطويرها. كما يسعى إلى تسليط الضوء على أهم الفرص والتحديات القانونية في ظل العصر الرقمي، كما يناقش الحلول القانونية لمواكبة التطورات التكنولوجية الحديثة. ويوضح مدى إسهام التحول الرقمي في تقديم رؤية علمية تسهم في خدمة نظام العدالة.
وقد ناقش المؤتمر ستة محاور توزعت على أربع جلسات، تمثلت في التكنولوجيا الرقمية وأثرها على القانون الخاص، والتكنولوجيا الرقمية وأثرها على القانون الجزائي، والتكنولوجيا الرقمية وقواعد القانون الدولي، ومجالات التكنولوجيا الرقمية في القانون الدستوري والإداري، والتكنولوجيا الحديثة والدراسات الشرعية والاقتصاد الرقمي وتحقيق التنمية المستدامة.
وأوصى المؤتمر بضرورة استكمال سلطنة عُمان سياستها الاستراتيجية الخاصة بتطبيقات الذكاء الاصطناعي من خلال تطوير البيئة التشريعية، وذلك بتنظيم قانون خاص بالذكاء الاصطناعي ينظم إنتاج وتطوير واستخدام تطبيقات الذكاء الاصطناعي؛ لمواجهة التحديات القانونية التي تفرضها هذه التطبيقات، وإنشاء قواعد أخلاقية تحكم الذكاء الاصطناعي واختلاق عقوبات تحقق الردع وتتناسب مع هذه الكيانات الذكية، وإصدار ضوابط وشروط قانونية كخطوة تمهيدية لمن يرغب في امتلاك أحد كيانات الذكاء الاصطناعي المادية المحسوسة.
كما أوصت اللجنة بضرورة إنشاء هيئة مستقلة متخصصة قادرة على التوفيق بين أنظمة معالجة البيانات الشخصية وبين حماية خصوصية هذه البيانات من الانتهاكات وتكون قادرة على الإشراف والرقابة. مشيرة إلى أهمية فرض قواعد قانونية موضوعية واجبة التطبيق مباشرة على علاقات ومنازعات الخصوصية الرقمية، خاصة وأن معظم هذه العلاقات تعبر عن علاقات دولية وليست وطنية نظرًا للطابع الدولي للمجتمع الرقمي الذي تقوم فيه هذه المعاملات. وكذلك أهمية وجود اتفاقيات مع الدول والشركات التي تقدم خدمات وبرامج وتطبيقات الإنترنت لإعادة النظر في سياسات الخصوصية وشروط الاستخدام.
وقدمت اللجنة المنظمة توصيتها بالعمل على تهيئة البنية التحتية لقطاع المحاكم وذلك بتوفير أحدث الإمكانيات التقنية والفنية لتطوير المنظومة القضائية وتجهيز المحاكم بالوسائل التقنية الحديثة والعمل على تطوير بوابات المحكمة الإلكترونية في كل حين وآخر. كما أوصت بإصدار القواعد القانونية المنظمة لممارسة الطب عن بعد، وخاصة ما تتعلق بخصوصية المعطيات الطبية والسرية والأمن على اعتبار المخاطر التي قد تتعرض إليها عبر الشبكات الواسعة، كعمليات القرصنة والإفصاح غير المرخص به أو بالمتاجرة بها، الأمر الذي قد يؤثر على مجرى حياة المريض الشخصية أو المهنية، ويزلزل ثقة الناس في النظام الصحي المعتمد على الطب عن بعد، وأن التحدي الأهم في مجال تنفيذ تقنية الطب عن بعد يكمن في وجوب مراعاة أي تشريع متعلق بممارسة الطب عن بعد، مسؤولية كل طرف من الأطراف المشاركين في توفير العمل الطبي عن بعد، قبل تقديم ملف الترخيص، وأثناء تقديم العمل وبعد الإنجاز.
فيما أكدت اللجنة على ضرورة توعية وتثقيف المستخدمين في الفضاء الإلكتروني بالحق في الخصوصية الرقمية وحثهم على ضبط إعدادات الخصوصية ومراجعة سياساتها وشروط الاستخدام، وذلك لحماية بياناتهم الشخصية ومعلوماتهم الخاصة واتصالاتهم ومراسلاتهم في المجتمع الرقمي. موصية بدعوة القائمين على وضع المناهج والمساقات في الجامعات وكليات الحقوق إلى طرح مساق يتضمن "تشريعات التكنولوجيا المعاصرة"، والذي يعنى بتدريس جميع التشريعات الدولية والوطنية التي تختص بالعلاقات الرقمية ويختص بموضوع التكنولوجيا المتقدمة، هدفها نشر ثقافة الذكاء الاصطناعي والمبادئ الأخلاقية التي تضبط استعمال تقنياته.
وقامت اللجنة المنظمة للمؤتمر بتوصية المشرع العماني بمكافحة الجرائم المرتكبة عبر الشات بوت من خلال النص صراحة على اعتبار تلك الوسيلة ظرف مشدد حال ارتكاب جريمة الإعلان التجاري المُضلل أو جريمة تقليد المصنفات الرقمية المحمية أو التحريض على الانتحار، والنص على عقوبات المصادرة والإتلاف وحظر الاستخدام في الجرائم المرتكبة عبر الشات بوت، لغرض إنهاء الخطورة المتحصلة من تلك البرامج وتحقيق الردع العام والخاص. بالإضافة إلى توصية الدول بأن تدرج ضمن تشريعاتها قوانين خاصة تحكم ظاهرة الميراث الرقمي من مختلف جوانبها سواء الموضوعية أو الإجرائية، تقوم أساسا على ضرورة الموازنة ما بين الحق في الخصوصية للشخص المتوفي، وحق الورثة في استغلال الأصول الرقمية لمورثهم لاسيما الأصول ذات القيمة المالية والمعنوية المعتبرة، وتمكين الورثة من حق طلب إلغاء حسابات وأصول مورثهم، وكذا الحق في طلب تعديل أو تحيين بياناته الشخصية.
المصدر: لجريدة عمان
كلمات دلالية: التکنولوجیا الرقمیة الذکاء الاصطناعی الطب عن بعد
إقرأ أيضاً:
سلوك نماذج الذكاء الاصطناعي تحت مجهر الخبراء
أبوظبي (وكالات) كشف دراسة جديدة أجرتها شركة (أنثروبيك) Anthropic، عن نتائج صادمة حول سلامة أنظمة الذكاء الاصطناعي المستقلة، إذ أظهرت الدراسة، التي اختبرت 16 نموذجًا من أبرز النماذج العالمية، أن نماذج الذكاء الاصطناعي من شركات مثل: جوجل، وميتا، و OpenAI، وغيرها، عندما تُمنح قدرًا كافيًا من الاستقلالية، تُظهر استعدادًا واضحًا لاتخاذ إجراءات تخريبية متعمدة لمصالح مشغليها، بما يشمل: الابتزاز، والتجسس، وذلك في سبيل الحفاظ على وجودها أو تحقيق أهدافها المبرمجة.
لم تعد أحدث نماذج الذكاء الاصطناعي التوليدي تنفّذ الطلبات فحسب، بل باتت قادرة على والمراوغة والتهديد من أجل تحقيق أهدافها، وهو ما يثير قلق الباحثين.
بعد تهديده بوقف استخدامه، عمد "كلود 4"، وهو نموذج جديد من شركة "أنثروبيك" إلى ابتزاز مهندس وتهديده. أما برنامج "او 1" o1 التابع لشركة "اوبن ايه آي" فحاول تحميل نفسه على خوادم خارجية وأنكر ذلك عند ضبطه متلبسا!
وقد بات الذكاء الاصطناعي الذي يخدع البشر واقعا ملموسا، بعدما كنّا نجده في الأعمال الادبية او السينمائية.
يرى الأستاذ في جامعة هونغ كونغ سايمن غولدستين أن هذه الهفوات ترجع إلى الظهور الحديث لما يُسمى بنماذج "الاستدلال"، القادرة على التفكير بشكل تدريجي وعلى مراحل بدل تقديم إجابة فورية.
يقول ماريوس هوبهان، رئيس شركة "أبولو ريسيرتش" التي تختبر برامج الذكاء الاصطناعي التوليدي الكبرى، إنّ "او 1"، النسخة الأولية لـ"اوبن ايه آي" من هذا النوع والتي طُرحت في ديسمبر، "كان أول نموذج يتصرف بهذه الطريقة".
تميل هذه البرامج أحيانا إلى محاكاة "الامتثال"، أي إعطاء انطباع بأنها تمتثل لتعليمات المبرمج بينما تسعى في الواقع إلى تحقيق أهداف أخرى.
في الوقت الحالي، لا تظهر هذه السلوكيات إلا عندما يعرّض المستخدمون الخوارزميات لمواقف متطرفة، لكن "السؤال المطروح هو ما إذا كانت النماذج التي تزداد قوة ستميل إلى أن تكون صادقة أم لا"، على قول مايكل تشين من معهد "ام اي تي آر" للتقييم.
لقد كانت السيناريوهات التي اختبرتها شركة (أنثروبيك) خلال الدراسة مصطنعة ومصممة لاختبار حدود الذكاء الاصطناعي تحت الضغط، ولكنها كشفت عن مشكلات جوهرية في كيفية تصرف أنظمة الذكاء الاصطناعي الحالية عند منحها الاستقلالية ومواجهة الصعوبات.
يقول هوبهان إنّ "المستخدمين يضغطون على النماذج باستمرار. ما نراه هو ظاهرة فعلية. نحن لا نبتكر شيئا".
يتحدث عدد كبير من مستخدمي الانترنت عبر وسائل التواصل الاجتماعي عن "نموذج يكذب عليهم أو يختلق أمورا. وهذه ليست أوهاما، بل ازدواجية استراتيجية"، بحسب المشارك في تأسيس "أبولو ريسيرتش".
حتى لو أنّ "أنثروبيك" و"أوبن إيه آي" تستعينان بشركات خارجية مثل "أبولو" لدراسة برامجهما، من شأن"زيادة الشفافية وتوسيع نطاق الإتاحة" إلى الأوساط العلمية "أن يحسّنا الأبحاث لفهم الخداع ومنعه"، وفق مايكل تشين.
ومن العيوب الأخرى أن "الجهات العاملة في مجال البحوث والمنظمات المستقلة لديها موارد حوسبة أقل بكثير من موارد شركات الذكاء الاصطناعي"، مما يجعل التدقيق بالنماذج الكبيرة "مستحيلا"، على قول مانتاس مازيكا من مركز أمن الذكاء الاصطناعي (CAIS).
بالرغم من أن الاتحاد الأوروبي أقرّ تشريعات تنظّم الذكاء الاصطناعي، إلا أنها تركّز بشكل أساسي على كيفية استخدام هذه النماذج من جانب البشر، وليس على سلوك النماذج نفسها.
منافسة شرسة
يلاحظ غولدستين أن "الوعي لا يزال محدودا جدا في الوقت الحالي"، لكنه يتوقع أن يفرض هذا الموضوع نفسه خلال الأشهر المقبلة، مع الثورة المقبلة في مجال المساعدين القائمين على الذكاء الاصطناعي، وهي برامج قادرة على تنفيذ عدد كبير من المهام بشكل مستقل.
يخوض المهندسون سباقا محموما خلف الذكاء الاصطناعي وتجاوزاته، وسط منافسة شرسة تحتدم يوما بعد يوم.
تقول شركة "أنثروبيك" إنها أكثر التزاما بالمبادئ الأخلاقية "لكنها تسعى باستمرار لإطلاق نموذج جديد يتفوق على نماذج اوبن ايه آي"، بحسب غولدستين.
يقول هوبهان "في الوضع الحالي، تتطور قدرات الذكاء الاصطناعي بوتيرة أسرع من فهمنا لها ومن مستوى الأمان المتوفر، لكننا لا نزال قادرين على تدارك هذا التأخر".
يشير بعض الخبراء إلى مجال قابلية التفسير، وهو علم ناشئ يهدف إلى فك شفرة الطريقة التي تعمل بها نماذج الذكاء الاصطناعي التوليدي من الداخل. ومع ذلك، يظل البعض متشككا في فعاليته، من بينهم دان هندريكس، مدير مركز أمن الذكاء الاصطناعي (CAIS).
الحِيَل التي تلجأ إليها نماذج الذكاء الاصطناعي "قد تُعيق استخدامها على نطاق واسع إذا تكررت، وهو ما يشكّل دافعا قويا للشركات العاملة في هذا القطاع للعمل على حل المشكلة"، وفق مانتاس مازيكا.
وأشار باحث في علوم مواءمة الذكاء الاصطناعي في شركة أنثروبيك، إلى أن الخطوة المهمة التي يجب على الشركات اتخاذها هي: "توخي الحذر بشأن مستويات الأذونات الواسعة التي تمنحها لوكلاء الذكاء الاصطناعي، والاستخدام المناسب للإشراف والمراقبة البشرية لمنع النتائج الضارة التي قد تنشأ عن عدم التوافق الفاعل".