عندما يقتحم الذكاء الاصطناعي أسرارنا وخصوصياتنا!
تاريخ النشر: 4th, December 2024 GMT
مؤيد الزعبي *
الكثيرُ منا يستخدم يوميًّا أحد أنظمة الذكاء الاصطناعي التوليدي؛ مثل: (Chat GPT) و(Gemini) وغيرهما من الأنظمة المشابهة؛ وبالطبع تأخذ هذه الاستخدامات في الكثير من الأحيان طابعًا شخصيًّا مُحمَّلًا بالخصوصية والأسرار والمعلومات الحساسة، فأحدنا يذهب ليطلب منها أن تصوغ له خطابًا رسميًّا، وآخر يطلب كتابة بريد إلكتروني احترافي، والبعض يسألها عن أمور شخصية وكيف يتعامل في بعض المواقف العائلية أو حتى العملية.
وتخيَّل عزيزي القارئ، كم هي الأسرار التي قد تحملها مثل هذه المحادثات، وهنا يكمُن التساؤل المهم: هل أسرارنا وخصوصياتُنا في مأمن؟ أم يُمكن للذكاء الاصطناعي أن يعود علينا يومًا ويستغل مثل هذه الأسرار؟ وحتى إن لم يستغلها، فهل مُحادثاتنا في مأمن من أيدي العابثين من قراصنة وهاكرز؟.. سوف أحاول أن أتناقش معك عزيزي القارئ حول كل هذا من خلال هذا الطرح.
قبل أيام خُضتُ عدة تجارب مع أحد أنظمة الذكاء الاصطناعي التوليدي؛ فبعد سلسلة من الطلبات حول تصحيح صياغة بريد إلكتروني أو صياغة طلب خاص بعملي، وجدتُ أن النظام بدأ يَعرفني ويعرف وظيفتي وما هي طبيعة عملي، وبدأ يجيب عن تساؤلاتي من منظور أنني صحفي يعمل في جهة إعلامية هو يعرفها ويصيغ تصحيحاته واقتراحاته وحواراته بناءً على ما لديه من معلومات شخصية تخصني، حتى إنني تفاجأت بأنني قد قُمت بطلب مُعيَّن قبل أشهر ولا يزال هو يبني إجاباته معي بناءً على ذلك الطلب، وبالنسبة لي لا يشكل هذا الأمر أيَّ تخوف بالنسبة لي، فمثل هذه الأشياء لا تشكل سرًّا ولا معلومة فيها مَضرَّة لي لا من قريب ولا من بعيد، ولكن لنفترض عزيزي القارئ أنَّ شخصًا يطلب من الذكاء الاصطناعي كلَّ يوم طلبًا؛ فمرة طلب في مكان عمله، ومرة في بيته، ومرة يطلب منه حلًّا لمشكلة تواجهه أو يُحاوره حول فكرة تخطر في باله، وربما يذهب بعيدًا فيبدأ بالتحدُّث معه عن مشاعره أو يبُوح له بأحد أسراره، تخيَّل كمية المعلومات التي بات يعرفها عنك هذا النظام التوليدي، ومثل هذه المعلومات قد يتم استخدامها لاحقًا لملاحقتك من قبل المعلنين وأصحاب الملاحقات الإلكترونية وهم كُثر من شركات تَبيع منتجات وخدمات، وها هي اليوم تَعْرف أدق التفاصيل حتى عن مكنوناتك وأسرارك وخصوصياتك.
تخيَّل أن يكون الشخصُ الذي يستخدم هذه الأنظمة رجلًا يعمل في وظيفة حساسة، أو يُرسل إيميلات فيها أسرار عمله أو شركته، أو فيها أسرار لاختراعات أو حلول تقنية أو علمية أو حتى طبية، كم هي الأسرار التي سيكون بمقدور الذكاء الاصطناعي أن يصل لها دون أي مجهود، فنحن من ننسخ ونلصق ونطلب منه التحسين والتجميل وإعادة الصياغة، وتخيَّل كم صحفي أو مُدوِّن أو كاتب يبدأ بتوليد نصوصه عبر هذه الأنظمة وهو يضع نتاج أفكاره ونتاج أعماله بين يدي الذكاء الاصطناعي طوعًا، فمن يضمن لنا أننا في مأمن؟!!!
الشكلُ الآخر الذي أجد فيه خطورة: أنَّ محادثاتنا الشخصية والخاصة مع الذكاء الاصطناعي التوليدي سيتم استخدامها في تدريب الذكاء الاصطناعي نفسه على طريقة تفاعله وإجاباته ومنطقه، ولا أستبعد أن يأتي الوقت الذي لن نميز فيه ما إذا كنا نحادث نظامًا توليديًّا يعمل بالذكاء الاصطناعي، من أن نجده أقرب للإنسان أو شخص يُشبهنا نحن شخصيًّا، وهنا أكرِّرها من الذي سيضمن لنا سلامة بياناتنا وأسرارنا ونحن في عالم مستعد لأن يستغل كل حرف نكتبه على أجهزتنا ليلاحقنا ويروِّج لنا منتجات المعلنين، أو يستغل هذه الداتا البشرية ليطوِّر بها نظامًا أكبر وأشمل وأعقد؟!! في الحقيقة لا أحد يضمن لنا ذلك.
نحن نتحدث اليوم عن محادثات بسيطة بات الذكاء الاصطناعي من خلالها يخترق خصوصياتنا وأسرارنا، فما هي الحال ونحن نستخدم أنظمة أكثر شمولية وأكثر تعقيدًا وترابطًا (؟!) بالطبع سيخترق الذكاء الاصطناعي كلَّ ما فينا من مشاعر وأسرار وخبرات ومعلومات حساسة، وما نقوم به اليوم لن يتوقف، فإذا كانت مُحرِّكات البحث تستغل كل ما نكتبه ونبحث عنه فها هي اليوم أنظمة الذكاء الاصطناعي التوليدي تعرف عنا الكثير، ليس فقط ما نبحث عنه، ها نحن قد أدخلناها بيوتنا ومكاتبنا ومعاملنا ومدارسنا ومستشفياتنا، حتى إننا أدخلناها قلوبنا وعقولنا، وأنا أعلم عزيزي القارئ أنَّ هذا الأمر لن يتوقف، ولكن أضع بين يديك هذا الطرح لنتفكَّر في حجم الاختراق الذي بات الذكاء الاصطناعي يخترقنا به.
* المنسق الإعلامي ومنتج الأخبار لصالح مجموعة الصين للإعلام - الشرق الأوسط
رابط مختصرالمصدر: جريدة الرؤية العمانية
إقرأ أيضاً:
آبل تكشف خطتها لتطوير الذكاء الاصطناعي بتحليل بيانات المستخدمين
في محاولة للرد على الانتقادات المتعلقة بضعف أداء أدوات الذكاء الاصطناعي التي أطلقتها مؤخرًا، خاصة فيما يتعلق بتلخيص الإشعارات، كشفت شركة "آبل" يوم الإثنين عن آلية جديدة لتحسين نماذج الذكاء الاصطناعي الخاصة بها، تعتمد على تحليل بيانات المستخدمين بطريقة تراعي الخصوصية، باستخدام ما يعرف بـ"البيانات الاصطناعية".
تحسين الذكاء الاصطناعي دون المساس بالخصوصيةوأوضحت الشركة في منشور رسمي على مدونتها التقنية أنها تستخدم تقنية "الخصوصية التفاضلية" (Differential Privacy)، والتي تتيح تحليل البيانات بشكل آمن من دون جمع محتوى المستخدمين الفعلي، مما يسمح بتحسين أداء النماذج من دون المساس بخصوصية الأفراد.
وتعتمد آبل على إنشاء بيانات اصطناعية تشبه في الشكل والخصائص بيانات المستخدمين الحقيقية، لكنها لا تتضمن أي محتوى فعلي قام المستخدم بإنتاجه.
وفقًا لآبل، تبدأ العملية بإنشاء مجموعة كبيرة من الرسائل الإلكترونية الاصطناعية حول مواضيع متنوعة، ثم يتم تحويل كل رسالة إلى ما يُعرف بـ"التمثيل الرقمي" (Embedding)، وهو نموذج يعكس الخصائص الأساسية للرسالة مثل اللغة، الموضوع، والطول.
بعد ذلك، يتم إرسال هذه التمثيلات الرقمية إلى عدد محدود من أجهزة المستخدمين الذين اختاروا مشاركة تحليلات الجهاز مع آبل (Device Analytics)، حيث تقوم الأجهزة بمقارنة هذه التمثيلات مع عينات من الرسائل الحقيقية لتحديد مدى دقتها، وبالتالي إبلاغ آبل بأي تحسينات مطلوبة.
نماذج مستهدفة بالتحسينأكدت آبل أنها بدأت باستخدام هذه التقنية لتحسين نموذج Genmoji، وهو النظام المسؤول عن إنشاء رموز تعبيرية مخصصة اعتمادًا على الذكاء الاصطناعي، كما تخطط لتوسيع استخدامها لتشمل ميزات أخرى مثل Image Playground لإنشاء صور تفاعلية، و أداة Image Wand لتحسين الصور بواسطة الذكاء الاصطناعي.
بالاضافة إلى أداة Memories Creation، لإنشاء الذكريات تلقائيًا من صور المستخدم، وأداة Writing Tools لتحسين تجربة الكتابة، واخيراً أداة Visual Intelligence لفهم وتحليل الصور والمحتوى المرئي.
كما أشارت الشركة إلى أنها ستعتمد هذه الطريقة لاحقًا لتحسين ميزة تلخيص الرسائل الإلكترونية، والتي تلقت انتقادات لكونها غير دقيقة أو غير مفيدة.
خلاصةفي ظل المنافسة الشرسة بين عمالقة التكنولوجيا لتطوير حلول ذكاء اصطناعي فعالة وآمنة، يبدو أن آبل تسير في طريق مختلف، يركز على الخصوصية كأولوية مطلقة.
فيما يمثل استخدام البيانات الاصطناعية نقلة نوعية في كيفية تحسين المنتجات دون التضحية بثقة المستخدم – وهي ركيزة أساسية في فلسفة آبل منذ سنوات.