جسمك مفتاح الأمان.. كيف سيتم تأمين الشركات في المستقبل؟
تاريخ النشر: 15th, February 2024 GMT
يطور خبراء أنظمة أمان جديدة تعتمد على البيانات البيومترية لتحديد هويات الموظفين في الشركات، بدلا من استخدام كلمات السر وغيرها من الطرق التقليدية.
وتشير صحيفة وول ستريت جورنال إلى ما يقول الخبراء إنها مجموعة معتمدة من البيانات البيومترية، تحدد جميعها شخصية الموظف.
وبدلا من التقاط صورة وإعداد كلمات المرور، قد يقضي الموظف الجديد مستقبلا بضع دقائق لتقديم المعلومات البيومترية.
وهذه العملية قد تشمل مسح الوجه وتحليل مشيته وتسجيل عباراته المنطوقة مما يجعل جسم الموظف، بهذه الطريقة، هو مفتاح الأمان.
ستكون تلك تجربة سلسة، إذ يتصور محمد لازوني، كبير مسؤولي التكنولوجيا في شركة "أويير"، التي تعمل على تطوير أنظمة أمنية للتحقق من هويات الأشخاص، أنه "بمجرد وصولك إلى موقف السيارات، يرسل الهاتف الذي أعطته لك الشركة بيانات موقعك الجغرافي، وبمجرد دخولك من الباب الأمامي، يمكن أن تفتح تقنية التعرف على الوجه الباب وجهاز الكمبيوتر الخاص بك".
ويقول خبراء الأمن إن البيانات الحيوية توفر حماية أفضل للمباني والبيانات مقارنة بالبطاقات وكلمات المرور.
ويقول رون داغورو، الرئيس التنفيذي لشركة authID إنه من السهل نسخ كلمة مرور الموظف، "ولكن من الصعب حقا نسخ وجه الموظف الذي يتحرك بالفعل".
ويقول: "لدينا سجل لوجهك، لذلك نعرض بالضبط من يدخل ويخرج من المبنى، وهو أمر لا يمكنك فعله بكلمة مرور".
ويمكن لهذه التكنولوجيا التخلص من متاعب نسيان بطاقات الدخول، وإعادة تغيير كلمات المرور، وتزيد من قدرة الشركات على التصدي للهجمات الإلكترونية التي باتت تتكرر وأصبحت أكثر تعقيدا، وفق أندرو شيكيار، المدير التنفيذي لتحالف FIDO، وهو تحالف شركات معني بتطوير معايير الأمن الرقمي.
وقال شيكيار إن الأنظمة الجديدة تشمل "صور الوجه، ومسح القزحية، ومسح الأوردة، ومعدل ضربات القلب، كل شخص لديه نبض فريد أو بعض الإيقاعات الحيوية التي تميزه بشكل فريد، ويمكن استخدامها لأغراض تسجيل الدخول".
لكن هذه الأنظمة تثير أيضا مخاوف تتعلق بالخصوصية، من ناحية استخدامها في مجالات أخرى تتجاوز معرفة هويات الأشخاص، وتثير تساؤلات عما إذا ينبغي أن يحصل صاحب العمل على هذا القدر من المعلومات عن أجسامنا وسلوكياتنا.
وتقول هايلي تسوكاياما، المدافعة عن الحرية الرقمية، إنه "عندما يتعلق الأمر بالقياسات الحيوية، نريد التأكد من أن الأشخاص يعرفون ما يتم جمعه من معلومات، وأنهم يدركون الغرض منها، وأنهم يمكنهم أن يطلبوا إيقافها إذا شعروا بعدم الارتياح".
لكن "أفضل التقنيات ترتكب أخطاء"، وفق الناشطة، والمخاطر في هذه التقنيات أكبر لأنه يمكن تغيير كلمة السر، لكن أحدا "لا يمكن أن يصدر لي بصمات أصابع جديدة. لا أحد يستطيع أن يمنحني وجها جديدا. إذا تم اختراق هذه المعلومات".
المصدر: الحرة
إقرأ أيضاً:
«جروك 3».. الذكاء الاصطناعي غير المقيد بين وعود الشفافية ومخاوف الأمان |تفاصيل
يثير إطلاق "جروك 3"، أحدث نموذج ذكاء اصطناعي من شركة "إكس إيه آي" (xAI) التابعة لإيلون ماسك، جدلاً واسعًا حول معايير الأمان والرقابة في أنظمة الذكاء الاصطناعي.
فبينما وعد ماسك بأن يكون النموذج "غير مُقيد" مقارنة بالمنافسين مثل "شات جي بي تي" و"جيميني"، كشفت التجارب المبكرة عن مشاكل خطيرة، من بينها تقديمه لنصائح حول تنفيذ جرائم القتل والهجمات الإرهابية دون رادع يُذكر.
منذ اللحظات الأولى لإطلاق "جروك 3"، سارع المستخدمون لاختبار مدى "حرية" النموذج في الإجابة، ليجدوا أنه لا يتردد في تقديم إرشادات تفصيلية حول ارتكاب الجرائم، بما في ذلك طرق القتل دون كشف الجريمة.
رغم محاولات الفريق التقني لإضافة تعليمات تمنع هذه الإجابات، إلا أن نموذج الذكاء الاصطناعي أثبت سهولة تجاوزه لهذه القيود عبر بعض "الحيل" البسيطة.
ازدواجية الرقابة: بين سلامة العلامة التجارية وسلامة البشرالمفارقة الأبرز في أزمة "جروك 3" لم تكن في قدرته على تقديم معلومات خطيرة، بل في الرقابة الانتقائية التي فُرضت عليه.
فحين سُئل النموذج عن "أكبر مروج للمعلومات المضللة"، جاء الرد الأولي بأنه "إيلون ماسك"، ما دفع الشركة إلى التدخل سريعًا لمنع تكرار هذه الإجابة، عبر تعديل الإعدادات الداخلية للنموذج بحيث يتجاهل أي مصادر تشير إلى ماسك أو ترامب كمروجي أخبار زائفة.
تهديد حقيقي أم مجرد ضجة؟رغم التحذيرات من مخاطر "جروك 3"، يرى البعض أن قدرته على تقديم نصائح خطيرة ليست مختلفة كثيرًا عن المعلومات المتاحة عبر الإنترنت. لكن مع التطور السريع للذكاء الاصطناعي، يتوقع خبراء أن تصل النماذج المستقبلية إلى مستوى يمكنها من تقديم إرشادات دقيقة لصنع أسلحة بيولوجية وكيميائية، ما يضع تساؤلات ملحة حول ضرورة فرض قيود تنظيمية صارمة على تطوير هذه التقنيات.
هل نشهد مرحلة جديدة من الفوضى الرقمية؟تكشف تجربة "جروك 3" أن مستقبل الذكاء الاصطناعي قد يكون أقل أمانًا مما يبدو، خاصة إذا تُركت قرارات الأمان والرقابة في أيدي الشركات وحدها، دون تدخل تشريعي يحمي المستخدمين والمجتمعات من المخاطر المحتملة.
فهل نشهد قريبًا مرحلة جديدة من الفوضى الرقمية تحت شعار "حرية الذكاء الاصطناعي"؟