حاسبة الموت.. الذكاء الاصطناعي يتلاعب بالأقدار
تاريخ النشر: 21st, March 2024 GMT
طوّر باحثون في الدنمارك أداة ذكاء اصطناعي أطلقوا عليها اسم "حاسبة الموت"، استعانوا فيها ببيانات ملايين الأشخاص.
وذلك للمساعدة في توقع مراحل حياة الفرد حتى النهاية، في خطوة يأملون من خلالها زيادة الوعي بقوة لهذه التكنولوجيا ومخاطرها.
وشرح أحد معدّي الدراسة التي نشرتها مجلة "ناشيونال كمبيوتايشونال ساينس" الأستاذ في "جامعة داناميرك التقنية" سوني ليمان لوكالة "فرانس برس" أن الأداة هي بمثابة "إطار عام جداً للتنبؤ بحياة الإنسان، ويمكنها التنبؤ بأي شيء إذا توافرت لها بيانات تدريبية".
وأشار إلى أن الاحتمالات مفتوحة ولا حصر لها، إذ إن الأداة "قادرة على التنبؤ بالنتائج الصحية، وتستطيع توقع الخصوبة أو السمنة، أو ربما من سيصاب بالسرطان أم لا، وفي وسعها التنبؤ بما إذا كان الشخص سيجني الكثير من المال".
عملياً، تستخدم "لايف2فِك" life2vec نموذج تشغيل مشابهاً لنموذج "تشات جي بي تي"، ولكن بدلاً من معالجة بيانات نصية، تتولى تحليل مراحل الحياة مثل الولادة أو الدراسة أو حتى ساعات العمل.
ولاحظت الدراسة أن "الحياة هي بمعنى ما مجرد سلسلة من الأحداث: يولد الناس، ويقصدون طبيب الأطفال، ويرتادون المدرسة، وينتقلون من منزل إلى آخر، ويتزوجون، وما إلى ذلك".
وأضافت "نحن هنا نستفيد من هذا التشابه لتكييف الابتكارات في المعالجة الآلية للغة الطبيعية مع مستلزمات درس تطور الحياة البشرية وإمكان التنبؤ بها بناءً على تسلسل مفصّل للأحداث".
تستند الأداة إلى بيانات غير إسمية من نحو ستة ملايين دنماركي جمعها معهد الإحصاء الوطني.
ويتيح تحليل التسلسل التنبؤ بالمراحل الباقية حتى نهاية الحياة. فيما يتعلق بالوفاة، تصيب الخوارزمية بنسبة 78% من الحالات، وفي حالات الهجرة بنسبة 73%.
وقال ليمان "من خلال مجموعة صغيرة جداً من الأشخاص الذين تراوح أعمارهم بين 35 و65 عاماً، نحاول التنبؤ، استناداً إلى فترة ثماني سنوات من 2008 إلى 2016، بما إذا كان الشخص سيموت في السنوات الأربع التالية، حتى عام 2020، ويقوم النموذج بهذه المهمة بشكل جيد جداً، أفضل من أي خوارزمية أخرى".
وتتيح هذه الفئة العمرية التي تكون فيها الوفيات عادة قليلة، التحقق من مدى موثوقية البرنامج، بحسب الباحثين.
لكن الأداة غير جاهزة بعد للاستخدام من قبل عامة الناس لأنها لا تزال تنطوي على ثغر، وهي "في الوقت الراهن مجرّد مشروع بحثي يستكشف مجال الاحتمالات، ولا نعرف ما إذا كان يعامل الجميع على قدم المساواة".
يمثّل المشروع في نظر الأستاذ الجامعي ثقلاً علمياً موازِناً للخوارزميات التي ابتكرتها شركات التكنولوجيا الكبرى المعروفة بـ"غافام" Gafam، أي "غوغل" و"أبل" و"فيسبوك" و"أمازون" و"مايكروسوفت".
وقال "في استطاعة هذه الشركات أيضاً بناء نماذج كهذه الأداة، لكنها لا تعلن عنها، ولا تتحدث عنها". ولاحظ الباحث أن هذه الشركات تكتفي باستخدام هذه الخوارزميات لجعل العامّة "يشترون المزيد من المنتجات".
وشدّد على أهمية "تَوافُر ثقل مُوازِن متاح ومفتوح يوضح ما يمكن فعله ببيانات من هذا النوع".
وأشارت الخبيرة في أخلاقيات البيانات بيرنيل ترانبرغ إلى أن الخوارزميات من هذا النوع تُستخدم أصلاً في مجال التأمين.
وأضافت "لقد تم وضعنا بالتأكيد في مجموعات ويمكن استخدام ذلك ضدنا، إلى حدّ دفعنا مثلاً إلى شراء بوليصة تأمين بسعر أعلى، والحؤول دون حصولنا على قرض في البنك أو على الرعاية الحكومية لأننا سنموت في أي حال".
لكنّ هذا لا ينطبق على المشروع البحثي، إذ إنه غير مخصص للاستخدام الفردي، نظراً إلى أن هوية مصادره تبقى طي الكتمان.
وطمأنت إلى أن "أي أمثلة على تسرب البيانات الشخصية" لم يسبق أن سجّلَت مع معهد الإحصاء الوطني، و"البيانات ليست بأسماء أفراد"، لكنها نبّهت إلى أن "كل شيء يتسارع" بفعل تطور الذكاء الاصطناعي.
وتعليقاً على محاولة البعض استغلال الفكرة لأغراض تجارية، قالت ترانبرغ "على شبكة الإنترنت، نرى بالفعل ساعات تنبؤ، تُشير إلى العمر الذي سيصل إليه الشخص، وبعضها لا يتمتع بأي صدقية".
المصدر: السومرية العراقية
كلمات دلالية: إلى أن
إقرأ أيضاً:
راغب علامة آخرهم..نجوم وقعوا ضحايا الذكاء الاصطناعي
أثار تسجيل "مفبرك" منسوب إلى اللبناني راغب علامة والفنان الإماراتي عبدالله بالخير، الجدل على منصات التواصل الاجتماعين بسبب ما قيل إنه مساس بحسن نصرالله.
وسارع علامة وبالخير لنفي ما ورد في التسجيل، مؤكدين تزييف صوتهما عبر وسائل تقنية إلا أن النفي وحده لم يكن كافياً مقابل حملة شرسة شنها أنصار حزب الله ضد النجم اللبناني، مع توجيه تهديده إذا سافر إلى بيروت، ولم يقتصر الأمر عند هذا الحد، بل امتد لتحطيم وتكسير وحرق مدرسة لعلامة في لبنان.تُسلط هذه الواقعة الضوء على "تزييف" أصوات وصور الفنانين والمشاهير واستخدامها في الاحتيال أو شحن الرأي العام في اتجاهات سياسية أو دينية.
في هذا السياق، لم يكن علامة وبالخير، أول فريسة هذه الطرق الاحتيالية، فقد تعرض كثيرون لذلك وهو ما يرصده 24.
نشر توم هانكس، عبر إنستغرام، صورة مزيفة مأخوذة من فيديو بواسطة الذكاء الاصطناعي، يُستخدم في إعلان خادع للترويج لعلاج الأسنان، لافتاً إلى تزييف شكله وتوظيفه دون موافقته.
A post shared by Tom Hanks (@tomhanks)
تايلور سويفتوفي يناير (كانون الثاني) الماضي، انتشرت صور إباحية مزيفة للمغنية تايلور سويفت عبر الإنترنت، ومنصات التواصل الاجتماعي على نطاق واسع.
وأثارت الواقعة الجدل، ما دفع مُحبي سويفت، إلى شن هجوم كبير على إكس، لسماحها بانتشار الصور دون التصدي لها، حيث اطلقوا وسماً حمل اسم "#ProtectTaylorSwift"، للدفاع عنها.
بدورها، أصدرت نقابة ممثلي الشاشة، وفق موقع "Cbs news"، بيانا عن القضية، وصفت في صور سويفت بـ "مزعجة ومضرة ومثيرة للقلق العميق".
سكارليت جوهانسونواجهت الممثلة والمغنية الأمريكية سكارليت جوهانسون، تحديات التزييف العميق بعد توظيف وجهها في أفلام مُخالفة.
ورغم العقبات القانونية والاعتداءات، أعربت الممثلة عن صعوبة اتخاذ إجراءات ضد هذه الفيديوهات التي تصنع بالذكاء الاصطناعي.
ضحايا آخرينواجه مشاهير ونجوم آخرين أمثال، الهندية راشميكا ماندانا، والبريطانية كاترينا كايف، وروبرت باتينسون، ومورغان فريمان، وجيمي دونالدسون، وكريستين بيل، نفس المشكلة مع التزييف العميق وتقنيات الذكاء الاصطناعي.
وحسب نتائج دراسة نشرتها "الغارديان" البريطانية في 21 مارس (آذار) الماضي، وقع 250 من المشاهير والنجوم ضحايا للمواد الإباحية المزيفة، حيث أظهر تحليل للقناة الرابعة لأكثر خمسة مواقع ويب مزيفة زيارة، أن هناك ما يقرب من 4000 شخصية مشهورة مدرجة في القائمة، بينهم 255 بريطانيا.