مُنحت جائزة نوبل في الفسيولوجيا أو الطب لزوجين من العلماء الذين طوروا التكنولوجيا التي أدت إلى لقاحات mRNA Covid.

وستتقاسم الجائزة الدكتورة كاتالين كاريكو والدكتور درو وايزمان.

وكانت هذه التكنولوجيا تجريبية قبل تفشي الوباء، لكن تم تقديمها الآن لملايين الأشخاص حول العالم.

ويجري الآن البحث عن نفس تقنية mRNA لعلاج أمراض أخرى، بما في ذلك السرطان.

وتعمل اللقاحات على تدريب الجهاز المناعي على التعرف على التهديدات مثل الفيروسات أو البكتيريا ومكافحتها.

وتعتمد تكنولوجيا اللقاحات التقليدية على نسخ ميتة أو ضعيفة من الفيروس أو البكتيريا الأصلية. أو باستخدام أجزاء من العامل المعدي.

في المقابل، استخدمت لقاحات mRNA نهجًا مختلفًا تمامًا.

وخلال جائحة كوفيد، كان لقاحا Moderna وPfizer/BioNTech يعتمدان على تقنية mRNA.

المصدر: النهار أونلاين

إقرأ أيضاً:

مفاجأة صادمة بشأن استخدام تقنية صور استوديو غيبلي.. ما القصة؟

أثار نشطاء الدفاع عن الخصوصية الرقمية قلقًا حيال مولّد الصور بأسلوب "استوديو غيبلي" الذي تم تطويره بواسطة شركة "OpenAI". 

ويدّعي النشطاء أن هذه التكنولوجيا تمثل وسيلة للوصول إلى آلاف الصور الشخصية، مما يتيح تدريب الذكاء الاصطناعي عليها.. فما القصة؟

تسليم البيانات بدون وعي

منذ إطلاق فلتر "استوديو غيبلي" ضمن "شات جي بي تي" الأسبوع الماضي، حظي بشعبية كبيرة بسرعة بين المستخدمين في جميع أنحاء العالم. ولكن، يُحذر النقاد من أن المستخدمين يقدمون بيانات وجوههم، بطريقة غير مقصودة، لـ "OpenAI"، مما قد يعرض خصوصيتهم للخطر.

يشير النشطاء إلى أن استراتيجية "OpenAI" لجمع البيانات تتجاوز مجرد قضايا حقوق الطبع والنشر المتعلقة بالذكاء الاصطناعي. فهي تسمح للشركة بجمع صور تم تقديمها طواعية، متجاوزة القيود القانونية التي تحكم البيانات المستخرجة من الإنترنت. 

وفقًا للائحة العامة لحماية البيانات (GDPR) في الاتحاد الأوروبي، يتعين على "OpenAI" تبرير جمع الصور بناءً على "المصلحة المشروعة"، مما يتطلب اتخاذ تدابير حماية إضافية.

حرية معالجة البيانات

عندما يقوم المستخدمون بتحميل الصور بأنفسهم، فإنهم يوافقون على جمع هذه الصور من قبل الشركة، وهو ما يمنح "OpenAI" حرية أكبر في معالجتها. 

هذا يعني أن الشركة ستتمكن من الوصول إلى صور جديدة وفريدة، بما في ذلك الصور الشخصية والعائلية التي قد لا تكون متاحة للجمهور من قبل.

على عكس شركات وسائل التواصل الاجتماعي، التي قد ترى فقط النسخ المُعدّلة بالفلتر، تحتفظ "OpenAI" بالصور الأصلية التي يتم تحميلها. 

وبالتالي، فإن هناك مخاطر كبيرة تتعلق بفقدان السيطرة على كيفية استخدام هذه الصور. في حين تنص سياسة الخصوصية الخاصة بـ "OpenAI" على إمكانية استخدام مدخلات المستخدمين لتدريب النماذج، فإن الآثار طويلة المدى لا تزال غير واضحة.

مخاطر تحميل الصور

يُشير النقاد إلى عدد من المخاطر المرتبطة بتحميل الصور لتحويلها باستخدام "شات جي بي تي". من بين هذه المخاطر:

اختراق البيانات: حيث قد تُسرّب الصور الشخصية نتيجة لحدوث اختراق أمني.

إساءة استخدام الذكاء الاصطناعي: إذ يمكن أن تُستخدم الوجوه المحملة لإنشاء محتوى مضلل أو تشهيري.

إعادة استخدام الصور: إمكانية استخدام صور المستخدمين للإعلانات المخصصة أو بيعها لأطراف ثالثة.

وبحسب الخبراء فإن الفرق الرئيسي بين فلتر "استوديو غيبلي" وبين الفلاتر الأخرى المتاحة على الإنترنت هو قدرة "OpenAI" على تخزين هذه الصور وتدريب الأنظمة عليها بدلاً من مجرد تعديلها للاستخدام المؤقت. 

ومع عدم معالجة "OpenAI" لهذه المخاوف بشكل مباشر، يحث ناشطو الخصوصية المستخدمين على توخي الحذر. حيث يعتبرون أن الحماس حول الصور المولدة عبر الذكاء الاصطناعي قد يدفع الناس إلى التخلي عن خصوصيتهم من أجل الترفيه، وغالبًا ما يكون ذلك دون فهم كامل للتداعيات المحتملة.

مقالات مشابهة

  • درعا.. تشييع الشهداء الذين ارتقوا جراء قصف الاحتلال الإسرائيلي حرش سد الجبيلية
  • التوترات التجارية عبر الأطلسي: دعوات أوروبية لإعادة النظر في شراكات التكنولوجيا مع أمريكا
  • زيتوني يشكر التجار الذين التزموا ببرنامج المداومة خلال أيام العيد
  • «البريميرليج» يستخدم تقنية «التسلل شبه الآلي»
  • تطبيق تقنية التسلل شبه الآلي في الدوري الإنجليزي
  • الدوري الإنجليزي يعتمد تقنية التسلل شبه الآلية.. والتطبيق هذا الموسم
  • العيد بين الماضي والحاضر.. طرق الاحتفال وتأثير التكنولوجيا عليها
  • بين تسارع التكنولوجيا وتحديات الاختيار.. ما الآيفون المثالي لعام 2025؟
  • عملاق التكنولوجيا في العالم.. يكشف عن ثلاث وظائف فقط ستنجو من سيطرة الذكاء الاصطناعي
  • مفاجأة صادمة بشأن استخدام تقنية صور استوديو غيبلي.. ما القصة؟