نسبة التطابق مذهلة.. خوذة تقرأ أفكارك وتحولها لكلمات
تاريخ النشر: 21st, December 2023 GMT
#سواليف
طور علماء أول برنامج #ذكاء_اصطناعي في العالم لقراءة الأفكار، والذي يترجم #الموجات_الدماغية إلى نص قابل للقراءة، بواسطة #خوذة مغطاة بمستشعر تراقب نشاطا كهربائيا محددا في #الدماغ أثناء تفكير مرتديها، وتحولها إلى #كلمات.
وابتكر فريق من جامعة التكنولوجيا في سيدني هذه التقنية الثورية، وقالوا إنها يمكن أن تحدث #ثورة في رعاية #المرضى الذين أصبحوا صامتين بسبب #السكتة_الدماغية أو الشلل، وفق ما نقلته صحيفة “ديلي ميل”.
وتوضح صورة من مقطع فيديو شخصا يفكر في جملة معروضة على الشاشة، ثم تتحول بعد ذلك إلى ما فك تشفيره نموذج الذكاء الاصطناعي، وكانت النتائج متطابقة تماما تقريباً لدرجة مذهلة.
مقالات ذات صلة الذكاء الاصطناعي والتداول الخوارزمي: صديق أم عدو للمتداول البشري؟ 2023/12/20Scientists develop world's first 'mind-reading helmet' that translates brainwaves into words https://t.co/lkMdZfGlFp pic.twitter.com/5JVlGZNXaQ
— Daily Mail Online (@MailOnline) December 12, 2023توجيهات بمجرد التفكير
كما يعتقد الفريق أيضا أن الابتكار سيسمح بالتحكم السلس في الأجهزة، مثل الأطراف الإلكترونية والروبوتات، ما يسمح للبشر بإعطاء التوجيهات بمجرد التفكير فيها.
من جانبه، قال الباحث الرئيسي البروفيسور سي تي لين: “يمثل هذا البحث جهدا رائدا في ترجمة موجات EEG الخام مباشرة إلى اللغة”.
وكانت التكنولوجيا السابقة لترجمة إشارات الدماغ إلى اللغة تتطلب إما إجراء عملية جراحية لزرع أقطاب كهربائية في الدماغ، مثل Neuralink من إيلون ماسك، أو المسح باستخدام جهاز التصوير بالرنين المغناطيسي، وهو مكلف ويصعب استخدامه في الحياة اليومية.
درجة الدقة ستصل إلى 90%
ومع ذلك، تستخدم التكنولوجيا الجديدة خوذة بسيطة فوق الرأس لقراءة ما يفكر فيه الشخص.
ولاختبار التكنولوجيا، أجرى لين وفريقه تجارب مع 29 مشاركا عُرضت عليهم جملة أو عبارة على الشاشة وكان عليهم التفكير في قراءتها. ثم عرض نموذج الذكاء الاصطناعي ما ترجمه من الموجات الدماغية للمشارك.
وأشار الفريق إلى أن درجة دقة الترجمة تبلغ في الوقت الحالي حوالي 40%، لكنه يواصل عمله لتعزيز هذه النسبة لتصل إلى 90%
المصدر: سواليف
كلمات دلالية: سواليف ذكاء اصطناعي الموجات الدماغية خوذة الدماغ كلمات ثورة المرضى السكتة الدماغية
إقرأ أيضاً:
عدسات الذكاء الاصطناعي تجربة تفاعلية جديدة من سناب شات
أبوظبي (الاتحاد) أطلقت سناب شات، صيغة إعلانية جديدة، وهي "عدسات الذكاء الاصطناعي المدفوعة" "Sponsored AI Lenses" تتيح للعلامات التجارية التفاعل مع المستخدمين عبر تقنية الذكاء الاصطناعي التوليدي الخاصة بها.
وبحسب موقع "تك كرانش"، فإن هذه العدسات تتيح للمستخدمين التقاط صور سيلفي ليتم دمجهم في مشاهد مختلفة يتم إنشاؤها آليًا، ما يوفر تجربة إعلانية غير تقليدية وأكثر جذبًا مقارنة بالإعلانات العادية.
الخطوة الجديدة تعزز توجه سناب شات نحو تقديم محتوى تفاعلي أكثر تقدمًا، مما يفتح آفاقًا جديدة للعلامات التجارية في مجال التسويق الرقمي باستخدام تقنيات الذكاء الاصطناعي.
كيف تشتغل؟
يقوم المستخدم بالتقاط صورة سيلفي، ومن ثم تحلل المنصة ملامحه لدمجه في مشاهد مولّدة بالذكاء وذلك بناءً على تعليمات محددة مسبقًا (prompt) ووضعية تصوير معيّنة، ليرى نفسه داخل مشاهد خيالية تم توليدها بواسطة الذكاء الاصطناعي، مما يضيف بُعدًا تفاعليًا أكثر جاذبية.
وتوفر العدسة الواحدة حتى 10 تجارب تفاعلية متنوعة، يتم إنتاجها بناءً على أوامر مهيأة مسبقًا وتحليل دقيق لملامح وجه المستخدم.
أخبار ذات صلةوكشفت سناب أن المستخدمين قضوا وقتًا أطول في التفاعل مع هذه العدسات مقارنة بالعدسات الإعلانية التقليدية.
على مدار العامين الماضيين، قامت سناب شات بتحسين تقنياتها التوليدية لتقديم محتوى عالي الجودة بسرعة وكفاءة. فعدسات الذكاء الاصطناعي الإعلانية تلغي الحاجة لتصميمات ثلاثية الأبعاد أو مؤثرات بصرية، وتستبدلها بقوالب تم إنشاؤها عبر الذكاء الاصطناعي، مما يُقلّل من أوقات الإنتاج بشكل كبير.
من أوائل العلامات التجارية التي استفادت من هذه التقنية كانت Tinder وUber.وهذا الإطلاق يُعد جزءًا من سلسلة من الابتكارات التي تقدمها سناب في مجال الذكاء الاصطناعي، حيث أطلقت الشهر الماضي أول عدسات فيديو بالذكاء الاصطناعي، وفي فبراير، كشفت عن نموذج لتحويل النص إلى صورة مخصص للأجهزة المحمولة، سيتم دمجه قريبًا في ميزات سناب شات. بالإضافة إلى ذلك، قدمت سناب شات "امتدادات الواقع المعزز" التي تتيح للمعلنين دمج العدسات والفلاتر مباشرة في جميع أشكال الإعلانات على المنصة، مثل الإعلانات الديناميكية وإعلانات المجموعة.
تسعى سناب شات من خلال هذه الابتكارات إلى تعزيز تجربة المستخدم وتوفير فرص جديدة للعلامات التجارية للتفاعل مع جمهورها بطرق مبتكرة وممتعة.