2024-06-29@22:00:38 GMT
إجمالي نتائج البحث: 9

«تقنیة التزییف العمیق»:

    أصدر مركز المعلومات ودعم اتخاذ القرار بمجلس الوزراء، تحليلاً جديدا تناول من خلاله تقنية التزييف العميق، وذلك بدءًا من زيادة اعتماد المستخدمين على تقنيات الذكاء الاصطناعي، ثم الانتقال إلى مفهوم التزييف العميق، وآليات عمل هذه التقنية، واستخدامات التزييف العميق، والمخاطر الناجمة عنها، وطرق الكشف عنها. استخدام مجالات التكنولوجيا المختلفة وأوضح التحليل أن استخدام مجالات التكنولوجيا المختلفة -مثل الحوسبة السحابية والذكاء الاصطناعي والأمن السيبراني أصبح أمرًا مهمًّا في كل مناحي الحياة، بما في ذلك الاتصالات، والصناعة، والتجارة، والتعليم، والطب، والترفيه، وغيرها. وعلى الرغم من أهمية استخدام التكنولوجيا والفوائد المترتبة عليها، فإنها يقابلها العديد من التحديات التي تتعلق بحفظ الخصوصية، والبيانات المزيفة، ومن بين هذه التحديات استخدام تقنيات التزييف العميق؛ حيث فرضت هذه التقنيات تحديات جديدة تتعلق بالأمان والخصوصية والمصداقية. زيادة اعتماد...
    نشرت صحيفة لوموند الفرنسية تقريرًا سلطت فيه الضوء على الاستخدام المتزايد لتقنية التزييف العميق، أو "الديب فيك" في مجال الاحتيال المالي في الهند، حيث يتم إنشاء مقاطع فيديو مزيفة لشخصيات معروفة، من أجل الاحتيال على الضحايا وسلبهم أموالهم. وتقول الصحيفة، في تقريرها الذي ترجمته "عربي21"، إن طرق النصب والاحتيال في الهند شهدت طفرة في الكم والكيف بالاعتماد على الذكاء الاصطناعي. وكانت بورصة بومباي قد أعلنت في نهاية نيسان/ أبريل أنها سترفع دعوى قضائية، بعد أن انتشر على شبكات التواصل الاجتماعي مقطع فيديو مزيف يظهر فيه مدير هذه البورصة، سوندارارامان رامامورتي، بصدد إعطاء نصائح للمستثمرين. وذكرت الصحيفة أن هذه الأساليب المضللة كانت مستخدمة منذ سنوات في مجال السياسة، ولكن دخولها إلى قطاع المال والبورصة يعتبر جديدا، في هذا البلد...
    نشرت شبكة "بي بي سي" البريطانية تحقيقا استقصائيا يرصد أوقات عصيبة عاشتها فتاة عقب استهدافها بتقنية "التزييف العميق" أو ما يعرف بـ"الديب فيك" باللغة الإنجليزية، ونشر صور مزيفة تحمل وجهها على مواقع للأفلام الإباحية. ولفت التحقيق إلى وجود عشرات الآلاف من مقاطع الفيديو المزيفة باستخدام "التزييف العميق" على الإنترنت، توصلت الأبحاث الحديثة أن 98 في المئة منها مواد إباحية. وتشير أبحاث سابقة إلى أن عدد مقاطع الفيديو من هذا النوع يتضاعف على الإنترنت بسرعة، حيث أصبح إنتاج مثل هذه المقاطع عبر التقنية المثيرة للقلق  عملا مربحا. وعلى الرغم من تركيز حالة القلق على استخدام هذه التقنية من أجل أغراض سياسية، إلا أن الأدلة والأبحاث تثبت أن "التزييف العميق" يُستخدم في معظم الأحيان بهدف إنتاج المواد الإباحية. ...
    تعد مقاطع الفيديو والصور التي ينتجها الذكاء الاصطناعي والمستخدمة في التضليل السياسي هي آفة عام الانتخابات العالمية المزدحم، وتسعى البرازيل جاهدة لتنظيم التكنولوجيا قبل الانتخابات البلدية. وفي بلد يبلغ عدد سكانه 203 ملايين نسمة، حظرت السلطات البرازيلية الأسبوع الماضي استخدام تقنية التزييف العميق ووضعت إرشادات لاستخدام الذكاء الاصطناعي للأغراض الانتخابية. وقالت الأستاذة الجامعية في مجال الكمبيوتر، آنا كارولينا دا هورا لوكالة فرانس برس “يمكن استخدام مونتاج الفيديو للتلاعب بالرأي العام أو تشويه سمعة الأفراد أو التدخل في العملية الديمقراطية”. وأدى التطور السريع للذكاء الاصطناعي، والذي عززه إطلاق ChatGPT عام 2022، إلى هز المشهد عبر الإنترنت وأثار الرهبة والخوف بشأن مستقبل التكنولوجيا. وفي بلد تضرر بشدة من التضليل السياسي، تشعر السلطات بالقلق بشكل خاص من حالات مثل حالة عمدة المدينة الذي تم استنساخ صوته لإنشاء...
    وقع الإعلامي البريطاني الشهير، بيرس مورجان ضحية لتقنية Deepfake أو ما يُعرف بـ "التزييف العميق"، حيث قام أحد المؤثرين على مواقع التواصل الاجتماعي باستغلاله ضمن أحد مقاطع الفيديو الترويجية.  وأدان محامو بيرس مورجان مقاطع الفيديو التي تم فبركتها لاستغلال الإعلامي البريطاني، كما أكد أحد الخبراء أن مقاطع الفيديو التي ظهر فيها مورجان تم التلاعب بها باستخدام تقنية التزييف العميق.  وقام موقع "YouTube" يوتيوب بإزالة مقاطع الفيديو من النظام الأساسي، نظرًا لانتهاكها سياسات الموقع التي تحظر المحتوى المُعالج باستخدام تقنية التزييف العميق، أو تقنيات الفبركة الأخرى.  صورة من الفيديو المفبرك لـ بيرس مورجانوتثير تقنية التزييف العميق قلقًا واسعًا ومخاوف كبيرة، حيث تعتبر نوعًا جديدًا من الفبركة الإلكترونية، لكن الفارق هو أن المستخدمين لا يستطيعون اكتشاف الفرق بينها وبين الحقيقة.  وفي الفترة الأخيرة، تعرض عددًا...
    إعداد: وسيم الدالي تابِع 1 دقائق يشهد الذكاء الاصطناعي تطورا ونموا متناهي السرعة ويتسع نطاق استخدامه بشكل لافت، فمنذ ظهور ما يسمى بالذكاء الاصطناعي التوليدي باتت المحتويات التي تنجزها هذه التقنية، تبدو وكأنها من صنع البشر بل أضحت تعوض الإنسان في الكثير من الأحيان، ما يثير المخاوف من مخاطر إساءة استخدام الذكاء الاصطناعي لأغراض خبيثة من قبيل التضليل والاحتيال والخداع والتأثير على الرأي العام. فهل نحن بمأمن من ذكاء اصطناعي مجرد من أي قيود أخلاقية؟ وهل أن الإنسان قادر على إدارة مخاطر الذكاء الاصطناعي والتحكم فيه بشكل كامل؟ هذه الأسئلة وغيرها يطرحها وسيم الدالي على ضيفه الخبير في التحول الرقمي والذكاء الاصطناعي عامر ناصر الدين. مشاركة : لقراءة المزيد حول نفس المواضيع: اقتصاد الذكاء الاصطناعي تقنية التعرف على الوجه...
    لا تقدم تايلور سويفت منتجات Le Creuset مجانًا في إعلانات وسائل التواصل الاجتماعي - على الرغم من أن التزييف العميق لصوتها يريدك أن تصدق خلاف ذلك. ظهرت سلسلة من المنشورات مؤخرًا على TikTok وفي مكتبة إعلانات Meta تدعي أنها تعرض Swift وهي تقدم مجموعات أدوات طهي Le Creuset مجانًا، حسبما ذكرت صحيفة نيويورك تايمز. تضمنت الإعلانات مقاطع حيث كانت Swift بالقرب من منتجات Le Creuset واستخدمت نسخة اصطناعية من صوتها. استخدم المحتالون الذكاء الاصطناعي لجعل الصوت المستنسخ يخاطب معجبيها، "Swifties"، ويدلي بملاحظات صغيرة أخرى.قادت هذه المنشورات الأطراف المهتمة إلى نسخ مزيفة من مواقع مثل The Food Network بمقالات وشهادات ملفقة حول Le Creuset. ثم طُلب من المتسوقين فقط تقديم مبلغ 9.96 دولارًا للشحن للحصول على منتجاتهم المجانية. ومن غير المستغرب...
    حذر خبراء متخصصون في الأمن السيبراني من خطورة المكالمات الهاتفية التي تتم عبر الذكاء الاصطناعي والتي يتم فيها انتحال شخصيات قريبة من الضحايا المستهدفين، يمكن من خلالها سرقة الحسابات البنكية ومعلومات حساسة للغاية.  وبحسب تقرير من صحيفة “ذا صن” البريطانية فإن تقنية Deepfake والمعروفة باسم تقنية التزييف العميق والتي تم إنشاؤها من خلال الذكاء الاصطناعي أتاحت انتحال الأشخاص عبر المكالمات الهاتفية.   وفقا للصحيفة فإن التقنية يتم استخدامها في الوقت الحالي من قبل محتالين لانتحال شخصيات قريبة من الشخص المستهدف سرقته أو الحصول على معلوماته عن طريق محاكاة صوتهم.  وأوضحت الصحيفة أنه قد يتم انتحال شخصية رئيسك في العمل، أو حد أفراد عائلتك عن طريق محاكاة الصوت، ومن خلال القيام بذلك، يمكنهم جعل الأمر مقنعًا للغاية عندما يطلبون منك تحويل أموال أو تقديم معلومات أخرى...
    تكنولوجيا، لماذا يتبنى بعض المشاهير تقنية التزييف العميق للذكاء الاصطناعي؟،أرشيف الأربعاء 19 يوليو 2023 17 40يبدو أن بعض المشاهير ومن .،عبر صحافة الإمارات، حيث يهتم الكثير من الناس بمشاهدة ومتابعه الاخبار، وتصدر خبر لماذا يتبنى بعض المشاهير تقنية التزييف العميق للذكاء الاصطناعي؟، محركات البحث العالمية و نتابع معكم تفاصيل ومعلوماته كما وردت الينا والان إلى التفاصيل. لماذا يتبنى بعض المشاهير تقنية التزييف العميق للذكاء... (أرشيف) الأربعاء 19 يوليو 2023 / 17:40 يبدو أن بعض المشاهير ومن بينهم الممثلة السنغافورية وعارضة الأزياء جيمي يو ليس لديهم مشكلة مع التزييف العميق. وفي الواقع فقد شاركت يو في هذه التقنية. وكانت يو تتحدث إلى بي بي سي في اليوم التالي لإصدار الجزء الجديد من برنامج تشارلي بروكر على نتفليكس. وفي الحلقة...
۱