2024-11-06@01:52:54 GMT
إجمالي نتائج البحث: 13
«تقنیة التزییف العمیق»:
أبوظبي: عماد الدين خليلحذر مجلس الأمن السيبراني لحكومة الإمارات، من مخاطر عمليات الاحتيال باستخدام تقنية «التزييف العميق – Deep Fake» المدعومة بالذكاء الاصطناعي والتي تستهدف الأطفال.وأوضح المجلس أن «التزييف العميق» هو أن يقوم الذكاء الاصطناعي بإنشاء مقاطع فيديو شديدة الواقعية يصعب التمييز بينها وبين المحتوى الحقيقي، موضحاً أن تلك التقنية تستهدف الأطفال لأنهم أكثر ثقة بطبيعتهم، وقد يصعب عليهم اكتشاف عمليات الخداع عبر الإنترنت مما يجعلهم أهدافاً سهلة.وأضاف أن المجرمين السيبرانيين يمكنهم من خلال تلك العمليات سرقة المعلومات الشخصية والوصول إلى حسابات العائلة وحتى ارتكاب جرائم الاحتيال أو الابتزاز. وحدد «الأمن السيبراني» 4 علامات يجب الانتباه لها وتعليم الأطفال كيفية التعرف إلى التزييف العميق والفيديوهات المزيفة وهي: « العيون إذا كانت حركة الرموش غير طبيعية أو انعدامها، والصوت إذا كان...
أظهر مسح حديث، اليوم الاثنين، أن إجمالي 799 طالباً من المرحلة الابتدائية إلى المرحلة الثانوية في كوريا الجنوبية، وقعوا ضحية لمقاطع فيديو تستخدم تقنية التزييف العميق هذا العام، إلى جانب 31 مدرساً. ويذكر أن تقنية التزييف العميق من تقنيات الذكاء الاصطناعي وتستخدم في تزييف مقاطع الفيديو بصورة احترافية عالية لدرجة صعوبة التمييز بينها وبين المقاطع الحقيقة. وأعلنت وزارة التعليم الكورية الجنوبية هذه الأرقام في مسحها الأخير، حيث كشفت أن 833 شخصاً وقعوا ضحية لمقاطع فيديو تسخدم تقنية التزييف العميق في الفترة من أول يناير (كانون الثاني) إلى 27 أكتوبر (تشرين الأول)، بينهم ثلاثة موظفين في المدارس، وفقاً لما ذكرته وكالة الأنباء الكورية الجنوبية (يونهاب).وكشف المسح أنه خلال تلك الفترة تم تقديم 504 بلاغات عن أضرار في المدارس، منها 279...
قال مسؤولون في كوريا الجنوبية إن الشرطة ستشن حملة مكثفة على الصور الجنسية المزيفة، حيث أثارت سلسلة من هذه الجرائم التي وقعت مؤخرا المخاوف من أن تقع أي امرأة ضحية لها. وقالت وكالة الشرطة الوطنية إنه خلال الحملة التي ستستمر لمدة 7 أشهر والتي من المقرر أن تبدأ اليوم الأربعاء، ستطارد الشرطة بقوة أولئك الذين ينتجون وينشرون مثل هذه الصور، خاصة تلك التي تخص الأطفال والمراهقين. ووفقا لوكالة الشرطة، تم الإبلاغ عن 297 حالة من جرائم الاستغلال الجنسي باستخدام تقنية التزييف العميق في جميع أنحاء البلاد في الفترة من يناير إلى يوليو. ومن بين 178 شخصا متهما، كان 73.6% منهم، أو 113 شخصا، من المراهقين. كما دعت الأحزاب السياسية والجماعات الحقوقية إلى تشديد العقوبات وإجراء التحقيقات النشطة. وقالت “سون سول”،...
6 أغسطس، 2024 بغداد/المسلة: قال صانعو محتوى، ومراقبون للتواصل الاجتماعي والاعلامي أن استخدام تقنية التزييف العميق (Deepfake) في العراق، مرصودة، كما هو الحال في العديد من البلدان حول العالم، ومن المرجح انها سوف تستخدم في العراق على نطاق واسع بسبب غياب التشريعات وفوضى النشر. و حالات التزييف العميق من الصعب تتبعها وتحديدها بوضوح نظرًا لطبيعة التزييف العميق الذي يمكن أن يكون مقنعًا جدًا ويصعب اكتشافه. وتفيد تقارير وأمثلة عالمية عديدة باستخدام تقنية التزييف العميق لأغراض متنوعة مثل التضليل الإعلامي، الهجمات السياسية، والابتزاز، مما يثير القلق بشأن انتشار استخدامها في العراق أيضًا، خاصةً في ظل التوترات السياسية والاجتماعية. من المرجح أن تصبح تقنية التزييف العميق مشكلة أكبر في العراق في المستقبل، خاصةً إذا لم يتم اتخاذ إجراءات لمكافحتها. وهناك...
أصدر مركز المعلومات ودعم اتخاذ القرار بمجلس الوزراء، تحليلاً جديدا تناول من خلاله تقنية التزييف العميق، وذلك بدءًا من زيادة اعتماد المستخدمين على تقنيات الذكاء الاصطناعي، ثم الانتقال إلى مفهوم التزييف العميق، وآليات عمل هذه التقنية، واستخدامات التزييف العميق، والمخاطر الناجمة عنها، وطرق الكشف عنها. استخدام مجالات التكنولوجيا المختلفة وأوضح التحليل أن استخدام مجالات التكنولوجيا المختلفة -مثل الحوسبة السحابية والذكاء الاصطناعي والأمن السيبراني أصبح أمرًا مهمًّا في كل مناحي الحياة، بما في ذلك الاتصالات، والصناعة، والتجارة، والتعليم، والطب، والترفيه، وغيرها. وعلى الرغم من أهمية استخدام التكنولوجيا والفوائد المترتبة عليها، فإنها يقابلها العديد من التحديات التي تتعلق بحفظ الخصوصية، والبيانات المزيفة، ومن بين هذه التحديات استخدام تقنيات التزييف العميق؛ حيث فرضت هذه التقنيات تحديات جديدة تتعلق بالأمان والخصوصية والمصداقية. زيادة اعتماد...
نشرت صحيفة لوموند الفرنسية تقريرًا سلطت فيه الضوء على الاستخدام المتزايد لتقنية التزييف العميق، أو "الديب فيك" في مجال الاحتيال المالي في الهند، حيث يتم إنشاء مقاطع فيديو مزيفة لشخصيات معروفة، من أجل الاحتيال على الضحايا وسلبهم أموالهم. وتقول الصحيفة، في تقريرها الذي ترجمته "عربي21"، إن طرق النصب والاحتيال في الهند شهدت طفرة في الكم والكيف بالاعتماد على الذكاء الاصطناعي. وكانت بورصة بومباي قد أعلنت في نهاية نيسان/ أبريل أنها سترفع دعوى قضائية، بعد أن انتشر على شبكات التواصل الاجتماعي مقطع فيديو مزيف يظهر فيه مدير هذه البورصة، سوندارارامان رامامورتي، بصدد إعطاء نصائح للمستثمرين. وذكرت الصحيفة أن هذه الأساليب المضللة كانت مستخدمة منذ سنوات في مجال السياسة، ولكن دخولها إلى قطاع المال والبورصة يعتبر جديدا، في هذا البلد...
نشرت شبكة "بي بي سي" البريطانية تحقيقا استقصائيا يرصد أوقات عصيبة عاشتها فتاة عقب استهدافها بتقنية "التزييف العميق" أو ما يعرف بـ"الديب فيك" باللغة الإنجليزية، ونشر صور مزيفة تحمل وجهها على مواقع للأفلام الإباحية. ولفت التحقيق إلى وجود عشرات الآلاف من مقاطع الفيديو المزيفة باستخدام "التزييف العميق" على الإنترنت، توصلت الأبحاث الحديثة أن 98 في المئة منها مواد إباحية. وتشير أبحاث سابقة إلى أن عدد مقاطع الفيديو من هذا النوع يتضاعف على الإنترنت بسرعة، حيث أصبح إنتاج مثل هذه المقاطع عبر التقنية المثيرة للقلق عملا مربحا. وعلى الرغم من تركيز حالة القلق على استخدام هذه التقنية من أجل أغراض سياسية، إلا أن الأدلة والأبحاث تثبت أن "التزييف العميق" يُستخدم في معظم الأحيان بهدف إنتاج المواد الإباحية. ...
تعد مقاطع الفيديو والصور التي ينتجها الذكاء الاصطناعي والمستخدمة في التضليل السياسي هي آفة عام الانتخابات العالمية المزدحم، وتسعى البرازيل جاهدة لتنظيم التكنولوجيا قبل الانتخابات البلدية. وفي بلد يبلغ عدد سكانه 203 ملايين نسمة، حظرت السلطات البرازيلية الأسبوع الماضي استخدام تقنية التزييف العميق ووضعت إرشادات لاستخدام الذكاء الاصطناعي للأغراض الانتخابية. وقالت الأستاذة الجامعية في مجال الكمبيوتر، آنا كارولينا دا هورا لوكالة فرانس برس “يمكن استخدام مونتاج الفيديو للتلاعب بالرأي العام أو تشويه سمعة الأفراد أو التدخل في العملية الديمقراطية”. وأدى التطور السريع للذكاء الاصطناعي، والذي عززه إطلاق ChatGPT عام 2022، إلى هز المشهد عبر الإنترنت وأثار الرهبة والخوف بشأن مستقبل التكنولوجيا. وفي بلد تضرر بشدة من التضليل السياسي، تشعر السلطات بالقلق بشكل خاص من حالات مثل حالة عمدة المدينة الذي تم استنساخ صوته لإنشاء...
وقع الإعلامي البريطاني الشهير، بيرس مورجان ضحية لتقنية Deepfake أو ما يُعرف بـ "التزييف العميق"، حيث قام أحد المؤثرين على مواقع التواصل الاجتماعي باستغلاله ضمن أحد مقاطع الفيديو الترويجية. وأدان محامو بيرس مورجان مقاطع الفيديو التي تم فبركتها لاستغلال الإعلامي البريطاني، كما أكد أحد الخبراء أن مقاطع الفيديو التي ظهر فيها مورجان تم التلاعب بها باستخدام تقنية التزييف العميق. وقام موقع "YouTube" يوتيوب بإزالة مقاطع الفيديو من النظام الأساسي، نظرًا لانتهاكها سياسات الموقع التي تحظر المحتوى المُعالج باستخدام تقنية التزييف العميق، أو تقنيات الفبركة الأخرى. صورة من الفيديو المفبرك لـ بيرس مورجانوتثير تقنية التزييف العميق قلقًا واسعًا ومخاوف كبيرة، حيث تعتبر نوعًا جديدًا من الفبركة الإلكترونية، لكن الفارق هو أن المستخدمين لا يستطيعون اكتشاف الفرق بينها وبين الحقيقة. وفي الفترة الأخيرة، تعرض عددًا...
إعداد: وسيم الدالي تابِع 1 دقائق يشهد الذكاء الاصطناعي تطورا ونموا متناهي السرعة ويتسع نطاق استخدامه بشكل لافت، فمنذ ظهور ما يسمى بالذكاء الاصطناعي التوليدي باتت المحتويات التي تنجزها هذه التقنية، تبدو وكأنها من صنع البشر بل أضحت تعوض الإنسان في الكثير من الأحيان، ما يثير المخاوف من مخاطر إساءة استخدام الذكاء الاصطناعي لأغراض خبيثة من قبيل التضليل والاحتيال والخداع والتأثير على الرأي العام. فهل نحن بمأمن من ذكاء اصطناعي مجرد من أي قيود أخلاقية؟ وهل أن الإنسان قادر على إدارة مخاطر الذكاء الاصطناعي والتحكم فيه بشكل كامل؟ هذه الأسئلة وغيرها يطرحها وسيم الدالي على ضيفه الخبير في التحول الرقمي والذكاء الاصطناعي عامر ناصر الدين. مشاركة : لقراءة المزيد حول نفس المواضيع: اقتصاد الذكاء الاصطناعي تقنية التعرف على الوجه...
لا تقدم تايلور سويفت منتجات Le Creuset مجانًا في إعلانات وسائل التواصل الاجتماعي - على الرغم من أن التزييف العميق لصوتها يريدك أن تصدق خلاف ذلك. ظهرت سلسلة من المنشورات مؤخرًا على TikTok وفي مكتبة إعلانات Meta تدعي أنها تعرض Swift وهي تقدم مجموعات أدوات طهي Le Creuset مجانًا، حسبما ذكرت صحيفة نيويورك تايمز. تضمنت الإعلانات مقاطع حيث كانت Swift بالقرب من منتجات Le Creuset واستخدمت نسخة اصطناعية من صوتها. استخدم المحتالون الذكاء الاصطناعي لجعل الصوت المستنسخ يخاطب معجبيها، "Swifties"، ويدلي بملاحظات صغيرة أخرى.قادت هذه المنشورات الأطراف المهتمة إلى نسخ مزيفة من مواقع مثل The Food Network بمقالات وشهادات ملفقة حول Le Creuset. ثم طُلب من المتسوقين فقط تقديم مبلغ 9.96 دولارًا للشحن للحصول على منتجاتهم المجانية. ومن غير المستغرب...
حذر خبراء متخصصون في الأمن السيبراني من خطورة المكالمات الهاتفية التي تتم عبر الذكاء الاصطناعي والتي يتم فيها انتحال شخصيات قريبة من الضحايا المستهدفين، يمكن من خلالها سرقة الحسابات البنكية ومعلومات حساسة للغاية. وبحسب تقرير من صحيفة “ذا صن” البريطانية فإن تقنية Deepfake والمعروفة باسم تقنية التزييف العميق والتي تم إنشاؤها من خلال الذكاء الاصطناعي أتاحت انتحال الأشخاص عبر المكالمات الهاتفية. وفقا للصحيفة فإن التقنية يتم استخدامها في الوقت الحالي من قبل محتالين لانتحال شخصيات قريبة من الشخص المستهدف سرقته أو الحصول على معلوماته عن طريق محاكاة صوتهم. وأوضحت الصحيفة أنه قد يتم انتحال شخصية رئيسك في العمل، أو حد أفراد عائلتك عن طريق محاكاة الصوت، ومن خلال القيام بذلك، يمكنهم جعل الأمر مقنعًا للغاية عندما يطلبون منك تحويل أموال أو تقديم معلومات أخرى...
تكنولوجيا، لماذا يتبنى بعض المشاهير تقنية التزييف العميق للذكاء الاصطناعي؟،أرشيف الأربعاء 19 يوليو 2023 17 40يبدو أن بعض المشاهير ومن .،عبر صحافة الإمارات، حيث يهتم الكثير من الناس بمشاهدة ومتابعه الاخبار، وتصدر خبر لماذا يتبنى بعض المشاهير تقنية التزييف العميق للذكاء الاصطناعي؟، محركات البحث العالمية و نتابع معكم تفاصيل ومعلوماته كما وردت الينا والان إلى التفاصيل. لماذا يتبنى بعض المشاهير تقنية التزييف العميق للذكاء... (أرشيف) الأربعاء 19 يوليو 2023 / 17:40 يبدو أن بعض المشاهير ومن بينهم الممثلة السنغافورية وعارضة الأزياء جيمي يو ليس لديهم مشكلة مع التزييف العميق. وفي الواقع فقد شاركت يو في هذه التقنية. وكانت يو تتحدث إلى بي بي سي في اليوم التالي لإصدار الجزء الجديد من برنامج تشارلي بروكر على نتفليكس. وفي الحلقة...