2024-12-22@03:21:47 GMT
إجمالي نتائج البحث: 98
«التزییف العمیق»:
أبوظبي (الاتحاد) أخبار ذات صلة شبكة أبوظبي للإعلام تشارك في «الكونغرس العالمي للإعلام 3» «الإمارات للإعلام» يوقع ثلاث مذكرات تفاهم أطلق مركز تريندز للبحوث والاستشارات، أمس، جناحه في الدورة الثالثة من الكونغرس العالمي للإعلام 2024، في مركز أبوظبي الوطني للمعارض والتي تستمر ثلاثة أيام، حيث يشارك بمجموعة من الفعاليات والأنشطة الإعلامية والبحثية المعززة بالذكاء الاصطناعي.وعقدت الحلقة النقاشية تحت عنوان «نحو إعلام فاعل ومسؤول في عصر الذكاء الاصطناعي»، وذلك في جناح مركز «تريندز» بمركز أبوظبي الوطني للمعارض «أدنيك»، وشارك فيها كل من الدكتور محمد عبدالله العلي، الرئيس التنفيذي لمركز «تريندز»، والدكتور محمد حمد الكويتي، رئيس مجلس الأمن السيبراني، والدكتور حمد الكعبي، الرئيس التنفيذي لمركز الاتحاد للأخبار، والدكتور عبدالرحمن الشميري، رئيس تحرير صحيفة الوطن، والإعلامي الكويتي الأستاذ محمد الملا، مؤسس...
أبوظبي – الوطن: بصفته شريكاً معرفياً رسمياً.. أطلق مركز تريندز للبحوث والاستشارات أمس جناحه في الدورة الثالثة من الكونغرس العالمي للإعلام 2024، في مركز أبوظبي الوطني للمعارض والتي تستمر ثلاثة أيام، حيث يشارك بمجموعة من الفعاليات والأنشطة الإعلامية والبحثية المعززة بالذكاء الاصطناعي. ومنذ اللحظات الأولى لافتتاح الجناح زاره عدد من المسؤولين والباحثين والإعلاميين الذين ثمنوا دوره وحضوره الدائم محلياً وعربياً وعالمياً. في لفتة تكريمية، قلد الدكتور محمد عبدالله العلي عدداً من الإعلاميين بميدالية تريندز الإعلامية؛ تقديراً لجهودهم الإعلامية ودعمهم لجهود “تريندز” ونتاجه المعرفي الشامل. وفي أولى فعاليات جناح مركز “تريندز” المشارك في أعمال الدورة الثالثة للكونجرس العالمي للإعلام، أكدت حلقة نقاشية على ضرورة تطوير مهارات الإعلاميين لتمكينهم من التعامل مع التقنيات الحديثة، وتفعيل دور الرقابة الذاتية لضمان جودة...
أكدت جلسة "نحو إعلام فاعل ومسؤول في عصر الذكاء الاصطناعي" نظمها مركز تريندز للبحوث والاستشارات خلال فعاليات الكونغرس العالمي للإعلام 2024 بصفته شريكاً معرفياً رسمياً.. ضرورة تطوير مهارات الإعلاميين لتمكينهم من التعامل مع التقنيات الحديثة، وتفعيل دور الرقابة الذاتية لضمان جودة المحتوى، وتعزيز الشراكة بين المؤسسات الإعلامية والأكاديمية لتطوير المناهج الدراسية بما يتناسب مع متطلبات العصر الرقمي. شارك في الجلسة الدكتور محمد عبدالله العلي، الرئيس التنفيذي لمركز تريندز، والدكتور محمد حمد الكويتي، رئيس مجلس الأمن السيبراني، والدكتور حمد الكعبي، الرئيس التنفيذي لمركز الاتحاد للأخبار، والدكتور عبدالرحمن الشميري، رئيس تحرير صحيفة الوطن، والإعلامي الكويتي محمد الملا، مؤسس ورئيس شبكة ديوان الملا، وأدارتها الباحثة روضة المرزوقي، مدیرة إدارة المعارض والتوزيع بـ"تريندز". وشدد المتحدثون في الحلقة النقاشية على أهمية وضع إطار تنظيمي واضح...
بصفته شريكاً معرفياً رسمياً.. أطلق مركز تريندز للبحوث والاستشارات اليوم جناحه في الدورة الثالثة من الكونغرس العالمي للإعلام 2024، في مركز أبوظبي الوطني للمعارض والتي تستمر ثلاثة أيام، حيث يشارك بمجموعة من الفعاليات والأنشطة الإعلامية والبحثية المعززة بالذكاء الاصطناعي. ومنذ اللحظات الأولى لافتتاح الجناح زاره عدد من المسؤولين والباحثين والإعلاميين الذين ثمنوا دوره وحضوره الدائم محلياً وعربياً وعالمياً. في لفتة تكريمية، قلد الدكتور محمد عبدالله العلي عدداً من الإعلاميين بميدالية تريندز الإعلامية؛ تقديراً لجهودهم الإعلامية ودعمهم لجهود “تريندز” ونتاجه المعرفي الشامل. الإعلام في عصر الذكاء الاصطناعي وفي أولى فعاليات جناح مركز “تريندز” المشارك في أعمال الدورة الثالثة للكونجرس العالمي للإعلام، أكدت حلقة نقاشية على ضرورة تطوير مهارات الإعلاميين لتمكينهم من التعامل مع التقنيات الحديثة، وتفعيل دور الرقابة الذاتية...
تقاضي منصة "إكس" للتواصل الاجتماعي المملوكة لرجل الأعمال إيلون ماسك، ولاية كاليفورنيا في محاولة لمنع صدور قانون جديد يطلب من المنصات الإلكترونية الكبرى محو المحتوى الانتخابي المخادع أو وضع تصنيف عليه. googletag.cmd.push(function() { googletag.display('div-gpt-ad-1600588014572-0'); }); وتركز الدعوى، التي جرى تقديمها في المحكمة الاتحادية مؤخرا، على قانون يهدف لمكافحة الفيديوهات والصور والتسجيلات الصوتية المؤذية التي تم تعديلها أو إنشاؤها بالذكاء الاصطناعي.أخبار متعلقة "هجوم روسي كبير".. إغلاق السفارة الأمريكية في أوكرانياسقطت عليها شجرة كبيرة.. "إعصار القنبلة" يقتل امرأة في أمريكاوتعرف هذه التقنية بالتزييف العميق، حيث يتم استخدامها لجعل شخص يبدو كأنه قال أو نفذ أمرا ما لم ينفذه.حان وقت الحصاد.. إيلون ماسك في حكومة #ترامب#اليومhttps://t.co/lVg10nFmF9 pic.twitter.com/jgLHLHA1TD— صحيفة اليوم (@alyaum) November 13, 2024الانتخابات الرئاسية الأمريكيةومن المقرر أن يدخل القانون حيز التنفيذ ابتداء من الأول...
10 نوفمبر، 2024 بغداد/المسلة: انشغلت الأوساط الحكومية والشعبية خلال اليومين الأخيرين بـ تسريب لكبير المستشارين في رئاسة الوزراء، وهو يرفض القبول بمبلغ مليون دولار لتمشية مشروع استثماري لإحدى الشركات، ويطالب بمبلغ أكبر. ورفضت حكومة السوداني رفضاً قاطعاً التسريبات المنسوبة لمستشارها، في بيان لا يخلو من لهجة شديدة . وقبل ذلك، انتشرت تسريبات صوتية نسبت إلى المدير العام لهيئة الضرائب، علي علاوي، وهو يتحدث عن قيامه بـ التلاعب في النسب الضريبية لصالح إحدى الشركات في مقابل الحصول على الرشوة، ما دفع رئيس الوزراء إلى سحب يده من المنصب، وأشعلت التسريبات الصوتية المزيفة موجة من الجدل في الساحة السياسية العراقية، خاصة مع الاستخدام المتزايد لتقنيات الذكاء الاصطناعي في تزوير المقاطع الصوتية ونشرها بغرض تحقيق مكاسب سياسية. وفي بلد مثل العراق يعج...
د. أحمد جمعة صديق جامعة الزعيم الازهري حوار اليوم: • تقنيات الذكاء الاصطناعي والتزييف العميق للمعلومات(Deepfake) • كيف يمكن حماية الأفراد من استخدام تقنية التزييف العميق؟ • التقنيات المستخدمة في الكشف عن الفيديوهات المزيفة،الصور المزيفة والاصوات المزيفة. • ما هي الدول التي لديها قوانين صارمة حول التزييف العميق؟ • هل هناك منصات أو أدوات محددة موصى بها للكشف عن الفيديوهات المزيفة؟ ******************************************************* تقنيات الذكاء الاصطناعي والتزييف العميق للمعلومات تقنيات الذكاء الاصطناعي والتزييف العميق (Deepfake) تُستخدم في مجالات متعددة، وقد أثارت الكثير من النقاشات حول الأخلاقيات والتأثيرات المحتملة. إليك كيفية استخدامها: 1. التزييف العميق في الصور والفيديو إنشاء محتوى مزيف: يمكن استخدام تقنيات التعلم العميق لإنشاء صور أو مقاطع فيديو تبدو حقيقية، حيث يتم استبدال وجوه الأشخاص أو تعديل تعبيراتهم. التلاعب...
في ظل الانتشار المتزايد للتزييف العميق، الذي يمكّن من إنتاج صور وفيديوهات واقعية لأشخاص باستخدام الذكاء الاصطناعي، طرحت شركة أونور تقنية لحماية المستخدمين من هذا النوع من الاحتيال. تعتبر تقنية "HONOR AI Deepfake Detection" للكشف عن التزييف العميق حلاً مدمجاً ضمن أجهزتها، يعتمد على الذكاء الاصطناعي لتحليل الخصائص المكانية للصور والفيديوهات واكتشاف الشذوذات الصغيرة التي تشير إلى التلاعب. تعتمد هذه التقنية على قواعد بيانات ضخمة من المحتوى المزيف، وتستطيع اكتشاف التزييف عبر ملاحظة التشوهات في تفاصيل الصورة ومستوى البكسل، مما يمكّن من تحذير المستخدمين من محاولات الاحتيال المحتملة.وهذا النظام الذي بات متاحاً الآن ضمن أجهزة أونور الحديثة، هو نتيجة التقدم المستمر في نظام تشغيل MagicOS، المعزز بتشفير يسهم في تأمين الخصوصية على مستوى الأجهزة. وتستخدم تقنية الذكاء...
أبوظبي: عماد الدين خليلحذر مجلس الأمن السيبراني لحكومة الإمارات، من مخاطر عمليات الاحتيال باستخدام تقنية «التزييف العميق – Deep Fake» المدعومة بالذكاء الاصطناعي والتي تستهدف الأطفال.وأوضح المجلس أن «التزييف العميق» هو أن يقوم الذكاء الاصطناعي بإنشاء مقاطع فيديو شديدة الواقعية يصعب التمييز بينها وبين المحتوى الحقيقي، موضحاً أن تلك التقنية تستهدف الأطفال لأنهم أكثر ثقة بطبيعتهم، وقد يصعب عليهم اكتشاف عمليات الخداع عبر الإنترنت مما يجعلهم أهدافاً سهلة.وأضاف أن المجرمين السيبرانيين يمكنهم من خلال تلك العمليات سرقة المعلومات الشخصية والوصول إلى حسابات العائلة وحتى ارتكاب جرائم الاحتيال أو الابتزاز. وحدد «الأمن السيبراني» 4 علامات يجب الانتباه لها وتعليم الأطفال كيفية التعرف إلى التزييف العميق والفيديوهات المزيفة وهي: « العيون إذا كانت حركة الرموش غير طبيعية أو انعدامها، والصوت إذا كان...
أطلق الشريك المؤسس لشركة الذكاء الاصطناعي الرائدة “أوبن إيه.آي”، سام ألتمان، مشروعا باسم “ورلد-العالم” يهدف لاستخدام المسح الضوئي لقزحية عين، الأشخاص للمساعدة في التمييز بين الصور والفيديوهات الحقيقية لهم وتلك التي تم تزييفها باستخدام تقنيات الذكاء الاصطناعي المتطورة المعروفة باسم “التزييف العميق”. وقال ألتمان: “يمكن استخدام المسح الضوئي للقزحية لإنشاء ملف “بطاقة هوية عالمية”، وهو ما يمكن عمله فقط باستخدام الماسح الضوئي “أورب” الذي يتم تطويره في إطار “وورلد”. وأضاف: “يهدف المشروع بشكل أساسي لمعالجة المشكلات الناجمة عن الإمكانيات الكبيرة التي يوفرها الذكاء الاصطناعي، مثل إنشاء نسخ مزيفة من الفيديوهات والصور للأفراد باستخدام التزييف العميق”، مضيفا: “يبقى أحد المخاوف الرئيسية حاليا هي أن يستطيع المحتالون استخدام التزييف العميق في عمليات احتيالية، مثل اختلاق شخصية رئيس شركة يطلب من موظفيه تحويل...
أطلق سام ألتمان الشريك المؤسسة لشركة الذكاء الاصطناعي الرائدة أوبن إيه آي مشروعا باسم "وورلد" (العالم) يهدف لاستخدام المسح الضوئي لقزحية عين الأشخاص للمساعدة في التمييز بين صورهم الحقيقية والصور التي زُيّفت لهم باستخدام تقنيات الذكاء الاصطناعي المتطورة المعروفة باسم التزييف العميق، بحسب ما أوردته وكالة الأنباء الألمانية. جاء مشروع شركة "وورلد" بعد أن فتحت منصة محادثة الذكاء الاصطناعي شات جي.بي.تي التي تطورها الشركة إمكانية إنشاء صور أو لقطات مزيفة لأي شخص تطابق الحقيقة باستخدام الذكاء الاصطناعي. ويقول ألتمان إنه يمكن استخدام المسح الضوئي للقزحية لإنشاء ملف "بطاقة هوية عالمية"، وهو ما يمكن فعله فقط باستخدام الماسح الضوئي "أورب" الذي طورته "وورلد". ويستهدف المشروع بدرجة كبيرة معالجة المشكلات الناجمة عن الإمكانات الكبيرة التي يوفرها الذكاء الاصطناعي لتقديم نسخ مزيفة من...
27 أكتوبر، 2024 بغداد/المسلة: أطلق سام ألتمان الشريك المؤسسة لشركة الذكاء الاصطناعي الرائدة أوبن أيه.آي مشروعا باسم “وورلد” (العالم) يهدف لاستخدام المسح الضوئي لقزحية عين الأشخاص للمساعدة في التمييز بين الصور الحقيقية لهم والصور التي تم تزييفها لهم باستخدام تقنيات الذكاء الاصطناعي المتطورة المعروفة باسم التزييف العميق. وجاء مشروع شركة “وورلد” بعد أن فتحت منصة محادثة الذكاء الاصطناعي شات جي.بي.تي التي تطورها شركته إمكانية إنشاء صور أو لقطات مزيفة لأي شخص تطابق الحقيقة باستخدام الذكاء الاصطناعي. ويقول ألتمان إنه يمكن استخدام المسح الضوئي للقزحية لإنشاء ملف “بطاقة هوية عالمية”، وهو ما يمكن عمله فقط باستخدام الماسح الضوئي “أورب” الذي طورته “وورلد”. ويستهدف المشروع بدرجة كبيرة معالجة المشكلات الناجمة عن الإمكانيات الكبيرة التي يوفرها الذكاء الاصطناعي لتقديم نسخا مزيفة...
في سعيهم وراء الابتكار التكنولوجي، دفع مؤيدو الذكاء الاصطناعي التوليدي بأدوات التزييف العميق الاصطناعية غير القانونية إلى أيادي الناس العاديين. وقد انتشرت مؤخرا إعلانات مُخلة على الأشرطة الجانبية للمواقع الإلكترونية الشهيرة وبين منشورات فيسبوك، وظهرت صور غير أخلاقية مزيفة لشخصيات عامة كمواد رائجة بين الجماهير. وتسربت المشكلة عبر الفضاء الإلكتروني إلى الحياة الواقعية للمستخدمين، بما في ذلك الشباب. وهنا يُعتبر المسؤولون عن إنشاء ونشر الذكاء الاصطناعي متورطين في كل ذلك. وفي المقابل، يهاجم قادة الحكومة المشكلة من خلال الجهود التشريعية، وتعمل قطاعات التكنولوجيا والمجتمع على تحقيق التوازن بين مسؤوليتها تجاه المستخدمين والحاجة إلى الابتكار. ولكن التزييف العميق مفهوم تصعب محاربته بسلاح السياسة المؤسسية. مشكلة مقلقة ليس لها حل تعد مشكلة التزييف العميق معضلة حقيقية، وذلك بسبب صعوبة كشف التزييف العميق...
أظهر مسح حديث، اليوم الاثنين، أن إجمالي 799 طالباً من المرحلة الابتدائية إلى المرحلة الثانوية في كوريا الجنوبية، وقعوا ضحية لمقاطع فيديو تستخدم تقنية التزييف العميق هذا العام، إلى جانب 31 مدرساً. ويذكر أن تقنية التزييف العميق من تقنيات الذكاء الاصطناعي وتستخدم في تزييف مقاطع الفيديو بصورة احترافية عالية لدرجة صعوبة التمييز بينها وبين المقاطع الحقيقة. وأعلنت وزارة التعليم الكورية الجنوبية هذه الأرقام في مسحها الأخير، حيث كشفت أن 833 شخصاً وقعوا ضحية لمقاطع فيديو تسخدم تقنية التزييف العميق في الفترة من أول يناير (كانون الثاني) إلى 27 أكتوبر (تشرين الأول)، بينهم ثلاثة موظفين في المدارس، وفقاً لما ذكرته وكالة الأنباء الكورية الجنوبية (يونهاب).وكشف المسح أنه خلال تلك الفترة تم تقديم 504 بلاغات عن أضرار في المدارس، منها 279...
تنتشر، عبر منصات التواصل الاجتماعي، إعلانات مضللة تستخدم صور أطباء معروفين ويحظون بالاحترام تم إنشاؤها بواسطة الذكاء الاصطناعي، تروّج لعلاجات "معجزة" لمرض السكري أو ارتفاع ضغط الدم، وهي ظاهرة يرى خبراء أن من الصعب لجمها.عبر منصتي فيسبوك وانستغرام، يَعدُ هؤلاء الأطباء "المزيّفون" بعلاج لمرض السكري من دون تناول ادواء الذي عادة ما يوصف لهذه الحالات، حتى أنهم يشجعون المرضى على التخلي عن دوائهم الذي "سيقتلهم"، على قولهم، واعتماد شراب "طبيعي" غامض بدلا منه.تعرّض عمليات الاحتيال هذه حياة مرضى كثر للخطر، وتزداد خطورتها لأنها تستند إلى صور أطباء مشهورين، مثل الدكتور ميشال سيم في فرنسا أو الدكتور مايكل موسلي في المملكة المتحدة، وهما من ضحايا ظاهرة "التزييف العميق" هذه عبر الإنترنت.في حديث صحفي، يقول الطبيب العام البريطاني جون كورماك بشأن هذا...
طرحت الهيئة السعودية للبيانات والذكاء الاصطناعي، وثيقة مبادئ التزييف العميق، عبر منصة ”استطلاع“ بهدف وضع أدلة استرشادية واضحة للمطورين وصناع المحتوى والمستخدمين لتفادي أو معالجة الآثار المترتبة من استخدام تقنيات التزييف العميق والتخفيف من مخاطرها. كما تتضمن توصيات ومبادئ أخلاقيات الذكاء الاصطناعي وممارسات حماية البيانات الشخصية.مخاطر أساسيةأخبار متعلقة "سدايا" تطلق أول إطار مختص بمعايير الذكاء الاصطناعي في العالمانطلاق القمة العالمية للذكاء الاصطناعي بمشاركة 450 متحدثًا من 100 دولةاليوم الأول.. تفاصيل مذكرات التفاهم الموقعة في قمة الذكاء الاصطناعيصنّفت الوثيقة المخاطر الأساسية المرتبطة بتقنيات التزييف العميق الخبيثة إلى 3 فئات، تشمل العمليات الاحتيالية، التي تتمثل في تقنيات التزييف العميق لتقليد الأفراد الموثوق بهم بشكلٍ مقنع من أجل الحصول على معلومات حساسة أو خداع الضحايا، ومن خلال تكرار الأصوات وتعبيرات الوجه والسلوكيات.وتتضمن أيضًا الاحتيال...
المناطق_واسأطلقت الهيئة السعودية للبيانات والذكاء الاصطناعي “سدايا” اليوم، وثيقة المبادئ التوجيهية للتصدي لعمليات التزييف العميق باستخدام أدوات الذكاء الاصطناعي للإسهام في رفع الوعي وإيضاح الأسلوب الأمثل للاستفادة من هذه التقنيات الواعدة، والتعريف بطرق الاستخدام المسؤول. أخبار قد تهمك ملاك الهجن السعوديين في صدارة أشواط مهرجان ولي العهد للهجن 11 سبتمبر 2024 - 7:54 مساءً موسم تمور المدينة المنورة يحشد المبدعين لابتكار حلول رقمية في مجال التمور 11 سبتمبر 2024 - 7:51 مساءً جاء ذلك خلال أعمال القمة العالمية للذكاء الاصطناعي بنسختها الثالثة التي تنعقد حالياً في الرياض، بحضور معالي رئيس الهيئة الدكتور عبدالله بن شرف الغامدي، ومعالي نائب الرئيس سامي بن عبدالله مقيم، ومعالي مدير مركز المعلومات الوطنية الدكتور عصام بن عبدالله الوقيت، ومعالي رئيس مكتب إدارة البيانات الوطنية في الهيئة السعودية...
تعمل يوتيوب على تطوير أدوات جديدة قائمة على الذكاء الاصطناعي لمساعدة المبدعين والمشاهير والشخصيات العامة، وحتى الأشخاص العادية، على حماية أنفسهم من مقاطع الفيديو المزيفة. وتمنح هذه الأدوات المستخدمين مزيداً من التحكم في المحتوى الذي ينسخ أصواتهم أو صورهم باستخدام الذكاء الاصطناعي التوليدي، وذلك تجنباً للوقوع ضحية لهذه المقاطع المزيفة.وتسمح الأداة الأولى، الموصوفة بأنها تقنية تحديد الغناء الاصطناعي، للفنانين والمبدعين باكتشاف محتوى يوتيوب، الذي يحاكي أصواتهم الغنائية تلقائياً، باستخدام الذكاء الاصطناعي التوليدي.وقالت يوتيوب إن الأداة موجودة ضمن نظام تحديد حقوق التأليف الحالي Content ID، وإنها تخطط لاختبارها في إطار برنامج تجريبي في العام المقبل، حسبما ورد في مدونة يوتيوب.أما الأداة الثانية التي لا تزال قيد التطوير، نظام إدارة المظهر، حيث تسمح هذه الأداة للأشخاص باكتشاف وإدارة المحتوى الذي تم...
الشارقة: «الخليج»أكد خبراء ومختصون في مجال الأمن السيبراني أن سوء استخدام الذكاء الاصطناعي كلف العالم 3 تريليونات دولار عام 2015، فيما يُتوقع أن تصل التكلفة إلى 10 تريليونات بحلول عام 2025، موضحين أن «التزييف العميق» ازداد بنسبة 550% من عام 2019 إلى 2023.جاء ذلك خلال جلسة رئيسية بالتعاون مع سكاي نيوز عربية بعنوان «الحكومات المرنة تبني دروعاً واقية بالذكاء الاصطناعي.. ما السبب؟»، أقيمت ضمن فعاليات اليوم الثاني من المنتدى الدولي للاتصال الحكومي، وتحدث خلالها هيكتور مونسيجور، مؤسس شركة ناشئة في الأمن السيبراني وباحث أمني إلكتروني، والدكتور نادر الغزال، الأكاديمي والخبير في الذكاء الاصطناعي والتحول الرقمي، وألان سيمثسون، المؤسس والمشارك لـ(MetaVRse)، والدكتور إنهايوك تشا، أستاذ بمعهد غوانغجو للعلوم والتكنولوجيا، ونائب الرئيس عن التعاون العالمي، كوريا الجنوبية، وأدارها الإعلامي سامي قاسمي.وقال مونسيجور،...
قد تكون اللحظة الأكثر جذبا للانتباه في الانتخابات الرئاسية الأميركية، عندما اتخذ الرئيس الأميركي، جو بايدن، في يوليو الماضي، قراره بالانسحاب، إذ كان البعض ما بين مصدق ومكذب للخبر، حيث تنامت المخاوف من تكنولوجيا الذكاء الاصطناعي القادرة على التزييف العميق.حافظ مالك، البروفيسور المتخصص في هندسة الحاسوب والمتخصص في الذكاء الاصطناعي والتزييف العميق، يقول في مقال نشرته "ذا هيل" إن ما حصل لم يكن مستغربا إذ "لم نعد قادرين على التأكد من أن الكلمات المنسوبة لأي مرشح حقيقية" من عدمها.ويحذر مالك من أن التزييف العميق سيتم تداوله في الأشهر الأخيرة من انتخابات 2024، كما لم يحدث من قبل، ولن تكون الجهات الرسمية قادرة على نشر تدابير للحد منها من قبل الانتخابات، داعيا إلى تفكير أكثر شمولية "لإنقاذ الديمقراطية".وقد تكون الإجراءات الأميركية...
استخدمت عملية احتيال صورة الممثل آلان ديلون الذي توفي في 18 أغسطس/آب لاستقطاب مستخدمي الإنترنت إلى "كازينو" إلكتروني، وقد لاحظ صحافيون من وكالة فرانس برس أن عملية الاحتيال تم تصفّحها أكثر من مليوني مرة على شبكات التواصل الاجتماعي. وفي مقطع فيديو نُشر عبر حساب في منصة "إكس" يحارب عمليات الاحتيال عبر الإنترنت، تم انتحال هوية الممثل باستخدام صوته وصورته. ويقول صوت مفبرك للممثل في مقطع الفيديو "إذا كنت تشاهد هذا الفيديو، فأنا مُتّ أصلا، وسأعطيك 100 ألف يورو إذا لم تتمكن من الفوز في الكازينو الخاص بي عبر الإنترنت". وأشار صحافيون في وكالة فرانس برس -الأربعاء- إلى أن هذا الإعلان الكاذب تم تعطيله، لكن لا تزال هناك مقاطع فيديو أخرى للممثل تعيد توجيه مستخدمي الإنترنت إلى الكازينو. وردا عن سؤال...
طلبت الحكومة الكورية الجنوبية من تطبيق تلغرام وشركات التواصل الاجتماعي الأخرى حذف الصور الجنسية الواضحة المزيفة من منصاتها بعد زيادة هذا المحتوى. وتعتزم لجنة معايير الاتصال الكورية إنشاء خط ساخن يعمل بشكل مستمر مع تلغرام من أجل مشاورات مباشرة ومستمرة لوضح حد لانتشار الصور التي تستخدم التزييف العميق، وهي تقنية تعتمد على الذكاء الاصطناعي، وتستبدل صورة شخص بآخر مستهدف، حسب بيان للجنة اليوم، والتي ذكرت أن تلغرام هو قناة التوزيع الرئيسية لمحتوى التزييف العميق، ولم تذكر أي وسائل تواصل اجتماعي أخرى في بيانها.ورغم تعهد الشرطة بالتصدي بقوة لانتشار المحتوى عبر تقنية التزييف العميق، قفزت قضايا الاستغلال الجنسي على الإنترنت في كوريا الجنوبية إلى 297 قضية، بين يناير (كانون الثاني) ويوليو (تموز) هذا العام، مقارنة مع 180 في2023، وفقاً لبيانات الشرطة.ويأتي...
قال مسؤولون في كوريا الجنوبية إن الشرطة ستشن حملة مكثفة على الصور الجنسية المزيفة، حيث أثارت سلسلة من هذه الجرائم التي وقعت مؤخرا المخاوف من أن تقع أي امرأة ضحية لها. وقالت وكالة الشرطة الوطنية إنه خلال الحملة التي ستستمر لمدة 7 أشهر والتي من المقرر أن تبدأ اليوم الأربعاء، ستطارد الشرطة بقوة أولئك الذين ينتجون وينشرون مثل هذه الصور، خاصة تلك التي تخص الأطفال والمراهقين. ووفقا لوكالة الشرطة، تم الإبلاغ عن 297 حالة من جرائم الاستغلال الجنسي باستخدام تقنية التزييف العميق في جميع أنحاء البلاد في الفترة من يناير إلى يوليو. ومن بين 178 شخصا متهما، كان 73.6% منهم، أو 113 شخصا، من المراهقين. كما دعت الأحزاب السياسية والجماعات الحقوقية إلى تشديد العقوبات وإجراء التحقيقات النشطة. وقالت “سون سول”،...
يعاني الكثيرون من القلق بشأن مصداقية المحتوى الذي يشاهدونه في ظل الانتشار الواسع لمقاطع الفيديو المزيفة التي يتم إنشاؤها باستخدام الذكاء الاصطناعي. وأصبح ظاهرة التزييف العميق، الذي يتضمن التلاعب بالوسائط باستخدام خوارزميات الذكاء الاصطناعي، متزايدة في الآونة الأخيرة، حيث يتم استخدامه لإنشاء محتوى يبدو واقعيًا ولكنه مزيف. وقد تمت الاستعانة بهذه التقنية لنشر الأخبار الكاذبة وانتحال الشخصيات الشهيرة والسياسيين. لذا، يثار السؤال حول كيفية التمييز بين مقاطع الفيديو الحقيقية والمزيفة.كشف موقع «Spyscape»، المتخصص في الذكاء الاصطناعي، عن طرق فعالة يمكن استخدامها للكشف مقاطع الفيديو المزيفة، سنستعرض خلال السطور التالية هذه الطرق وكيفية تطبيقها للكشف التزييف العميق.1. الفحص البصريأحد أبسط الطرق لاكتشاف التزييف العميق هو الفحص البصري. في بعض الأحيان، تحتوي مقاطع الفيديو المزيفة على آثار أو تشوهات غير موجودة في الفيديوهات الحقيقية....
روسيا – حذّر خبير أمن المعلومات الروسي بافل ميزينوف من أساليب جديدة تعتمد تقنيات “التزييف العميق” للاحتيال على الناس. وحول الموضوع قال الخبير:”في الفترة الأخيرة بدأ المحتالون باستخدام فيديوهات التزييف العميق على نطاق واسع للاحتيال على الناس. يقوم المهاجمون في أغلب الأحيان باختراق حساب شخص ما على مواقع التواصل الاجتماعي، ويحصلون من صفحته على صور ومقاطع فيديو وتسجيلات صوتية له، وباستخدام هذه البيانات ينشؤون مقاطع فيديو مزيفة لاستغلالها في ابتزاز الأشخاص المقربين منه للحصول على المال”. وأضاف:”بعد صنع المقطع المزور يقوم المحتالون بإرساله إلى أصدقاء الشخص وعائلته، ويزعمون أن الشخص تعرض لحادث أو مشكلة ما، ويطلبون منهم تحويل المال لحساب معين لمساعدته”. وأشار الخبير إلى ضرورة توخي الحذر والحيطة عند تلقي رسالة أو مكالمة هاتفية من شخص ما يطلب فيها...
6 أغسطس، 2024 بغداد/المسلة: قال صانعو محتوى، ومراقبون للتواصل الاجتماعي والاعلامي أن استخدام تقنية التزييف العميق (Deepfake) في العراق، مرصودة، كما هو الحال في العديد من البلدان حول العالم، ومن المرجح انها سوف تستخدم في العراق على نطاق واسع بسبب غياب التشريعات وفوضى النشر. و حالات التزييف العميق من الصعب تتبعها وتحديدها بوضوح نظرًا لطبيعة التزييف العميق الذي يمكن أن يكون مقنعًا جدًا ويصعب اكتشافه. وتفيد تقارير وأمثلة عالمية عديدة باستخدام تقنية التزييف العميق لأغراض متنوعة مثل التضليل الإعلامي، الهجمات السياسية، والابتزاز، مما يثير القلق بشأن انتشار استخدامها في العراق أيضًا، خاصةً في ظل التوترات السياسية والاجتماعية. من المرجح أن تصبح تقنية التزييف العميق مشكلة أكبر في العراق في المستقبل، خاصةً إذا لم يتم اتخاذ إجراءات لمكافحتها. وهناك...
قدمت مجموعة من أعضاء مجلس الشيوخ اليوم قانونًا يمنع التزييف، وهو قانون من شأنه أن يجعل إنشاء نسخ رقمية لصوت شخص أو صورته دون موافقة ذلك الفرد أمرًا غير قانوني. إنه جهد مشترك بين أعضاء مجلس الشيوخ كريس كونز (ديمقراطي من ولاية ديلاوير)، ومارشا بلاكبيرن (جمهورية من ولاية تينيسي)، وأيمي كلوبوشار (ديمقراطية من ولاية مينيسوتا)، وتوم تيليس (جمهوري من ولاية كارولينا الشمالية)، بعنوان قانون رعاية الأصول الأصلية، والفنون الحاضنة، والحفاظ على الترفيه آمنًا لعام 2024.إذا تم تمريره، فإن قانون منع التزييف سيخلق خيارًا للأشخاص لطلب التعويضات عندما يتم إعادة إنشاء صوتهم أو وجههم أو أجسادهم بواسطة الذكاء الاصطناعي. سيتحمل كل من الأفراد والشركات المسؤولية عن إنتاج أو استضافة أو مشاركة النسخ الرقمية غير المصرح بها، بما في ذلك تلك التي تم إنشاؤها...
نجت شركة صناعة السيارات الفاخرة الإيطالية "فيراري"، من محاولة احتيال محتملة هذا الشهر، استُخدمت خلالها تقنيات "التزييف العميق"، حسب وكالة "بلومبيرغ" الأميركية.وكشفت الوكالة أن أحد المديرين التنفيذيين في "فيراري" تلقى هذا الشهر مجموعة من الرسائل "غير المتوقعة"، ومكالمة هاتفية بدا أنها من الرئيس التنفيذي، بينيديتو فينيا.وجاء في إحدى الرسائل عبر تطبيق "واتساب"، التي يُزعم أنها من فينيا، واطلعت عليها "بلومبيرغ": "مرحبا، هل سمعت عن عملية الاستحواذ الكبيرة التي نخطط لها؟ قد أحتاج مساعدتك".ولم تكن الرسائل صادرة عن الرقم المعتاد للرئيس التنفيذي، بل من رقم آخر. كما أن صورة الملف الشخصي لم تكن الصورة المعتادة، بل صورة أخرى لفينيا وهو يقف ببذلة وربطة عنق، وذراعيه مطويتان، أمام شعار حصان فيراري الشهير. الرئيس التنفيذي لشركة فيراري الإيطالية بينيديتو فينيا وجاء في...
وافق مجلس الشيوخ الأمريكي بالإجماع على مشروع قانون يهدف إلى محاسبة أولئك الذين يصنعون أو يشاركون المواد الإباحية العميقة. سيسمح قانون تعطيل الصور المزورة الصريحة والتحريرات غير التوافقية (قانون DEFIANCE) للضحايا بمقاضاة أولئك الذين يقومون بإنشاء أو مشاركة أو امتلاك صور أو مقاطع فيديو جنسية تم إنشاؤها بواسطة الذكاء الاصطناعي باستخدام صورهم. ترسخت هذه القضية في الوعي العام بعد التزييف العميق الشهير لتايلور سويفت والذي تم تداوله بين الأشخاص المنخفضي المستوى عبر الإنترنت في وقت مبكر من هذا العام.وسيسمح مشروع القانون للضحايا بمقاضاة ما يصل إلى 150 ألف دولار كتعويض. ويرتفع هذا الرقم إلى 250 ألف دولار إذا كان الأمر يتعلق بمحاولة الاعتداء الجنسي أو المطاردة أو التحرش.وينتقل الآن إلى مجلس النواب، حيث ينتظر مشروع قانون مصاحب. النائبة ألكساندريا أوكاسيو...
أصبحت مقاطع الفيديو المزيفة، سواء كانت مضحكة أو ضارة، مصدر قلق متزايد. يتخذ موقع YouTube خطوات لمعالجة هذه المشكلة من خلال السماح للأفراد بالإبلاغ عن مقاطع الفيديو التي تستخدم نسخًا تم إنشاؤها بواسطة الذكاء الاصطناعي لأنفسهم. يعتمد نظام الإبلاغ هذا على الشخص المتضرر للإبلاغ عن الفيديو، على عكس الأشكال الأخرى للإبلاغ عن إساءة الاستخدام على YouTube، ومع تحسن تكنولوجيا الذكاء الاصطناعي، ستحتاج المنصات عبر الإنترنت إلى تدابير أقوى لمكافحة إساءة استخدام التزييف العميق. كيفية الإبلاغ عن مقطع فيديو تم إنشاؤه بواسطة الذكاء الاصطناعيإذا عثرت على مقطع فيديو على YouTube يعرض نسخة من نفسك تم إنشاؤها بواسطة الذكاء الاصطناعي، فإليك كيفية الإبلاغ عنها:توجه إلى عملية تقديم شكوى الخصوصية في YouTubeاتبع الخطوات حتى تصل إلى المرحلة النهائية (الخطوة 6) حيث سترى خيار "الإبلاغ عن...
مع التقدم التكنولوجي المتسارع وتطور أدوات الذكاء الاصطناعي، باتت تقنية "التزييف العميق" موضوعًا للجدل. تُستخدم هذه التقنية الابتكارية في العديد من المجالات مثل الفن والتسلية، لكنها بدأت أيضًا تنتشر في حملات التضليل والاحتيال، مما يثير قلقًا حول تأثيرها على المعلوماتية والأمن العام.تطورات التقنية واستخداماتهاتمكن مركز معلومات مجلس الوزراء من تحليل تقنيات الذكاء الاصطناعي وتحديد خمس طرق فعالة للكشف التزييف العميق:1. منصة Sentinel: تقوم بتحميل الوسائط الرقمية وتحليلها باستخدام خوارزميات ذكاء اصطناعي متقدمة للكشف أي تلاعب في الوسائط. 2. كاشف التزييف العميق FakeCatcher من إنتل: يستخدم تقنية "تدفق الدم" لاكتشاف التلاعب في مقاطع الفيديو باستخدام إشارات تدفق الدم في الوجه، مما يضمن دقة عالية في الكشف.3. نحن نتحقق WeVerify: تحليل وسائط اجتماعية وإدراجها في سياق الإنترنت الواسع، بالاعتماد على قاعدة بيانات...
تابع أحدث الأخبار عبر تطبيق أصدر مركز المعلومات ودعم اتخاذ القرار بمجلس الوزراء، تحليلاً جديداً تناول من خلاله تقنية التزييف العميق، وذلك بدءًا من زيادة اعتماد المستخدمين على تقنيات الذكاء الاصطناعي، ثم الانتقال إلى مفهوم التزييف العميق، وكيف تعمل هذه التقنية، واستخدامات التزييف العميق، والمخاطر الناجمة عنها، وطرق الكشف عنها.وأوضح التحليل أن استخدام مجالات التكنولوجيا المختلفة -مثل الحوسبة السحابية والذكاء الاصطناعي والأمن السيبراني- أصبح أمرًا مهمًّا في كل مناحي الحياة، بما في ذلك الاتصالات، والصناعة، والتجارة، والتعليم، والطب، والترفيه، وغيرها.وعلى الرغم من أهمية استخدام التكنولوجيا والفوائد المترتبة عليها، فإنها يقابلها العديد من التحديات التي تتعلق بحفظ الخصوصية، والبيانات المزيفة، ومن بين هذه التحديات استخدام تقنيات التزييف العميق؛ حيث فرضت هذه التقنيات تحديات جديدة تتعلق بالأمان والخصوصية والمصداقية.وذكر المركز أن زيادة...
مع التقدم التكنولوجي وتطور أدوات الذكاء الاصطناعي نكتشف كل يومٍ تقنيات جديدة تساعد على تسهيل المهام اليومية، ومن بينها تقنية «التزييف العميق»، التي كانت تستخدم في إنتاج الإعمال الإبداعية أو للتسلية، لكنها بدأت في الانتشار بشكلٍ متزايد في حملات التضليل والاحتيال، وتشويه سمعة المشاهير، لذا عملت الحكومات على مواجهة هذه التقنية ووضع آليات لكشفها. وكشف مركز معلومات مجلس الوزراء، عن 5 طرق للكشف عن التزييف العميق لمستخدمي تقنيات الذكاء الاصطناعي، وذلك وفق تحليل صادر عنه تناول من خلاله التقنية بدءًا من زيادة اعتماد المستخدمين على تقنيات الذكاء الاصطناعي. طرق للكشف عن التزييف العميق وأوضح المركز أنّ هناك 5 طرق للكشف عن التزييف العميق لمستخدمي تقنيات الذكاء الاصطناعي، تتمثل فيما يلي: - منصة Sentinel: تسمح للمستخدمين بتحميل الوسائط الرقمية ثم تحليلها...
أصدر مركز المعلومات ودعم اتخاذ القرار بمجلس الوزراء، تحليلاً جديدا تناول من خلاله تقنية التزييف العميق، وذلك بدءًا من زيادة اعتماد المستخدمين على تقنيات الذكاء الاصطناعي، ثم الانتقال إلى مفهوم التزييف العميق، وآليات عمل هذه التقنية، واستخدامات التزييف العميق، والمخاطر الناجمة عنها، وطرق الكشف عنها. استخدام مجالات التكنولوجيا المختلفة وأوضح التحليل أن استخدام مجالات التكنولوجيا المختلفة -مثل الحوسبة السحابية والذكاء الاصطناعي والأمن السيبراني أصبح أمرًا مهمًّا في كل مناحي الحياة، بما في ذلك الاتصالات، والصناعة، والتجارة، والتعليم، والطب، والترفيه، وغيرها. وعلى الرغم من أهمية استخدام التكنولوجيا والفوائد المترتبة عليها، فإنها يقابلها العديد من التحديات التي تتعلق بحفظ الخصوصية، والبيانات المزيفة، ومن بين هذه التحديات استخدام تقنيات التزييف العميق؛ حيث فرضت هذه التقنيات تحديات جديدة تتعلق بالأمان والخصوصية والمصداقية. زيادة اعتماد...
عادت قصة المؤثرة الأوكرانية أولغا ليوك إلى الواجهة، مع تصاعد النقاش حول مخاطر التزييف العميق بواسطة الذكاء الصناعي. فوجئت ليوك بأن وجهها وصوتها يُستخدمان في حسابات متعددة على وسائل التواصل الاجتماعي، بعضها يروج لمنتجات وأخرى تدلي بآراء سياسية، دون علمها أو موافقتها. ووجدت نفسها مقلدة ومتابعة من مئات الآلاف، مما أدى إلى صدمة وذهول كبيرين لديها.لم يسلم المؤثر الأمريكي غوردون هاوليت، الذي يتابعه 24 مليون شخص، من التزييف هو الآخر. اكتشف أن حسابات وروابط تستخدم صورته وصوته للترويج لأدوية، مما أزعجه بشدة وأثار قلقه من إمكانية استخدام الذكاء الصناعي لتزوير هويته ووضع الكلمات في فمه دون إذنه. تتوالى التقارير عن عمليات احتيال بملايين الدولارات باستخدام تقنيات التزييف العميق، حيث تم تسجيل مكالمات مزعومة لقادة وزعماء ثبت فيما بعد أنها مزيفة.يحذر...
تم الثلاثاء، بمجلس الشيوخ الأميركي، تقديم مشروع قانون يجرم نشر صور عارية بدون موافقة، حقيقية كانت أم مزيفة عن طريق الذكاء الاصطناعي، أو ما يعرف باسم تقنية التزييف العميق (Deep Fake). المشروع الذي يطمح أعضاء مجلس الشيوخ من الحزبين الجمهوري والديمقراطي، أن يصبح قانونا نافذا، يطالب شركات التواصل الاجتماعي ومواقع الويب الأخرى إزالة الصور في غضون 48 ساعة من تلقي الإشعار من الضحية. اللافت أنه من بين من عرضوا مشروع القانون جنبا إلى جنب مع السيناتورة إيمي كلوبوشار (ديمقراطية من مينيسوتا)، وتيد كروز (جمهوري من تكساس) فتاة تدعى إليستون بيري. حرصت إليستون بيري، وعائلتها على الحضور خلال عرض مشروع القانون لإيضاح خطورة الأمر، حيث تتعرض مزيد من الفتيات، لا سيما المراهقات، للتشهير بصور إباحية من وحي الذكاء الاصطناعي أو ما...
تابع أحدث الأخبار عبر تطبيق أكثر ما يمكن أن يشكل خطرًا قويًا ومدمرًا هو التضليل، تزييف وعي الناس، وأكثر ما هو مؤسف أن يكون مصدره أو حلقة من حلقاته شخص محسوب على الوسط الثقافي، شخص نحسبه مفكرًا، قارئًا، واعيًا، لأن هذه الصفات تميزه عن بقية الناس، تصنع له مساحة من الثقة والصدق في القلوب، لكنه في الحقيقة مضلل.قراءة الصفحات الرسمية لبعض الكتاب والمثقفين والشعراء، تشير إلى حالة من الاستسهال واللامبالاة، فيها تجري إعادة تدوير الأخبار الكاذبة والشائعات، تلاحظ أنه بسهولة يرص مجموعة من الأخبار المتداولة بعضها صحيح والآخر مزيف، يصنع ظاهرة ويعلق عليها بثقة بالغة، وتظهر انفعالاته من بين سطوره، وأسأل نفسي: هذا المثقف العظيم، لماذا لم يفتح صفحة جوجل ليقوم بعملية بحث بسيطة للتأكد من المصدر؟ هل تداوله بين...
كشف مخرج بولندي أن ضباط مخابرات روس "تواصلوا معه عبر طرق ملتوية" للحصول على نسخة من فيلمه الذي تناول فيه سيرة الرئيس فلاديمير بوتين، باستخدام تقنيات الذكاء الاصطناعي، وفقا لما ذكرت صحيفة "تلغراف" البريطانية. وقال المخرج باتريك فيغا، في تصريحات للصحيفة اللندنية: "لقد مررت بتجربة مضحكة حقًا مع المخابرات الروسية". وكان فيغا قد أعلن عن فيلمه في مايو 2022، في أعقاب غزو قوات الكرملين لأوكرانيا، لكنه قال إن تطوير تقنيات الذكاء الاصطناعي اللازمة لإعادة خلق صورة بوتين على الشاشة، استغرق أكثر من عامين. ولفت المخرج المعروف إلى قيامه بتصوير مشاهد للرئيس الروسي بواسطة ممثل بولندي يشبهه، وذلك عبر استخدام التقنية "التزييف العميق" (Deep Fake) لتغطية وجه الممثل بملامح بوتين بشكل واقعي. ويعد هذا الفيلم، الذي سيعرض في بريطانيا اعتبارا من...
نشرت صحيفة لوموند الفرنسية تقريرًا سلطت فيه الضوء على الاستخدام المتزايد لتقنية التزييف العميق، أو "الديب فيك" في مجال الاحتيال المالي في الهند، حيث يتم إنشاء مقاطع فيديو مزيفة لشخصيات معروفة، من أجل الاحتيال على الضحايا وسلبهم أموالهم. وتقول الصحيفة، في تقريرها الذي ترجمته "عربي21"، إن طرق النصب والاحتيال في الهند شهدت طفرة في الكم والكيف بالاعتماد على الذكاء الاصطناعي. وكانت بورصة بومباي قد أعلنت في نهاية نيسان/ أبريل أنها سترفع دعوى قضائية، بعد أن انتشر على شبكات التواصل الاجتماعي مقطع فيديو مزيف يظهر فيه مدير هذه البورصة، سوندارارامان رامامورتي، بصدد إعطاء نصائح للمستثمرين. وذكرت الصحيفة أن هذه الأساليب المضللة كانت مستخدمة منذ سنوات في مجال السياسة، ولكن دخولها إلى قطاع المال والبورصة يعتبر جديدا، في هذا البلد...
أدى الاعتماد واسع النطاق لتقنيات الذكاء الاصطناعي وتعلم الآلة في السنوات الأخيرة إلى تزويد مصادر التهديد بأدوات جديدة متطورة لتنفيذ هجماتهم. ويُعد التزييف العميق أحد هذه المنتجات، إذ يقلد البشر ويتضمن كلاماً أو صوراً أو فيديو مولداً يصعب تمييزه من الحقيقي. وبينما عادة ما تستهلك هذه الهجمات وقتاً وجهداً أكبر من «مكافآتها» المحتملة، تحذر كاسبرسكي من وجوب إدراك الشركات والمستهلكين لكون عمليات التزييف العميق ستصبح مصدر قلق أكبر في المستقبل على الأرجح.كشفت أبحاث كاسبرسكي وجود أدوات وخدمات صنع التزييف العميق في أسواق الشبكة المظلمة. وتوفر هذه الخدمات مقاطع فيديو مصنوعة بالذكاء الاصطناعي التوليدي ومخصصة لمجموعة متنوعة من الأغراض، بما في ذلك الاحتيال، والابتزاز، وسرقة البيانات السرية. كما تشير تقديرات خبراء كاسبرسكي إلى إمكانية شراء دقيقة واحدة من فيديوهات التزييف العميق...
نشرت شبكة "بي بي سي" البريطانية تحقيقا استقصائيا يرصد أوقات عصيبة عاشتها فتاة عقب استهدافها بتقنية "التزييف العميق" أو ما يعرف بـ"الديب فيك" باللغة الإنجليزية، ونشر صور مزيفة تحمل وجهها على مواقع للأفلام الإباحية. ولفت التحقيق إلى وجود عشرات الآلاف من مقاطع الفيديو المزيفة باستخدام "التزييف العميق" على الإنترنت، توصلت الأبحاث الحديثة أن 98 في المئة منها مواد إباحية. وتشير أبحاث سابقة إلى أن عدد مقاطع الفيديو من هذا النوع يتضاعف على الإنترنت بسرعة، حيث أصبح إنتاج مثل هذه المقاطع عبر التقنية المثيرة للقلق عملا مربحا. وعلى الرغم من تركيز حالة القلق على استخدام هذه التقنية من أجل أغراض سياسية، إلا أن الأدلة والأبحاث تثبت أن "التزييف العميق" يُستخدم في معظم الأحيان بهدف إنتاج المواد الإباحية. ...
أذهلت قدرات الذكاء الاصطناعي العالم أجمع، مع تدخلها في شتي المجالات تقريبا، ولكن مع انتشارها الواسع أثارت التقنية المتطورة مخاوف الكثيرين حول المخاطر التي قد تتسبب بها هذه البرامج، وهو ما حدث بالفعل.ولسوء الحظ، إساء الكثيرين استخدام تقنيات الذكاء الاصطناعي لمصالحهم الخاصة، دون دراية أن ما فعلوه يمكن أن يكون له تأثيرات سلبية على الآخرين، ففي الآوانة الأخيرة استخدام الذكاء الاصطناعي في الغش، الاحتيال، التجسس، أو لإيجاد طرق للتلاعب بالمعلومات والبيانات وحتي الأصوات. ألعاب المراهنات.. مافيا نصب محترفة تسرق عقول وجيوب المصريين |هذه أخطرها صور ترامب ومناصريه.. الذكاء الاصطناعي سلاح يهدد مصير الانتخابات الأمريكية إعلانات مزيفة بالذكاء الاصطناعي صوت وصورةأدى إنشاء إعلانات مزيفة باستخدام الذكاء الاصطناعي، إلى تشوية صورة مشاهير معروفين أمام محبيهم وخلق مشاكل أخلاقية وقانونية خطيرة،...
في مساء الثامن عشر من فبراير عام 2022، بث موقع إخباري أوكراني مقطع فيديو لرئيس أوكرانيا فلاديمير زيلينسكي وهو يلقي خطابًا يعلن فيه انتهاء الحرب مع روسيا، وهي المعلومة التي كانت غالبية الشعب الأوكراني تعلم أنها كاذبة. وبينما كان هذا يحدث عبر الإنترنت، كان الشريط الإخباري الموجود أسفل الشاشة في البث التلفزيوني المباشر للقنوات التلفزيونية التي نقلت الخبر يحمل الرسالة نفسها التي تقول إن أوكرانيا قد استسلمت. وهو ما لم يحدث وقتها ولا في أي وقت وحتى الآن.كان هذا الحدث غير المسبوق بداية لمسار جديد لإعادة كتابة تاريخ الدعاية، خاصة السياسية منها والحربية، ودخول آليات جديدة ليتم توظيفها في تشويه الحقائق، أهمها حاليا تقنية التزييف العميق المعروفة باسم «ديب فيك»، والتي تسمح للأشخاص بإنشاء صور ومقاطع فيديو لأحداث لم تحدث...
الأمارات العربية – حذّر مجلس الأمن السيبراني في الإمارات من تقنيات “التزييف العميق” وتقنيات الذكاء الاصطناعي التي قد تستخدم أحيانا للاحتيال على الناس عبر الإنترنت. وذكر المجلس أنه في ظل التطور السريع في المشهد التكنولوجي، يتزايد انتشار الاحتيال بواسطة تقنية التزييف العميق، لاسيما مع تقدم تقنيات الذكاء الاصطناعي، مؤكدا أنه من الضروري فهم تقنيات هذه الممارسات الاحتيالية لحماية نفسك بفاعلية من الأضرار المحتملة. واستعرض المجلس سيناريو من الواقع كيف يمكن لتقنية التزييف العميق أن تجعلك ضحية للاحتيال، موضحا أن المخترقين يستخرجون نموذجا لصوتك من أحد حساباتك في مواقع التواصل الاجتماعي، وبعد تحليل المقاطع الصوتية يولدون رسائل صوتية مزيفة بتقنيات الذكاء الاصطناعي، تبدو كأنها بصوتك الحقيقي، وينشئون “رسالة مزيفة” تدعي حاجتك لأموال عاجلة ويرسلونها لأصدقائك المقربين، وبناء على ثقة صديقك بصوتك...
حذّر مجلس الأمن السيبراني في الإمارات من تقنيات "التزييف العميق" وتقنيات الذكاء الاصطناعي التي قد تستخدم أحيانا للاحتيال على الناس عبر الإنترنت. وذكر المجلس أنه في ظل التطور السريع في المشهد التكنولوجي، يتزايد انتشار الاحتيال بواسطة تقنية التزييف العميق، لاسيما مع تقدم تقنيات الذكاء الاصطناعي، مؤكدا أنه من الضروري فهم تقنيات هذه الممارسات الاحتيالية لحماية نفسك بفاعلية من الأضرار المحتملة.واستعرض المجلس سيناريو من الواقع كيف يمكن لتقنية التزييف العميق أن تجعلك ضحية للاحتيال، موضحا أن المخترقين يستخرجون نموذجا لصوتك من أحد حساباتك في مواقع التواصل الاجتماعي، وبعد تحليل المقاطع الصوتية يولدون رسائل صوتية مزيفة بتقنيات الذكاء الاصطناعي، تبدو كأنها بصوتك الحقيقي، وينشئون "رسالة مزيفة" تدعي حاجتك لأموال عاجلة ويرسلونها لأصدقائك المقربين، وبناء على ثقة صديقك بصوتك قد يفي بالطلب ويرسل...
كشفت دراسة جديدة حول عمليات الاحتيال عبر الإنترنت القائمة على انتحال الشخصية وتزييف الهوية، عن زيادة قدرها 10 أضعاف في عمليات الاحتيال المكتشفة والمعتمدة على التزييف العميق باستخدام الذكاء الاصطناعي، بين العامين 2022 و2023. وعرضت الدراسة التي أعدتها منصة "Sumsub"، تحليلا شاملا لعمليات الاحتيال القائمة على تزييف الهوية، وصنفتها بحسب المناطق حول العالم ووفق مجالات العمل التي تستهدفها، كما لفتت في تقريرها إلى أبرز الأساليب والأنماط المعتمدة لانتحال الصفات وتزوير الهوية. و"Sumsub" هي إحدى منصات التحقق من الهويات التي تساعد الشركات على مراقبة الاحتيال في جميع أنحاء العالم، وتساهم في رفع وعي الناس لجرائم الاحتيال المتعلقة بسرقة الهوية وانتحال الشخصية. واستخدم التقرير مصطلح "الاحتيال في الهوية" ليشير إلى استخدام البيانات الشخصية أو الهوية المزيفة دون تصريح لأغراض ضارة، حيث حلل...
في أحد أيام شهر أكتوبر الماضي، عادت فرانسيسا ماني إلى منزلها من مدرستها في ضواحي نيوجيرسي حاملة أخبارا غير سعيدة لوالدتها، دوروتا، بعد أن تم إخطارها بأنها ومجموعة من زميلاتها بالمؤسسة التعليمية الثانوية، وقعن ضحية زميلة أخرى لهن، نشرت صورهن عاريات، باستخدام تقنية التزييف العميق التي تتيحها تطبيقات للذكاء الاصطناعي. كانت والدة فرانسيسا، على دراية تامة بقوة هذه التكنولوجيا الجديدة نسبيا، لكن السهولة التي تم بها إنشاء الصور أذهلتها، تقول: "لم أكن أعرف مدى السرعة التي يمكن أن يحدث بها ذلك، بصورة واحدة فقط.. يمكن أن يكون أي شخص ضحية لها، بنقرة زر واحدة". ووفقا لتفاصيل دعوى قضائية فيدرالية رفعتها مؤخرا عائلة فتاة أخرى تدرس بنفس المؤسسة، تم إنشاء الصور عبر استخدام تطبيق يسمى "ClothOff"، والذي يعمل تحت طبقة عميقة...
تعد مقاطع الفيديو والصور التي ينتجها الذكاء الاصطناعي والمستخدمة في التضليل السياسي هي آفة عام الانتخابات العالمية المزدحم، وتسعى البرازيل جاهدة لتنظيم التكنولوجيا قبل الانتخابات البلدية. وفي بلد يبلغ عدد سكانه 203 ملايين نسمة، حظرت السلطات البرازيلية الأسبوع الماضي استخدام تقنية التزييف العميق ووضعت إرشادات لاستخدام الذكاء الاصطناعي للأغراض الانتخابية. وقالت الأستاذة الجامعية في مجال الكمبيوتر، آنا كارولينا دا هورا لوكالة فرانس برس “يمكن استخدام مونتاج الفيديو للتلاعب بالرأي العام أو تشويه سمعة الأفراد أو التدخل في العملية الديمقراطية”. وأدى التطور السريع للذكاء الاصطناعي، والذي عززه إطلاق ChatGPT عام 2022، إلى هز المشهد عبر الإنترنت وأثار الرهبة والخوف بشأن مستقبل التكنولوجيا. وفي بلد تضرر بشدة من التضليل السياسي، تشعر السلطات بالقلق بشكل خاص من حالات مثل حالة عمدة المدينة الذي تم استنساخ صوته لإنشاء...
يمانيون../ حذّر الخبير التقني الروسي، دميتري كريوكوف من انتشار الفيديوهات المزيفة على الإنترنت، والتي يتم تطويرها عبر ما يسمى بتقنيات الـ”تزييف العميق”. وحول الموضوع قال الخبير:”أعتقد أن تقنيات التزييف العميق تتطور بسرعة كبيرة، وخلال عام قد يكون من المستحيل التمييز بين مقطع فيديو مزيف ومقطع حقيقي، وقد تستغل هذه التقنيات من قبل المحتالين عبر الإنترنت”. وأضاف:”من الأسهل والأسرع بالنسبة للمحتالين صنع فيديوهات مزيفة للتأثير على شخص ما والحصول على بياناته بدلا من اختراق أنظمة معينة، لذلك فإنهم سيعتمدون في المستقبل على أساليب احتيالية تمكنهم من استغلال الإنترنت ووسائل التواصل الاجتماعي”. وأشار الخبير إلى “أن وسائل الكشف عن التزييف العميق ما تزال في بداياتها حاليا، وغير فعالة بما فيه الكفاية، لذا يمكننا أن نتوقع زيادة في عدد الهجمات الإلكترونية التي تستخدم...
حذّر الخبير التقني الروسي، دميتري كريوكوف من انتشار الفيديوهات المزيفة على الإنترنت، والتي يتم تطويرها عبر ما يسمى بتقنيات الـ"تزييف العميق". وحول الموضوع قال الخبير:"أعتقد أن تقنيات التزييف العميق تتطور بسرعة كبيرة، وخلال عام قد يكون من المستحيل التمييز بين مقطع فيديو مزيف ومقطع حقيقي، وقد تستغل هذه التقنيات من قبل المحتالين عبر الإنترنت".وأضاف:"من الأسهل والأسرع بالنسبة للمحتالين صنع فيديوهات مزيفة للتأثير على شخص ما والحصول على بياناته بدلا من اختراق أنظمة معينة، لذلك فإنهم سيعتمدون في المستقبل على أساليب احتيالية تمكنهم من استغلال الإنترنت ووسائل التواصل الاجتماعي". إقرأ المزيد مستشار مدير عام "روساتوم": روسيا تتقدم على الغرب في مجال تطوير برمجيات الكمبيوتر الكمومي وأشار الخبير إلى "أن وسائل الكشف عن التزييف العميق ما تزال في بداياتها حاليا، وغير...
وقع الإعلامي البريطاني الشهير، بيرس مورجان ضحية لتقنية Deepfake أو ما يُعرف بـ "التزييف العميق"، حيث قام أحد المؤثرين على مواقع التواصل الاجتماعي باستغلاله ضمن أحد مقاطع الفيديو الترويجية. وأدان محامو بيرس مورجان مقاطع الفيديو التي تم فبركتها لاستغلال الإعلامي البريطاني، كما أكد أحد الخبراء أن مقاطع الفيديو التي ظهر فيها مورجان تم التلاعب بها باستخدام تقنية التزييف العميق. وقام موقع "YouTube" يوتيوب بإزالة مقاطع الفيديو من النظام الأساسي، نظرًا لانتهاكها سياسات الموقع التي تحظر المحتوى المُعالج باستخدام تقنية التزييف العميق، أو تقنيات الفبركة الأخرى. صورة من الفيديو المفبرك لـ بيرس مورجانوتثير تقنية التزييف العميق قلقًا واسعًا ومخاوف كبيرة، حيث تعتبر نوعًا جديدًا من الفبركة الإلكترونية، لكن الفارق هو أن المستخدمين لا يستطيعون اكتشاف الفرق بينها وبين الحقيقة. وفي الفترة الأخيرة، تعرض عددًا...
وقع خبراء الذكاء الاصطناعي والمديرون التنفيذيون في الصناعة -بما في ذلك أحد رواد التكنولوجيا يوشوا بنجيو- على رسالة مفتوحة تدعو إلى مزيد من تنظيم إنشاء التزييف العميق، مشيرين إلى المخاطر المحتملة على المجتمع، بحسب وكالة رويترز. وقالت المجموعة في الرسالة التي جمعها أندرو كريتش الباحث بجامعة كاليفورنيا في بيركلي وأحد خبراء الذكاء الاصطناعي "اليوم، غالبا ما يتضمن التزييف العميق صورا جنسية أو احتيالا أو معلومات مضللة سياسية. وبما أن الذكاء الاصطناعي يتقدم بسرعة ويجعل إنشاء التزييف العميق أسهل بكثير، فإن هناك حاجة إلى ضمانات". والتزييف العميق عبارة عن صور وتسجيلات صوتية ومقاطع فيديو واقعية ولكنها ملفقة أُنشئت بواسطة خوارزميات الذكاء الاصطناعي، وقد جعلت التطورات الحديثة في التكنولوجيا تمييزها عن المحتوى الأصلي أمرا بالغ الصعوبة. وتقدم الرسالة -التي تحمل عنوان "تعطيل...
أعلنت شركة ميتا، الإثنين، أنها ستطلق قريباً خدمة خاصة عبر واتس آب، لمحاربة التزييف العميق والمعلومات الخاطئة الناتجة عن الذكاء الاصطناعي.وبحسب ميتا، فإن هذه الخدمة ستساعد المستخدمين على الحصول على معلومات موثوقة تم التحقق منها بالفعل، بدعم من "تحالف مكافحة المعلومات المضللة"، وشبكة مرتبطة بها من مدققي الحقائق والمنظمات البحثية المستقلة. وتسمح المبادرة للمستخدمين بالإبلاغ عن التزييف العميق الذي يتم عبر الذكاء الاصطناعي، عن طريق برنامج الدردشة المخصص على واتس آب، والذي يدعم العديد من اللغات، ليتم إعادة توجيه الرسائل التي يرسلها المستخدمون، إلى مدققي الحقائق وشركاء الصناعة والمختبرات الرقمية الذين سيقومون بتقييم المحتوى والتحقق منه والكشف عما إذا كانت المعلومات صحيحة أو ملفقة.وبحسب صحيفة إنديان إكسبرس، فإن البرنامج لديه نهج مكون من أربع ركائز، هي الكشف والوقاية والإبلاغ وزيادة...
أعلنت شركة ميتا، الإثنين، أنها ستطلق قريباً خدمة خاصة عبر واتس آب، لمحاربة التزييف العميق والمعلومات الخاطئة الناتجة عن الذكاء الاصطناعي. وبحسب ميتا، فإن هذه الخدمة ستساعد المستخدمين على الحصول على معلومات موثوقة تم التحقق منها بالفعل، بدعم من “تحالف مكافحة المعلومات المضللة”، وشبكة مرتبطة بها من مدققي الحقائق والمنظمات البحثية المستقلة. وتسمح المبادرة للمستخدمين بالإبلاغ عن التزييف العميق الذي يتم عبر الذكاء الاصطناعي، عن طريق برنامج الدردشة المخصص على واتس آب، والذي يدعم العديد من اللغات، ليتم إعادة توجيه الرسائل التي يرسلها المستخدمون، إلى مدققي الحقائق وشركاء الصناعة والمختبرات الرقمية الذين سيقومون بتقييم المحتوى والتحقق منه والكشف عما إذا كانت المعلومات صحيحة أو ملفقة. وبحسب صحيفة إنديان إكسبرس، فإن البرنامج لديه نهج مكون من أربع ركائز، هي الكشف والوقاية والإبلاغ وزيادة الوعي حول...
وقع تحالف مكون من 20 شركة تكنولوجيا اتفاقا للمساعدة في منع التزييف العميق بالذكاء الاصطناعي في انتخابات 2024 الحاسمة التي تجري في أكثر من 40 دولة، بحسب وكالة رويترز. وتتضمن قائمة الشركات الموقعة على "اتفاق التكنولوجيا لمكافحة الاستخدام الخادع للذكاء الاصطناعي في انتخابات 2024″؛ تلك التي تُنشئ نماذج الذكاء الاصطناعي وتوزعها، بالإضافة إلى المنصات الاجتماعية التي من المرجح أن يظهر فيها التزييف العميق. ويشمل الموقعون غوغل وأدوبي وتيك توك وسناب شات ومايكروسوفت وميتا وإكس وأمازون وأدوبي ومكافي ولينكد إن وأنثروبيك ونوتا وتروبيك وتريند مايكرو وأي بي إم وآرم وإليفين لاب وإنفلكشن إيه آي وأوبن إيه آي وستابلتي إيه آي. وتصف المجموعة الاتفاقية بأنها مجموعة من الالتزامات لنشر التكنولوجيا لمواجهة المحتوى الضار الناتج عن الذكاء الاصطناعي الذي يهدف إلى خداع الناخبين....
في ظل التطور التطور الرقمي الرهيب، ومع بدء المارثون الانتخابي، أعلنت مجموعة من 20 شركة تكنولوجية رائدة، عن التزام مشترك بمكافحة المعلومات الخاطئة والمزيفة المتعلقة بالذكاء الاصطناعي قبل انتخابات عام 2024.ووافقت الشركات المشاركة في الاتفاق على ثمانية التزامات رفيعة المستوى، بما فيها تقييم المخاطر النموذجية، والسعي لكشف ومعالجة توزيع المحتوى على منصاتها وتوفير الشفافية للجمهور.ويأتي الإتفاق كجزء من استعداد منصات التكنولوجيا لعام ضخم من الانتخابات في جميع أنحاء العالم، والتي تؤثر على ما يصل إلى أربعة مليارات شخص في أكثر من 40 دولة.يأتي ذلك بعدما أدى ظهور المحتوى الناتج عن الذكاء الاصطناعي إلى مخاوف خطيرة بشأن المعلومات المضللة المتعلقة بالانتخابات، وزيادة عدد التزييف العميق الذي تم إنشاؤه بنسبة 900% مقارنة بالعام الماضي.مايكروسوفت وميتا وغوغل وأمازون ينضمون إلى إتفاقية مكافحة التزييف...
وقع تحالف من 20 شركة تكنولوجيا اتفاقا يوم الجمعة للمساعدة في منع التزييف العميق للذكاء الاصطناعي في انتخابات 2024 الحاسمة التي تجري في أكثر من 40 دولة. تعد OpenAI وGoogle وMeta وAmazon وAdobe وX من بين الشركات التي انضمت إلى الاتفاقية لمنع ومكافحة المحتوى الناتج عن الذكاء الاصطناعي والذي يمكن أن يؤثر على الناخبين. ومع ذلك، فإن اللغة الغامضة للاتفاقية والافتقار إلى التنفيذ الملزم يدعوان إلى التساؤل عما إذا كانت ستذهب إلى المدى الكافي.تتضمن قائمة الشركات الموقعة على "اتفاق التكنولوجيا لمكافحة الاستخدام الخادع للذكاء الاصطناعي في انتخابات 2024" تلك التي تنشئ نماذج الذكاء الاصطناعي وتوزعها، بالإضافة إلى المنصات الاجتماعية التي من المرجح أن تظهر فيها التزييفات العميقة. الموقعون هم Adobe، Amazon، Anthropic، Arm، ElevenLabs، Google، IBM، Inflection AI، LinkedIn، McAfee، Meta،...
كشفت شركة "مايكروسوفت" مطلع فبراير، عن تفاصيل عملية قرصنة لبث تلفزيوني في دولة الإمارات، استخدم القراصنة فيها تقنيات التزييف العميق بواسطة الذكاء الاصطناعي لإظهار مذيع مفترض يقرأ تقريرا إخباريا مزيفاً يتناول الحرب بين إسرائيل وحماس في غزة، ويحاول التلاعب بمشاعر الرأي العام بالدولة الخليجية. وفي الوقت ذاته، كانت ولاية نيوهامشير الأميركية شاهدة على عملية تزييف مشابهة باستخدام تقنيات الذكاء الاصطناعي لمخادعة، عبر استنساخ صوت الرئيس الأميركي، جو بايدن، في اتصالات هاتفية مزيفة دعت الناخبين إلى عدم المشاركة في الانتخابات الرئاسية التمهيدية. وبين الواقعتين وقبلهما، شهد العالم عشرات الأحداث المشابهة التي تخللتها عمليات احتيال ومخادعة للجمهور بشكل عام أو للأفراد بصورة شخصية، كان المشترك الوحيد بينها، اعتمادها على الأدوات والإمكانات التي بات يتيحها الذكاء الاصطناعي لاسيما التوليدي منه، في عملية تزييف...
إعداد: وسيم الدالي تابِع 1 دقائق يشهد الذكاء الاصطناعي تطورا ونموا متناهي السرعة ويتسع نطاق استخدامه بشكل لافت، فمنذ ظهور ما يسمى بالذكاء الاصطناعي التوليدي باتت المحتويات التي تنجزها هذه التقنية، تبدو وكأنها من صنع البشر بل أضحت تعوض الإنسان في الكثير من الأحيان، ما يثير المخاوف من مخاطر إساءة استخدام الذكاء الاصطناعي لأغراض خبيثة من قبيل التضليل والاحتيال والخداع والتأثير على الرأي العام. فهل نحن بمأمن من ذكاء اصطناعي مجرد من أي قيود أخلاقية؟ وهل أن الإنسان قادر على إدارة مخاطر الذكاء الاصطناعي والتحكم فيه بشكل كامل؟ هذه الأسئلة وغيرها يطرحها وسيم الدالي على ضيفه الخبير في التحول الرقمي والذكاء الاصطناعي عامر ناصر الدين. مشاركة : لقراءة المزيد حول نفس المواضيع: اقتصاد الذكاء الاصطناعي تقنية التعرف على الوجه...
ذكرت وسائل إعلام محلية نقلا عن شرطة مدينة هونغ كونغ أن محتالين سرقوا نحو 25 مليون دولار بعد أن استخدموا تكنولوجيا التزييف العميق لخداع موظف في فرع شركة متعددة الجنسيات، بحسب ما أورده موقع بيزنس إنسايدر. وتلقى أحد الموظفين في يناير/كانون الثاني، في القسم المالي بالشركة رسالة من شخص قال فيه إنه المدير المالي للشركة ومقرها المملكة المتحدة، حسبما ذكرت صحيفة "سوث شاينا مورنينغ بوست" (South China Morning Post) نقلا عن الشرطة. وأجرى الموظف بعد ذلك مكالمة فيديو مع المدير المالي للشركة وموظفين آخرين في الشركة، وتبين أن جميعها كانت تستخدم تكنولوجيا التزييف العميق. وبناء على التعليمات التي حصلوا عليها خلال تلك المكالمة، قام الموظف بتحويل 200 مليون دولار هونغ كونغي، ما يعادل 25.6 مليون دولار أميركي، إلى حسابات بنكية...
يستمر الممثلون السيئون في استخدام التزييف العميق في كل شيء بدءًا من انتحال شخصية المشاهير وحتى الاحتيال على الأشخاص للحصول على الأموال. وآخر مثال على ذلك هو ما حدث في هونج كونج، حيث تم خداع موظف مالي في شركة متعددة الجنسيات لم يتم الكشف عنها لتحويل 200 مليون دولار هونج كونج (25.6 مليون دولار).وفقًا لشرطة هونج كونج، اتصل المحتالون بالموظف متظاهرين بأنه المدير المالي للشركة ومقره المملكة المتحدة. لقد كان متشككًا في البداية، لأن البريد الإلكتروني يدعو إلى معاملات سرية، ولكن هذا هو المكان الذي ظهرت فيه التزييفات العميقة. حضر العامل مكالمة فيديو مع "المدير المالي" وأعضاء آخرين معروفين في الشركة. في الواقع، كل "شخص" تفاعل معه كان مزيفًا عميقًا - من المحتمل أنه تم إنشاؤه باستخدام مقاطع فيديو عامة للأفراد...
ليس أمراً بسيطاً أو عرضياً أن يستيقظ شخص ما ليجد صوراً عارية له، لم يسبق له أن التقطها، تغزو مواقع التواصل الاجتماعي وتحقق ملايين المتابعات، أو أن يتلقى هذه الصور في بريده مع تهديدات بالنشر بهدف الابتزاز المالي أو الجنسي. وفي الوقت نفسه، ما عاد هذا السيناريو مستبعداً، ولا أحد بمنأى عنه. شكلت قضية نشر الصور الإباحية المزيفة لنجمة البوب الأميركية تايلور سويفت الأسبوع الماضي، جرس إنذار عالميا نبه إلى المخاطر التي بات يمكن أن تنتج عن استخدام الذكاء الاصطناعي التوليدي في سياق إنتاج محتوى التزييف العميق، ولاسيما الإباحي منه، وعلى رأسها هاجس الابتزاز الجنسي، الذي عادة ما يطال الفئات الأضعف في المجتمع، كالنساء والأطفال. كما طرح تساؤلات جوهرية حول مستقبل خصوصية مستخدمي الإنترنت في ظل هذه القدرات التوليدية الآخذة...
◄ التقنيات الحديثة قادرة على إنتاج محتوى مشابه للواقع الحقيقي ◄ انتشار أدوات الذكاء الاصطناعي ساهم في صناعة التزييف ◄ إسرائيل تتعمد تزييف الحقائق للتأثير على المجتمع الدولي ◄ جهود دولية لإقرار ضوابط وأخلاقيات لاستخدام الذكاء الاصطناعي الرؤية- سارة العبرية بات الاعتماد على التقنيات الحديثة وأدوات الذكاء الاصطناعي أمرا واقعيا في مختلف المجالات ولدى جميع الشركات والمؤسسات، ومع التطور الذي شهده العالم في السنوات الأخيرة استُخدمت هذه الأدوات والتقنيات في جوانب سلبية سواء على مستوى الأفراد أو الدول، ليظهر مصطلح "التزييف العميق deepfake" الذي قد يستهدف أشخاصًا أو دولا لتحقيق أهداف شخصية أو الترويج لروايات غير حقيقية. أساليب التزييف التزييف العميق هو التلاعب بالصور والأصوات والفيديوهات لإنشاء هويات وعناصر جديدة غير حقيقية، ونشأ هذا الأسلوب قبل...
يعمل مجلس النواب الأمريكي تشريع قانون جديد يعتبر بموجبه مشاركة الصور الإباحية المفبركة باستخدام تقنية الذكاء الاصطناعي جريمة فيدرالية. وأعاد النائب الديمقراطي جوزيف موريل طرح مقترح القانون الجديد المعروف باسم "قانون منع التزييف العميق للصور الحميمة" (Deep Fake) في مجلس النواب، بعد أن أضاف له نائب آخر وهو الجمهوري توم كين، كراع مشارك للقانون. إقرأ المزيد دليل جديد يساعد على كشف الفيديوهات المفبركة وتأتي هذه الخطوة من قبل الحزبين ردا على حادث وقع في مدرسة ثانوية بولاية نيوجيرسي جرى من خلالها مشاركة صور عارية تم إنشاؤها بواسطة الذكاء الاصطناعي لطالبات من دون موافقتهن. ويمكن لبرامج تعمل بالذكاء الاصطناعي أن تصمم صورا عارية بناء على تحليلات للصور العادية المنشورة على مواقع التواصل الاجتماعي مما يجعلها تبدو وكأنها حقيقية بدرجة كبيرة ومتناسقة.ويؤكد خبراء...
يعتزم مجلس النواب الأميركي تشريع قانون جديد يعتبر بموجبه مشاركة الصور الإباحية المفبركة باستخدام تقنية الذكاء الاصطناعي جريمة فيدرالية. وأعاد النائب الديمقراطي جوزيف موريل، الثلاثاء، طرح مقترح القانون الجديد المعروف باسم "قانون منع التزييف العميق للصور الحميمة"، في مجلس النواب، بعد أن أضاف له نائب آخر وهو الجمهوري توم كين، كراعٍ مشارك للقانون. وتأتي هذه الخطوة من قبل الحزبين ردا على حادث وقع في مدرسة ثانوية بولاية نيوجيرزي جرى من خلالها مشاركة صور عارية تم إنشاؤها بواسطة الذكاء الاصطناعي لطالبات من دون موافقتهن. ويمكن لبرامج تعمل بالذكاء الاصطناعي، أن تصمم صورا عارية بناء على تحليلات للصور العادية المنشورة على مواقع التواصل الاجتماعي، مما يجعلها تبدو وكأنها حقيقية بدرجة كبيرة ومتناسقة. ويؤكد خبراء الذكاء الاصطناعي أن هناك الآن العشرات من البرامج...
وفقاً لاستطلاع أجرته شركة كاسبرسكي عن رقمنة الأعمال، قال 57% من الموظفين في مصر أنهم يستطيعون التمييز بين صورة مولدة بتقنية التزييف العميق وصورة حقيقية. وعلى الرغم من هذا الادعاء، استطاع 28% من الموظفين في مصر تمييز الصور الحقيقية عن الصور المولدة بالذكاء الاصطناعي ضمن اختبار خضعوا له خلال الاستطلاع. هذا يعني أن الشركات معرضة للخداع باستخدام مثل هذه الحيل التي تتضمن استخدام المجرمين السيبرانيين للصور المولدة بالذكاء الاصطناعي بعدة طرق لتنفيذ إجراءات غير قانونية. فيمكن للمجرمين استخدام التزييف العميق لإنشاء مقاطع فيديو أو صور مزيفة للاحتيال على الأفراد أو المؤسسات. على سبيل المثال، يمكن للمجرمين السيبرانيين إنشاء مقطع فيديو مزيف لرئيس تنفيذي يطلب تحويلاً مصرفياً أو يمنح الإذن لتحويل مبلغ ما، مما يمكنهم من سرقة أموال الشركة. كما يمكنهم توليد...
لا تقدم تايلور سويفت منتجات Le Creuset مجانًا في إعلانات وسائل التواصل الاجتماعي - على الرغم من أن التزييف العميق لصوتها يريدك أن تصدق خلاف ذلك. ظهرت سلسلة من المنشورات مؤخرًا على TikTok وفي مكتبة إعلانات Meta تدعي أنها تعرض Swift وهي تقدم مجموعات أدوات طهي Le Creuset مجانًا، حسبما ذكرت صحيفة نيويورك تايمز. تضمنت الإعلانات مقاطع حيث كانت Swift بالقرب من منتجات Le Creuset واستخدمت نسخة اصطناعية من صوتها. استخدم المحتالون الذكاء الاصطناعي لجعل الصوت المستنسخ يخاطب معجبيها، "Swifties"، ويدلي بملاحظات صغيرة أخرى.قادت هذه المنشورات الأطراف المهتمة إلى نسخ مزيفة من مواقع مثل The Food Network بمقالات وشهادات ملفقة حول Le Creuset. ثم طُلب من المتسوقين فقط تقديم مبلغ 9.96 دولارًا للشحن للحصول على منتجاتهم المجانية. ومن غير المستغرب...
على الرغم من أن عام 2023 كان عام تغيير قواعد اللعبة بالنسبة للذكاء الاصطناعي، إلا أنه كان مجرد البداية، حيث من المقرر أن يبدأ عام 2024 بمجموعة من التطورات المخيفة في مجال الذكاء الاصطناعي والتي من أبرزها التزييف العميق الأكثر واقعية والحرب.يقول العلماء إن الذكاء الاصطناعي هذا العام قد يؤدي وظائف معينة بشكل أفضل من معظم البشر. ويمكن أيضًا تسليحه واستخدامه، على سبيل المثال، لإنشاء مسببات الأمراض، أو شن هجمات إلكترونية ضخمة.وفقًا لتقرير على موقع Live Science، إن عام 2024 ربما سيكون عام الاختراق بالنسبة للذكاء الاصطناعي حيث أنه من المتوقع أن يفعل ثلاث أمور مخيفة خلال الأشهر المقبلة.التزييف الواقعي العميق وتزوير الانتخاباتأحد التهديدات السيبرانية الأكثر إلحاحًا في مجال الذكاء الاصطناعي هي تهديد التزييف العميق للواقع إلى الحد الذي يجعلك تشعر...
تلقت الأسواق المالية إنذارًا بعد كشف “كاسبرسكي” عن عمليات احتيال متطورة تستهدف المستثمرين في قطاع الغاز الطبيعي.وأوضحت الشركة الرائدة في الأمن الإلكتروني كيف تم استخدام تقنيات التزييف العميق ومقاطع فيديو مزورة لاستدراج ضحايا من المستثمرين عبر تطبيقات محمولة ومنصات ترويجية.ونصحت الشركة المستثمرين بتوخي الحيطة والحذر، مؤكدةً أهمية الاعتماد على مصادر موثوقة واستخدام حلول أمنية متقدمة للحماية من مثل هذه المخاطر السيبرانية.يقول ديمتري كالينين، خبير الأمن السيبراني في الشركة: “لا تشكل عمليات الاحتيال في حد ذاتها تحدياً جديداً، إلا أن استخدام مقاطع الفيديو المولدة بالتزييف العميق لقادة عالميين، ونشر التقارير الإخبارية المزيفة بلغات مختلفة، وانتشار استخدام الحملات الإعلانية على نطاق واسع يمثل تحولاً ملحوظاً في الاستراتيجيات الاحتيالية”. وأضاف: “على الرغم من أننا واجهنا مثل تلك العمليات من الاحتيال في الماضي، إلا أن...
دبي: «الخليج» نظم المركز الدولي للعلوم الجنائية في الإدارة العامة للأدلة الجنائية وعلم الجريمة في شرطة دبي دورة مُتقدمة في مجال التعرف على طرق وآليات «التزييف العميق»، المعروفة عالمياً باسم «Deep Fake»، وذلك في إطار الجهود المُستمرة على مواكبة كافة العلوم والتقنيات والابتكارات الحديثة. وأكد اللواء أحمد بن غليطة مدير الإدارة العامة للأدلة الجنائية وعلم الجريمة أن الدورة تأتي في إطار حرص القيادة العامة لشرطة دبي على العمل على مواكبة كافة التطورات العلمية في مختلف المجالات واستخدامها في العلوم الشرطية. ..وتوعي بمبادرة «التزامكم سعادة» نظمت القيادة العامة لشرطة دبي، مُمثلة في مبادرة «التزامكم سعادة»، برنامجاً توعوياً في مدرسة حمدان بن راشد بدبي، بهدف التوعية بالتزامات الجمهور الرياضي في الملاعب التي ينص عليها القانون الاتحادي رقم 8 لسنة 2014 بشأن أمن...
نظم المركز الدولي للعلوم الجنائية في الإدارة العامة للأدلة الجنائية وعلم الجريمة في شرطة دبي، دورة مُتقدمة في مجال التعرف على طرق وآليات “التزييف العميق”، المعروفة عالمياً باسم “Deep Fake”، وذلك في إطار الجهود المُستمرة على مواكبة كافة العلوم والتقنيات والابتكارات الحديثة، وتحقيق الأسبقية في هذه العلوم للمساهمة في حل القضايا وتقديم دليل علمي ومادي إلى النيابة العامة والجهات القضائية المُختصة لتحقيق العدالة في الجرائم ذات الصلة.وأكد سعادة اللواء أحمد بن غليطة مدير الإدارة العامة للأدلة الجنائية وعلم الجريمة، أن الدورة تأتي في إطار حرص القيادة العامة لشرطة دبي على مواكبة كافة التطورات العلمية في مختلف المجالات واستخدامها في كافة العلوم الشرطية من خلال الكوادر المواطنة المؤهلة والمدربة وفق أعلى المستويات، وذلك تحقيقاً لتطلعات شرطة دبي وخطتها في أن تكون...
تزداد المخاوف بشأن قدرة تقنية التزييف العميق على نشر الأخبار المضللة من خلال استغلال الذكاء الاصطناعي لصنع محتوى زائف، يهدف لإثارة مشاعر الغضب لدى الجمهور بالتزامن مع الحرب بين إسرائيل وحماس في غزة. وتنتشر على مواقع التواصل الاجتماعي مقاطع فيديو وصور يدّعي ناشروها أنها تظهر على سبيل المثال مشاهد القتل والدمار في غزة، وأخرى تتحدث بالعكس من ذلك أن صور الجثث لممثلين يدعون الموت من أجل جذب التعاطف وتعميق مشاعر الكراهية. وأظهرت صور الحرب بين إسرائيل وحماس بشكل واضح إمكانات الذكاء الاصطناعي كأداة دعائية مضللة تستخدم لخلق صور يحاول ناشروها الادعاء بأنها واقعية. ومنذ أن بدأت الحرب الشهر الماضي، تم استخدام الصور المعدلة رقميا والمنتشرة على وسائل التواصل الاجتماعي لتقديم ادعاءات كاذبة بشأن المسؤولية عن الضحايا أو لخداع الناس بشأن...
شارك المتحدث باسم الكرملين دميتري بيسكوف في اختبار تقنية "التزييف العميق" (ديب فايك) على هامش مؤتمر "رحلة الذكاء الاصطناعي" المنعقد في موسكو. وأثناء الاختبار أعطى الذكاء الإصطناعي لدميتري بيسكوف وجه الملياردير الأمريكي إيلون ماسك باستخدام الشبكة العصبية المزودة بتقنية "التزييف العميق". المصدر: رابتلي
فاجأت فرقة The Beatles الموسيقية الشهيرة ملايين المعجبين عندما أصدرت أغنية جديدة لها حتى بعد وفاة عدد من أعضائها، وذلك بفضل قدرات الذكاء الاصطناعي، الذي استخدمته الفرقة لتحسين جودة مقاطع صوتية قديمة للأعضاء الراحلين ودمجها في الأغنية الجديدة. وبينما تسببت قدرات الذكاء الاصطناعي في التزييف العميق بعض الفرح في هذه الحالة، لا يزال هناك جانب مظلم وخطر التزييف الصوتي العميق والصور. لحسن الحظ، لا يتمتع مثل هذا المحتوى المزيف (والأدوات المستخدمة في صنعه) بمستوى تطور أو انتشار كبير حالياً. ومع ذلك، تبقى إمكانية استخدامه في مخططات الاحتيال عالية للغاية. فتقنية التزييف العميق دائمة التطور، ولا تكف عن التقدم.ما هي قدرات التزييف العميق للصوت؟عرضت شركة OpenAI مؤخراً نموذج واجهة برمجة تطبيقات للصوت يمكنه توليد أصوات حديث وقراءة بشرية للنصوص المُدخلة. وحتى الآن،...
ينظم مركز تقييم واعتماد هندسة البرمجيات التابع لهيئة تنمية صناعة تكنولوجيا المعلومات (إيتيدا) ندوة توعوية حول الذكاء الاصطناعي التوليدي من منظور آخر لاكتشاف تقنية التزييف العميق، يوم 6 نوفمبر بمركز إبداع مصر الرقمية بالجيزة، ضمن سلسلة الندوات التوعوية SECC Tech Nights.وتناقش الندوة كيف يستخدم المزورون الذكاء الاصطناعي التوليدي لإنشاء مقاطع فيديو مُزيفة، وتناقش كيفية الاستفادة من تقنية الذكاء الاصطناعي لاكتشاف مقاطع الفيديو المُزيفة هذه، وذلك لأن الذكاء الاصطناعي التطبيقي يمكن تطبيقه في مجالات مختلفة بخلاف إنشاء نصوص.كما تسلط الندوة الضوء على آلية عمل الذكاء الاصطناعي التوليدي وتطبيقاته، وكذلك تغطي تقنيات مختلفة لاكتشاف المحتوى الذي يتم إنشاؤه بواسطة أداوت الذكاء الاصطناعي التوليدي. يمكن للذكاء الاصطناعي التوليدي إنشاء مجموعة مختلفة من البيانات، بما في ذلك الصور ومقاطع الفيديو والصوت والنصوص والنماذج ثلاثية الأبعاد...
تنتشر على مواقع التواصل الاجتماعي صور ومقاطع فيديو للحروب خاصة منذ بدء شن قوات الاحتلال الاسرائيلي هجمات عنيفة ضد المدنيين في قطاع غزة للأسبوع الرابع على التوالي . شاهد | إنزال بحري إسرائيلي في قطاع غزة وتصدي حماس القومي لحقوق الإنسان : خرق صارخ للقانون الدولي في غزة والضفة الغربية وقوَّضت تقنية «التزييف العميق deepfake» ثقة الأشخاص في مصداقية الصور والفيديوهات التي يتم التقاطها في مناطق الحروب، وفقاً لما أكدته دراسة جديدة هي الأولى من نوعها في هذا الشأن.وتقنية «التزييف العميق» هي عبارة عن برنامج إلكتروني يتيح للنّاس تبديل الوجوه، والأصوات، وغيرها من السمات لابتكار محتوى رقمي مزوّر.ووفقاً لصحيفة «إيفينينغ ستاندرد» البريطانية، فقد حللت الدراسة الجديدة، التي تحمل عنوان «نوع جديد من الأسلحة في الحرب الدعائية»، ما يقرب...
تحقيق: محمد إبراهيم كيف ستكون ردة فعلك إذا فوجئت بظهورك في تقرير مصور بإحدى القنوات التلفزيونية دون أن تعرف عنه شيء، أو حتى تم استغلال صوتك ووجهك في محتوى مجهول؟ وماذا لو شاهدت نفسك وأنت تسير في شوارع بلد لم تذهب إليه من قبل؟ العقل والمنطق يرفضان تلك التساؤلات لاستحالة حدوثها، لكن في عصر التقنيات المتقدمة لا يوجد مستحيل؛ إذ إن نبرة صوتك وملامح وجهك وتعبيراتك، أصبحت أهدافاً سهلة لتقنيات وخوارزميات التزييف العميق «deepfake»، بقدراته التي طمس الخطوط الفاصلة بين الواقع والتلفيق. «الخليج» تكشف في هذا التحقيق أشهر مواقع التزييف، وتستعين بالخبراء للتعرف إلى هذا العالم المعقد وتداعياته وآثاره الاجتماعية، وكذلك استراتيجيات الوقاية منه. منذ سنوات قليلة انتشرت تقنية التزييف العميق، لكنها انتشرت بسرعة فائقة، تتناسب مع سرعة التطور التكنولوجي...
هل لكم أن تتخيلوا أنّ صورة هذه الفتاة مركبة كليا بواسطة الذكاء الاصطناعي.ربما لم يعد هذا الامر غريبا على أذهان الناس، ولكن هل تعلمون انّه وعبر الذكاء الاصطناعي وليس من خلال التقنيات المعروفة القديمة، أصبح بالامكان استخدام برمجيات توليدية للتزييف العميق، او ما بات يُعرف بـ (Deepfake)كاحدى الظواهر المثيرة للجدل والتي أصبحت تشكل قلقا للعالم. وهنا نتحدث تحديدا عن برمجيات التوليدية للتزييف والتي تعمل على توليف الصور الاباحية لاي شخص، بمجرد أن يتم اختيار صورة من مواقع التواصل الاجتماعي او اي مصدر واعطائها للبرنامج المعالج عبر احدى تقنيات الذكاء الاصطناعي، وهو كفيل باعطاء الشخص ما يريد بشكل مرعب وحقيقي، وأكثر ما يخيف هو امكانية تعرية مجموعة اشخاص في صورة واحدة. برمجيات خطيرة باتت هذه البرمجيات منتشرة بشكل واسع،...
قال إتحاد التأمين المصري إن الذكاء الاصطناعى «Artificial Intelligence» يشكل فرصة لآلاف الأشخاص حول العالم، لتسهيل العديد من مهامهم اليومية ، لكنه بالرغم من الفوائد والمميزات التى يقدمها الذكاء الاصطناعى للأفراد، فإن الجانب المظلم لتلك التكنولوجيا المتقدمة ظهر أسرع من المتوقع، وبدأ يشكل خطرًا على الأفراد والمجتمعات والمؤسسات وعلى رأسهم قطاع التأمين ، عبر تقنيات «التزييف العميق».التزييف العميقوأوضح فى تقرير حديث أن تقنية التزييف العميق تقومُ على صنعِ فيديوهات مزيّفة عبر برامج الحاسوب من خِلال برامج الذكاء الاصطناعي. حيث تقومُ هذهِ التقنيّة على محاولة دمجِ عددٍ من الصور ومقاطع الفيديو لشخصيّةٍ ما من أجلِ إنتاج مقطع فيديو جديد – باستخدام تقنية التعلم الآلي – قد يبدو للوهلة الأولى أنه حقيقي لكنّه في واقع الأمر مُزيّف.كما أشارت التقرير إلى تقنيات التزييف...
ألقت شرطة هونغ كونغ القبض على 6 أشخاص بتهمة استخدام الذكاء الاصطناعي في التزييف العميق لإنشاء صور لعملية احتيال على البنوك لنيل قروض بأسماء أشخاص حقيقيين. وذكرت شبكة "فوكس نيوز" الأمريكية، أنه وجهت للمحتالين الستة تهم بتزوير الصور والمستندات لخداع البنوك والمقرضين. إقرأ المزيد ما حجم الدور الذي يمكن أن يلعبه الذكاء الاصطناعي في تحليل التزييف الرقمي أثناء الحروب؟ وقال ديكين كو تيك، المشرف على مكتب الأمن السيبراني والجرائم التكنولوجية، إن العصابة استخدمت برنامج الذكاء الاصطناعي لتغيير الوجه المعروف باسم تقنية التزييف العميق، لتقديم طلب للحصول على قروض عبر الإنترنت من المؤسسات المالية.وأضاف ديكين كو تيك "سنواصل العمل بنشاط لتقديم مجرمي الإنترنت المختبئين في العالم الرقمي إلى العدالة".وتتهم المجموعة باستخدام بطاقات الهوية المسروقة والمستندات المصطنعة لتقديم طلبات الحصول على قروض...
حذر خبراء متخصصون في الأمن السيبراني من خطورة المكالمات الهاتفية التي تتم عبر الذكاء الاصطناعي والتي يتم فيها انتحال شخصيات قريبة من الضحايا المستهدفين، يمكن من خلالها سرقة الحسابات البنكية ومعلومات حساسة للغاية. وبحسب تقرير من صحيفة “ذا صن” البريطانية فإن تقنية Deepfake والمعروفة باسم تقنية التزييف العميق والتي تم إنشاؤها من خلال الذكاء الاصطناعي أتاحت انتحال الأشخاص عبر المكالمات الهاتفية. وفقا للصحيفة فإن التقنية يتم استخدامها في الوقت الحالي من قبل محتالين لانتحال شخصيات قريبة من الشخص المستهدف سرقته أو الحصول على معلوماته عن طريق محاكاة صوتهم. وأوضحت الصحيفة أنه قد يتم انتحال شخصية رئيسك في العمل، أو حد أفراد عائلتك عن طريق محاكاة الصوت، ومن خلال القيام بذلك، يمكنهم جعل الأمر مقنعًا للغاية عندما يطلبون منك تحويل أموال أو تقديم معلومات أخرى...
استعرض الاتحاد المصري للتأمين عبر نشرته الأسبوعية موضوع "التحديات التى يواجهها التأمين فى ظل عمليات التزييف العميق"، باعتباره أحد الجوانب المظلمة لتقنيات الذكاء الاصطناعي، والذي بدأ يشكل خطرًا على الأفراد والمجتمعات والمؤسسات. وعرف اتحاد التأمين التزييف العميق بأنه تقنية تقومُ بصنعِ فيديوهات مزيّفة عبر برامج الذكاء الاصطناعي في الحاسوب، حيث تتولي دمجِ عددٍ من الصور ومقاطع الفيديو لشخصيّةٍ ما من أجلِ إنتاج مقطع فيديو جديد - باستخدام تقنية التعلم الآلي - وهو ما يبدو للوهلة الأولى أنه حقيقي لكنّه في واقع الأمر مُزيّف. وأشارت النشرة إلى تقنيات التزييف الصوتي وكيفية الاحتيال باستخدام هذه التقنية، بالإضافة إلى المخاطر التي يتسبب فيها التزييف العميق، مثل، نشر التضليل والدعاية الكاذبة، الإضرار بالسمعة، اختراق الأمان والخصوصية. وتولت النشرة مناقشة التحديات التي تواجهها شركات التأمين...
يستعرض الاتحاد المصري للتأمين، من خلال نشرته هذا الأسبوع، التحديات التي يواجهها التأمين في ظل عمليات التزييف العميق، حيثُ يشكل الذكاء الاصطناعى «Artificial Intelligence» فرصة لآلاف الأشخاص حول العالم، لتسهيل العديد من مهامهم اليومية ، لكنه بالرغم من الفوائد والمميزات التى يقدمها الذكاء الاصطناعي للأفراد، فإن الجانب المظلم لتلك التكنولوجيا المتقدمة ظهر أسرع من المتوقع، وبدأ يشكل خطرًا على الأفراد والمجتمعات والمؤسسات، عبر تقنيات «التزييف العميق» التزييف العميقهي تقنية تقومُ على صنعِ فيديوهات مزيّفة عبر برامج الحاسوب من خِلال برامج الذكاء الاصطناعي. وتقومُ هذهِ التقنيّة على محاولة دمجِ عددٍ من الصور ومقاطع الفيديو لشخصيّةٍ ما من أجلِ إنتاج مقطع فيديو جديد – باستخدام تقنية التعلم الآلي – قد يبدو للوهلة الأولى أنه حقيقي لكنّه في واقع الأمر مُزيّف. كما أشارت...
فى الوقت الذى يستخدم فيه البعض تقنيات الذكاء الاصطناعى، ومنها تقنية «التزييف العميق» فى شرح العلوم وتبسيطها وخلق الإبداع الفنى وتقديم الفائدة للآخرين، هناك من يستخدمها فى تزييف الحقائق ونشر الأكاذيب لتحقيق أهداف ومصالح شخصية أو إلحاق الضرر بالآخرين من خلال تشويه سمعتهم وابتزازهم.. فما هذه التقنية؟ وكيف تتم؟ وكيف يمكن كشفها ومواجهتها؟ بحسب توضيح خضر غليون، الخبير الدولى فى الذكاء الاصطناعى، فإن «التزييف العميق» أو «Deepfake» هى تقنية متقدمة مثيرة للجدل، يمكنها دمج وتعديل الصور ومقاطع الفيديو والتسجيلات الصوتية بطريقة احترافية للغاية، بحيث يصعب على الشخص العادى تمييزها عن الأصلية، وتعتمد على استخدام الخوارزميات المعقدة وتقنيات الذكاء الاصطناعى، مثل الشبكات العصبية الاصطناعية والتعلم العميق، لاستنساخ أنماط الوجه البشرى وحركاته ونبرات الصوت بدقة متناهية، ما يتيح إمكانية تزييف مقاطع...
تحدثت الإعلامية عزة مصطفى، عن الذكاء الاصطناعي، وانتشار جرائم تركيب الصور والفيديوهات باستخدام برامج الفوتوشوب خاصة مع ظهور تقنيات الذكاء الاصطناعي، التي يمكنها التزييف العميق وإنتاج فيديوهات وصور لأشخاص ليس لهم علاقة بالمحتوى المصنوع.أضافت عزة مصطفى خلال برنامج «صالة التحرير» على قناة صدى البلد: «لازم ناخد بالنا كويس، لأن في برامج كتيرة اسمها التزييف العميق، ودي مشكلة كبيرة مقابلانا، وهاتقبلنا كتير فيما يتعلق بالأمن والسلم المجتمعي، لأن الذكاء الاصطناعي المخيف أصبح خطر بيلاحق البشر». عمليات الابتزاز الإلكتروني وحذرت عزة مصطفى من خطورة استخدم الذكاء الاصطناعي في عمليات الإبتزاز الإلكتروني وإنتاج المحتوى المفبرك والمعدل بغرض طلب فدية أو أموال من الآخرين واختراق خصوصيتهم.
أكدت الإعلامية عزة مصطفى، انتشار جرائم تركيب الصور والفيديوهات باستخدام برامج الفوتوشوب، خاصة مع ظهور تقنيات الذكاء الاصطناعي، التي يمكنها التزييف العميق وإنتاج فيديوهات وصور لأشخاص ليس لهم علاقة بالمحتوى المصنوع. تزييف الفيديوهات بالذكاء الاصطناعي وأضافت مصطفى، خلال برنامج «صالة التحرير» على قناة صدى البلد: «لازم ناخد بالنا كويس، لأن في برامج كتيرة اسمها التزييف العميق، ودي مشكلة كبيرة مقابلانا، وهاتقبلنا كتير فيما يتعلق بالأمن والسلم المجتمعي، لأن الذكاء الاصطناعي المخيف أصبح خطر بيلاحق البشر». استخدام الذكاء الاصطناعي وحذرت عزة مصطفى من خطورة استخدام الذكاء الاصطناعي في عمليات الابتزاز الإلكتروني وإنتاج المحتوى المفبرك والمعدل بغرض طلب فدية أو أموال من الآخرين واختراق خصوصيتهم.
أكدت الإعلامية عزة مصطفى، انتشار جرائم تركيب الصور والفيديوهات باستخدام برامج الفوتوشوب خاصة مع ظهور تقنيات الذكاء الاصطناعي، التي يمكنها التزييف العميق وإنتاج فيديوهات وصور لأشخاص ليس لهم علاقة بالمحتوى المصنوع.الذكاء الاصطناعي أضافت عزة مصطفى، خلال برنامج «صالة التحرير» على قناة صدى البلد: «لازم ناخد بالنا كويس، لأن في برامج كتيرة اسمها التزييف العميق، ودي مشكلة كبيرة مقابلانا، وهاتقبلنا كتير فيما يتعلق بالأمن والسلم المجتمعي، لأن الذكاء الاصطناعي المخيف أصبح خطر بيلاحق البشر».وحذرت عزة مصطفى من خطورة استخدم الذكاء الاصطناعي في عمليات الابتزاز الإلكتروني وإنتاج المحتوى المفبرك والمعدل بغرض طلب فدية أو أموال من الآخرين واختراق خصوصيتهم.https://www.youtube.com/watch?v=bAfh9bKNQo0
حذرت الإعلامية عزة مصطفى، من خطورة استخدم الذكاء الاصطناعي في عمليات الابتزاز الإلكتروني وإنتاج المحتوى المفبرك والمعدل بغرض طلب فدية أو أموال من الآخرين واختراق خصوصيتهم. رابط url.. شاهد الان مباراة الهلال والنصر بث مباشر دون تقطيع SSC.. رابط مشاهدة مباراة الهلال مباشرة رابط URL بث مباشر مباراة الهلال ضد النصر تويتر: يلا كورة لايف الآن مشاهدة مباراة النصر والهلال بث مباشر اليوم يلا شوت [ نهائي البطولة العربية ] انتشار لجرائم تركيب الصور والفيديوهات وقالت مصطفى"، خلال تقديمها برنامج "صالة التحرير" على قناة صدى البلد إن هناك انتشار لجرائم تركيب الصور والفيديوهات باستخدام برامج الفوتوشوب خاصة مع ظهور تقنيات الذكاء الاصطناعي، التي يمكنها التزييف العميق وإنتاج فيديوهات وصور لأشخاص ليس لهم علاقة بالمحتوى المصنوع. لازم ناخد بالنا كويسوتابعت: "لازم ناخد بالنا...
تكنولوجيا، إنتل تزعم امتلاكها الأداة الأمثل لكشف الفيديوهات المزيفة،تستخدم إنتل تدفق الدم لكشف التزييف العميق بي بي سي الأحد 23 يوليو 2023 .،عبر صحافة الإمارات، حيث يهتم الكثير من الناس بمشاهدة ومتابعه الاخبار، وتصدر خبر إنتل تزعم امتلاكها الأداة الأمثل لكشف الفيديوهات المزيفة، محركات البحث العالمية و نتابع معكم تفاصيل ومعلوماته كما وردت الينا والان إلى التفاصيل. إنتل تزعم امتلاكها الأداة الأمثل لكشف الفيديوهات... تستخدم إنتل تدفق الدم لكشف التزييف العميق (بي بي سي) الأحد 23 يوليو 2023 / 15:25 في مارس (آذار) من العام الماضي، ظهر مقطع فيديو يظهر الرئيس فلاديمير زيلينسكي وهو يطلب من شعب أوكرانيا إلقاء أسلحتهم والاستسلام لروسيا. وكان التزييف العميق واضحاً جداً، وهو نوع من مقاطع الفيديو المزيفة التي تستخدم الذكاء الاصطناعي لمبادلة...
تكنولوجيا، لماذا يتبنى بعض المشاهير تقنية التزييف العميق للذكاء الاصطناعي؟،أرشيف الأربعاء 19 يوليو 2023 17 40يبدو أن بعض المشاهير ومن .،عبر صحافة الإمارات، حيث يهتم الكثير من الناس بمشاهدة ومتابعه الاخبار، وتصدر خبر لماذا يتبنى بعض المشاهير تقنية التزييف العميق للذكاء الاصطناعي؟، محركات البحث العالمية و نتابع معكم تفاصيل ومعلوماته كما وردت الينا والان إلى التفاصيل. لماذا يتبنى بعض المشاهير تقنية التزييف العميق للذكاء... (أرشيف) الأربعاء 19 يوليو 2023 / 17:40 يبدو أن بعض المشاهير ومن بينهم الممثلة السنغافورية وعارضة الأزياء جيمي يو ليس لديهم مشكلة مع التزييف العميق. وفي الواقع فقد شاركت يو في هذه التقنية. وكانت يو تتحدث إلى بي بي سي في اليوم التالي لإصدار الجزء الجديد من برنامج تشارلي بروكر على نتفليكس. وفي الحلقة...