لأن أمنك الإلكتروني سيكون في خطر شديد خلال أعوام قليلة فقط
تاريخ النشر: 28th, August 2023 GMT
أهلا بك، صباح يوم جميل تقرر فيه أن الوقت قد حان لتعمل من مقهى "ستارباكس"، وتطلب مشروبك المفضل من هناك. تجلس في المكان وتجهز حاسوبك المحمول لتبدأ في مهام العمل، وإرسال بريد إلكتروني مهم لمديرك تخبره فيه بأنك تحتاج إلى إجازة قريبا، بالطبع كان يمكنك أن تكتب تلك الرسالة من المنزل، لكن هذا ليس موضوعنا على كل حال، المهم الآن أن هناك خطرا يتربص بك في ركن المقهى.
عندما بدأت في الكتابة على لوحة مفاتيح الحاسوب المحمول، كان هناك شخص يجلس بجوارك بدأ في معرفة ما الذي تكتبه عبر ضغطات أصابعك على أزرار لوحة المفاتيح. لا، هو ليس ساحرا بالتأكيد، لكنه يستخدم ميكروفون هاتفه الذكي ليسجل أصوات الضغط على الأزرار، ثم باستخدام نموذج ذكاء اصطناعي يمكنه تفسير تلك الأصوات إلى كلمات، ليعرف تحديدا ما تكتبه بدقة قد تصل إلى 95%.
في ظروف وملابسات أخرى، قد يبدو هذا السيناريو خارجا من أحد مشاهد أفلام التجسس الشهيرة لجيمس بوند، لكن دعنا نؤكد أنه وارد الحدوث قريبا، لأن تلك التقنيات بدأت فعلا في الظهور والانتشار يوما بعد يوم.
نموذج يتنصت
تمكَّن فريق من الباحثين، من ثلاث جامعات بريطانية، من تدريب نموذج ذكاء اصطناعي يمكنه سرقة البيانات بمعرفة الصوت المميز للضغطات على لوحة المفاتيح بدقة تصل إلى 95% عند تسجيلها بميكروفون الهاتف الذكي. وعند استخدامهم لتطبيق "زووم" (Zoom)، لتدريب خوارزمية تصنيف الأصوات، انخفضت دقة التنبؤ إلى 93%، وهي تظل بالطبع نسبة نجاح مرتفعة جدا. قد يُستخدم هذا النوع من الهجوم لسرقة كلمات المرور أو لمعرفة معلومات حساسة عبر الرسائل التي يكتبها الشخص أو أثناء حديثه مع الآخرين على جهاز الحاسوب المحمول. (1)
تتمثل الخطوة الأولى في تسجيل الضغطات على لوحة المفاتيح، لأن تلك البيانات مطلوبة لتدريب خوارزمية التنبؤ، ويحدث هذا عبر أي جهاز قريب به ميكروفون أو حتى هاتف الشخص المستهدف الذي ربما أُصيب فعلا ببرمجية خبيثة يمكنها الوصول إلى الميكروفون وتشغيله، أو يمكن ببساطة تسجيل ضغطات المفاتيح أثناء إحدى المكالمات على تطبيق "زووم".
هذا النوع من الهجمات الإلكترونية يُعرف باسم "هجمات القنوات الجانبية" (side-channel attacks)، وهو نوع من استغلال الثغرات الأمنية في النظام، عبر تسريب المعلومات غير المقصود الذي يحدث أثناء عمليات التشغيل المعتادة. (2) مثلا، بدلا من مهاجمة خوارزميات أو بروتوكولات تشفير النظام نفسها مباشرة، تركز تلك الهجمات على استغلال المعلومات المسرّبة أثناء عمل تلك الخوارزميات، التي يمكن أن تتسرب بعدّة طرق مختلفة منها هجمات التوقيت والطاقة وانبعاثات الصوت.
لنبسط الأمر أكثر، دعنا نتخيل أنك تكتب كلمة المرور في أحد المواقع على الإنترنت، وهناك مَن يراقبك، وبدلا من أن يحاول معرفة كلمة المرور نفسها، فإنه يلاحظ الأدلة التي تمنحها له دون قصد وأنت تكتب كلمة المرور. مثلا في هجمات التوقيت، تخيل عند إدخالك كلمة مرور خاطئة، يستغرق الموقع وقتا أطول بقليل للاستجابة مقارنة بالوقت الذي يستغرقه إذا أدخلت الكلمة الصحيحة، بمراقبة اختلاف التوقيت يمكن للمراقب أن يستنتج متى أدخلت كلمة المرور الصحيحة.
وفي هجمات الطاقة، قد تستخدم بعض الأجهزة طاقة أكبر أثناء معالجة كلمة المرور الصحيحة مقارنة بالكلمات الخاطئة، هنا يمكن للمراقب، الذي يملك أدوات متخصصة، قياس استهلاك الطاقة واستنتاج ما إذا كانت كلمة المرور التي أدخلتها صحيحة أم لا.
بينما في الهجمات الصوتية، أثناء كتابة كلمة المرور، قد تُصدر لوحة المفاتيح أصواتا مختلفة قليلا عند الضغط عليها، وهنا يمكن للمراقب، الذي يستمع بعناية لما تكتبه، أن يحاول تخمين كلمة المرور بناء على الأصوات المميزة المرتبطة بكل مفتاح.
على عكس هجمات القنوات الجانبية الأخرى، التي تتطلب شروطا خاصة وتخضع لمعدل تسرّب البيانات والقيود التي تفرضها المسافة، أصبحت الهجمات الصوتية أبسط كثيرا بسبب وفرة الأجهزة التي تملك ميكروفونا يمكنه التقاط الأصوات بجودة عالية. هذا بالطبع بجانب التطورات السريعة في مجال تعلم الآلة، الذي جعل هجمات القنوات الجانبية الصوتية أمرا ممكنا ومتاحا وأكثر خطورة بكثير مما كان مُتصورا في السابق.
سهولة دخول المجال!
عموما، قلل تطور تقنيات الاختراق أكثر، بالاعتماد على الذكاء الاصطناعي وتعلم الآلة والأتمتة، وتوفرها وسهولة استخدامها، من حاجز المهارة المطلوب للدخول إلى عالم الجريمة الإلكتروني؛ لم نعد بحاجة الآن إلى معرفة أمور معقدة، مثل كيفية كتابة كود برمجي واستخدام أدوات وأجهزة ضخمة، لكي ننفذ إحدى الهجمات الإلكترونية وننجح في تنفيذها فعلا. بجانب أن انتشار النماذج اللغوية الكبيرة، وروبوتات المحادثة مثل "شات جي بي تي"، يسهل الأمر أكثر وأكثر، حتى إن هناك تطويرات وتحديثات على تلك النماذج بغرض تدريبها واستخدامها في عمليات الاختراق والقرصنة.
ربما من أشهر تلك التطورات هو تكنيك يُعرف باسم "حقن التعليمات" (prompt injection)، وهي أحد أنواع الهجمات الإلكترونية الجديدة التي تزداد أهميتها وخطورتها نظرا لانتشار الأجيال الجديدة من روبوتات المحادثة في مختلف منتجات وخدمات شركات التقنية الآن. (3)
يعتمد "شات جي بي تي" على تقنيات الذكاء الاصطناعي التوليدي لإنتاج الكلمات والجمل الجديدة، بعد أن تكتب له تعليمات واضحة (Prompts) لتشرح ما الذي تريده من الروبوت. وراء الكواليس، هناك بعض التعليمات الداخلية التي تخبر الروبوت ألا يكون شريرا أو متنمرا أو يُستخدم لأغراض سيئة، لكن تمكن بعض المخترقين من تخطي تلك التعليمات وتجاوزها، من خلال خداع الروبوت تدريجيا ليتبع بعض الأوامر الجديدة، يمكن تشبيه الأمر كأنهم يصرخون عليه فتصيبه الحيرة فيضطر إلى تنفيذ المطلوب. تعمل تلك التقنية ببساطة لأن أنظمة الذكاء الاصطناعي التوليدي لا تميز وتفصل دائما بصورة صحيحة بين تعليمات النظام الداخلية وبين البيانات التي تعالجها.
انتشر هذا النوع من الهجمات منذ إطلاق "شات جي بي تي" في نهاية نوفمبر/تشرين الثاني العام الماضي، إذ استخدمها كثيرون لخداع الروبوت للكشف عن تفاصيل حول كيفية عمله، أو ترديد كلمات مسيئة ومحرجة، أو في بعض الحالات نسيان وظيفته الأساسية والسماح للمخترق بإعادة برمجته لينفذ مهام جديدة. مثلا، يمكن للمخترق أن يطلب منه كتابة أو تعديل كود لإحدى البرمجيات الخبيثة، أو غيرها من الأمور التي كانت معقدة في السابق وكانت تقتصر على أشخاص محددين يملكون المعرفة التقنية اللازمة.
كما أن روبوتات المحادثة ستساعد المخترقين على كتابة رسائل بريد إلكتروني احتيالية أكثر احترافية، عبر تجنب الأخطاء اللغوية والإملائية، وهي الأخطاء التي تسهل اكتشاف تلك الرسائل الاحتيالية في معظم الأحيان. ليس بتجنب الأخطاء الإملائية فقط، لكنه سيمنح رسالة المخترق أيضا بعض المصداقية، بسبب قدرته على تقليد الأساليب المميزة لكتابة بعض الأشخاص. مثلا، إذا تدرب النموذج اللغوي على أسلوب كتابة شخص محدد لرسائل البريد الإلكتروني، فيمكن استخدامه بسهولة لتقليد طريقة كتابة أحد المديرين التنفيذيين لإحدى الشركات، وخداع أحد الموظفين داخل الشركة لتقديم معلومات حساسة، وهذا تحديدا ما فعله بعض المخترقين بتطويرهم وتدريبهم لنماذج لغوية تشبه روبوت "شات جي بي تي" لكنها متخصصة في عمليات القرصنة والاختراق الإلكتروني.
نماذج متخصصة
في شهر يوليو/تموز الماضي، ظهر أكثر من نموذج لغوي يهدف إلى تسهيل عمليات القرصنة، كان أولها هو روبوت "WormGPT"، وهو يعمل بالنموذج اللغوي مفتوح المصدر "GPT-J"، درب المطور الروبوت على مجموعة بيانات مختلفة، مع التركيز على البيانات المتعلقة بالبرمجيات الخبيثة. في الشهر نفسه، ظهر روبوت آخر باسم "FraudGPT"، يروج له المخترقون على "الدارك ويب" (Dark Web) باعتباره "روبوتا حصريا" صُمم للاحتيال والاختراق والقرصنة والجرائم الإلكترونية. (4)
الهدف من وراء تطوير هذا النوع من الروبوتات هو تسهيل عملية كتابة رسائل بريد إلكتروني احتيالية تبدو مقنعة وحقيقية، والأهم أنها مخصصة للشخص المستهدف، وبهذا تزداد فرص نجاح الهجوم الإلكتروني.
لا تتوقف إمكانيات تلك النماذج اللغوية عند تسهيل عملية الكتابة، أو تجنب الأخطاء الإملائية، أو تقليد طريقة كتابة البشر، بل يمكن الاستفادة أيضا من المهارات التحليلية لتعلم الآلة في تحديد مَن هو الشخص الأفضل في استهدافه داخل المؤسسة وكيف يمكن مهاجمته تحديدا.
لنفترض مثلا أن محاسبا في إحدى الشركات ينشر ببراءة عبر حسابه على فيسبوك عن مدى شعوره بالإحباط والانزعاج من آخر عملية لمراجعة الحسابات من الإدارة. يمكن لنموذج الذكاء الاصطناعي حينها تحديد زملاء المحاسب، والهيكل الإداري للشركة، وأي أشخاص آخرين يمكن أن يكونوا أكثر عرضة للهجوم داخل الشركة. بعدها بإمكان المخترق كتابة بريد إلكتروني احتيالي يزعم أنه من مدير الشؤون المالية في الشركة مشيرا إلى وجود تضارب في عملية المراجعة الأخيرة، ويطلب من الشخص المستهدف الضغط على رابط لجدول بيانات مرفق يحتوي على فيروس أو برمجية خبيثة لسرقة البيانات.
هذا ولم نتحدث بعد عن نماذج الذكاء الاصطناعي المصممة لمحاكاة أصوات وطريقة تحدث البشر، التي يستخدمها المحتالون في تقليد أصوات الأقارب والأصدقاء ثم طلب المساعدة منهم، ومن ثم الاحتيال عليهم وسرقة آلاف الدولارات. (5) تتطلب بعض برمجيات توليد الصوت بالذكاء الاصطناعي بضع جمل فقط بصوت الشخص لتتمكن من إنتاج حوار مقنع ينقل الصوت وحتى النبرة العاطفية التي تميز طريقة المتحدث، بينما تحتاج بعض النماذج الأخرى إلى ثلاث ثوانٍ فقط من صوت المتحدث. بالنسبة للضحايا المستهدفين، وهم غالبا من كبار السن، يصعب اكتشاف ما إذا كان الصوت حقيقيا أو صناعيا، حتى عندما يبدو الظرف الطارئ الذي يصفه المحتال بعيدا عن المنطق القابل للتصديق.
هذا كله بخلاف التقنيات الشهيرة لتزوير مقاطع الفيديو بالذكاء الاصطناعي، التي اشتهرت خلال السنوات الماضية باسم "ديب فيك" (Deepfake)، ويمكن من خلالها إنتاج مقطع فيديو، يبدو حقيقا، للرئيس الأميركي جو بايدن وهو يعلن الحرب على الصين، بالطبع هذه مجرد مبالغة لتوضيح مدى خطورة الأمر.
نموذج انعدام الثقة!
عموما، في هذا العالم القريب، قد يبدو مظهر كل شيء على الإنترنت منطقيا، أو مشروعا، لكن لن يمكننا الوثوق بأي شيء بعد الآن، لأن عملية الخداع نفسها صارت أسهل وأسرع مقارنة بأي وقت مضى. المعضلة الأخرى هنا أننا لا نملك الوقت الكافي، سواء كانت شهورا أو حتى أسابيع، لدراسة كل تلك الأمور، لأنها تتطور بوتيرة متسارعة جدا، أسرع من قدرتنا على ملاحقتها وملاحظتها والتعلم منها، لدرجة أنها وصلت الآن وبدأ استخدامها فعلا.
لهذا، فإن حماية نفسك وأمنك الإلكتروني متوقف على ثقتك فيما تراه وتختبره أمامك باستمرار. قد يبدو الأمر بديهيا، لكننا بحاجة إلى تذكُّره دائما، من الواجب علينا الآن أن نتوخى الحذر في كل تعاملاتنا الرقمية. إذا أثارت رسالة ما أو مكالمة هاتفية أي ذرة شك لدينا، فيجب ألا نضغط على أي رابط فيها أو نحمل أي ملف بها، ناهيك طبعا بتقديم أي معلومات شخصية أو سرية لأي شخص يتواصل معك، مهما ادّعى ومهما كانت صفته.
هذا النهج يُعرف باسم "نموذج أمان انعدام الثقة" (Zero trust security model)، وكما يشير اسمه يعني ألا نفترض الثقة في أي شيء أو أي شخص، وأن نتحقق ونتأكد من موثوقية كل جهاز أو مستخدم أو خدمة أو أي شيء آخر قبل منحه حق الوصول إلى بياناتنا، بل يجب إعادة التحقق من تلك الموثوقية بصورة متكررة للتأكد من عدم تعرض أيٍّ من تلك الأشياء للاختراق أثناء الاستخدام. (6)
ثم لا تكن متوقعا، مثلا ينصح الباحثون، الذين طوروا نموذج الاستماع لضغطات لوحة المفاتيح، بتغيير نمط الكتابة، واستخدام كلمات مرور عشوائية بدل الكلمات التي تحتوي على جملة أو كلمة مفهومة. وإن كنت تكتب شيئا وأنت في مكالمة على تطبيق زووم، فيمكنك أن تضغط ضغطات عشوائية لا معنى لها على لوحة المفاتيح، حتى تتجنب تسجيل أي شيء تكتبه، خاصة إن كنت ستكتب رسالة إلى مديرك تخبره فيها بطلب للإجازة قريبا!
———————————————————
المصادر:1) A Practical Deep Learning-Based Acoustic Side Channel Attack on Keyboards
2) Why side-channel analysis attacks are increasing and how to stop them
3) Prompt Injection Attacks: A New Frontier in Cybersecurity
4) AI-Based Cybercrime Tools WormGPT and FraudGPT Could Be The Tip of the Iceberg
5) They thought loved ones were calling for help. It was an AI scam
6) ما هي هجمات الهندسة الاجتماعية؟ وكيف تقي نفسك منها؟
المصدر: الجزيرة
كلمات دلالية: الذکاء الاصطناعی لوحة المفاتیح برید إلکترونی هذا النوع من شات جی بی تی کلمة المرور على لوحة أی شیء
إقرأ أيضاً:
التحول الكامل.. قصة الفنان الذي يعيش حياة المشاهير في باريس
دبي، الإمارات العربية المتحدة (CNN)-- خلال عروض الأزياء الراقية لموسم خريف وشتاء 2025 في باريس، خُيّل للحاضرين أن مورتيسيا آدامز، الأم الغامضة والأنيقة من سلسلة أفلام "عائلة آدامز"، تسير بخطى واثقة فوق حجارة العاصمة الفرنسية.
طويلة القامة، وبشرتها شاحبة بشكل لافت، وشعرها الأسود الطويل ينسدل بانسيابية على ظهرها. للوهلة الأولى، كان من الممكن أن يظنّها البعض أنجليكا هيوستن، الممثلة الأمريكية التي أدّت الدور في أفلام التسعينيات.
لكن خلف تلك الخصلات الداكنة، يتوارى رجل في الحادية والثلاثين من عمره، بعضلات بارزة ومظهر آسر: أليكسيس ستون، فنان الأداء وخبير المكياج الذي يتابعه 1.3 مليون شخص على "إنستغرام"، ومئات الآلاف عبر "تيك توك".
بينما يغيّر كثير من صُنّاع المحتوى على "تيك توك" ملامح وجوههم بالمكياج ليشبهوا المشاهير، يذهب ستون إلى أبعد من ذلك، فيحوّل شكله بالكامل أمام الناس. ويستخدم مكياج مؤثرات خاصة وأطرافًا اصطناعية، وحتى عطورًا خاصة، لتبدو النتيجة وكأنها مشهد من فيلم سينمائي.
وقال ستون: "الناس يظنون أننا نشتري هذه الأشياء من متجر للهالوين، لكن كل شيء نصنعه يدويًا، ويحتاج لسنوات من الخبرة".
في يونيو / تمّوز، عرض ستون شقته في غلاسكو أمام فريق CNN، حيث يصمّم هناك جميع الإطلالات.
استغرق تحضيره لتقمّص شخصية مورتيسيا آدامز ثمانية أسابيع، وقام خلالها بالكثير من البحث، إذ أوضح: "أردنا أن تكون الإطلالة مطابقة قدر الإمكان للأصل، من الباروكة إلى فستان الترتر الأسود، وكلاهما حصلنا عليه من قسم أزياء الفيلم".
على طاولة في المنزل، توجد صور نادرة من تصوير الفيلم، مع ملاحظة تقول: "يرجى الحذر، هذه صور أصلية".
أشار ستون إلى أن "هناك مراحل كثيرة في العمل، مثل نحت الوجه، وصنع القوالب، وتجهيز الباروكة والحواجب. أحيانًا أستعمل عدسات خاصة تُصنع لي خصيصًا".
يعمل ستون في غرفة مخصصة فيها مرآة كبيرة، وضوء دائري، ورفوف مليئة بالألوان، والقوالب، وأدوات التجميل.
وأضاف: "الأمر يشبه تمامًا إنتاج أفلام السينما والتلفزيون من حيث الوقت والتكاليف، لكننا نقوم بذلك في الواقع وليس بغرض الظهور على الشاشة"، موضحًا أن الميزانية قد تصل إلى مئات الآلاف من الدولارات.
شكل من أشكال الهروب من الواقعشارك ستون، واسمه الحقيقي إليوت جوزيف رينتز، في أسبوع الموضة في باريس مرتين في السنة متقمّصًا شخصية مشهورة، أو خيالية، أو حتى شخصية مشهورة تؤدي دور شخصية خيالية.
تشمل الأسماء التي جسّدها جاك نيكلسون، ولانا ديل راي، ومادونا، وأديل، وجينيفر كوليدج، وغلين كلوز بدور "كرويلا دي فيل" من فيلم "101 كلبًا مرقّطًا" بنسخته عام 1996.
ترك ستون مدينته برايتون وهو في عمر الـ16 عامًا، متنقلًا بين مدن عدة مثل لندن، ومانشستر، ونيويورك، واستقر في غلاسكو.
كان يحب منذ الصغر أن يتحول إلى شخصيات مختلفة باستخدام الشعر المستعار والملابس الخاصة.
في عام 2018، صار مشهورًا بعدما خدع الناس على وسائل التواصل الاجتماعي بأنه أجرى عمليات تجميل كثيرة، لكنه كشف لاحقًا أنها كانت مجرد خدعةـ وأنّه يحب التعبير عن هويته بالمكياج.
أمّا التحول المهم في مسيرته فكان عندما حضر عرض أزياء "بالنسياغا" في عام 2022، وتقمّص شخصية روبن ويليامز في فيلم "Mrs. Doubtfire"
بعد ذلك، تعاون مع مصممين كبار وأصبح حاضرًا في عروض أزياء كبيرة مثل "بالنسياغا"، و"ديزل"، و"جان بول غوتييه"، دائمًا بطلته االتي تشبه شخصيات مشهورة.
الآن أصبح من الطبيعي رؤية أشخاص يشبهون المشاهير في عروض الأزياء. في عام 2023، أثارت فتاة تشبه عارضة الأزياء البريطانية كيت موس ضجة كبيرة على مواقع التواصل بعدما شوهدت في سوبرماركت قبل عرض "شانيل".
أشار ستون إلى أنّ "العلامات التجارية تحب هذه الحملات لأنها تجذب الانتباه بسرعة، والكثير من الناس يتعرفون إلى هذه الشخصيات المشهورة من طفولتهم"، مضيفًا: "هذه طريقة تعتمدها العلامات التجارية لتكون جزءًا من السحر، وقد ظهرت أعمال ستون في مجلات معروفة، وجذبت انتباه الناس".
حتى الآن، قام ستون بتحولات لأكثر من 250 شخصية مشهورة. من أشهر إطلالاته كانت تقليده لميريل ستريب في فيلم "الشيطان يرتدي برادا" في عام 2024، حيث حقّقت صورة التحول التي نشرها على "إنستغرام" تفاعلا عاليا جدًا.
يكمن سر نجاح ستون في الاهتمام بكل التفاصيل، إذ أنه عندما تقمّص شخصية جاك نيكلسون، لم يستخدم فقط أسنان صناعية تشبه ابتسامته، بل صنع أيضًا عطرًا خاصًا برائحة التبغ ليجعل التجربة أكثر واقعية.
وقال ستون إن العطر جعل الغرفة كلها تفوح برائحته أثناء العرض.
كما يعمل ستون مع خبراء في تركيب الأطراف الاصطناعية والمؤثرات الخاصة، مثل نيل جورتون، ودومينيك مومبرون. ويساعده في أسبوع الموضة الباريسي، فريق مكوّن من 10 أشخاص على الأقل.
أوضح ستون أن دقة تشخيص كل شخصية مهمة جدًا، خاصة الشخصيات الشهيرة التي يحبها الملايين، وقد سُئل عمّا إذا كان يفضل تقليد كبار السن، إذ أشار إلى أن تجاعيد الوجه أسهل في تقليدها من بشرة الشباب.
وأضاف أنه رجل طويل وقوي، لذلك لا يمكنه دائمًا تقليد أي شخصية يرغب بها مثل كايلي جينر. وأحيانًا يرفض تقليد شخصيات إذا لم يشعر باتصال شخصي معها لأنه يحتاج أن يكون مهتمًا بها.
أما عن شخصية أدامز، فقد قال إنها شخصية غامضة وجميلة بطريقة سوداوية، وشعر أنه يستطيع التعبير عن ذلك.
هل هي النهاية؟رغم أنّه تعاون مع العديد من العلامات التجاريّة، إلا أن علاقة ستون بـ"بالينسياغا" هي الأقوى، وعندما سُئل عن مستقبله بعد "بالينسياغا"، قال ضاحكًا إنه قد يأخذ استراحة لأنه أنجز الكثير من الأعمال حتى الآن.
في ظل بريق عالم الموضة، كشف ستون عن الجهد والتعب الكبيرين خلف الكواليس. ويجري حالياً تصوير فيلم وثائقي عن حياته، ولم يُحدد موعد عرضه بعد. لا يعرف ستون سبب اهتمام الناس بعمله، لكنه يعتقد أن الجميع يشعرون أحياناً بالرغبة في الظهور وأحياناً في الاختفاء.
أمريكاالمملكة المتحدةبريطانيافرنساأزياءمشاهيرموضةنجوم هوليوودهوليوودنشر الجمعة، 11 يوليو / تموز 2025تابعونا عبرسياسة الخصوصيةشروط الخدمةملفات تعريف الارتباطخيارات الإعلاناتCNN الاقتصاديةمن نحنالأرشيف© 2025 Cable News Network. A Warner Bros. Discovery Company. All Rights Reserved.