تكنولوجيا تحذير لملايين السيدات.. ازاي تحمي صورك من السرقة والاستغلال
تاريخ النشر: 26th, July 2023 GMT
تكنولوجيا، تحذير لملايين السيدات ازاي تحمي صورك من السرقة والاستغلال،نشر الصور عبر الإنترنت يحمل مخاطر التلاعب بسبب التقنيات المدفوعة ب الذكاء الاصطناعي .،عبر صحافة مصر، حيث يهتم الكثير من الناس بمشاهدة ومتابعه الاخبار، وتصدر خبر تحذير لملايين السيدات.. ازاي تحمي صورك من السرقة والاستغلال ، محركات البحث العالمية و نتابع معكم تفاصيل ومعلوماته كما وردت الينا والان إلى التفاصيل.
نشر الصور عبر الإنترنت يحمل مخاطر التلاعب بسبب التقنيات المدفوعة بالذكاء الاصطناعي التي يمكن أن تخلق ال deep fake، وتعديل الصور، ونشر المعلومات الخاطئة، وتيسير سرقة الهوية.
ولحماية الصور من هذا الخطر، يفكر الكثيرون في وضع علامة مائية، ومشاركة صور بدقة أقل، وتوخي الحذر بشأن المعلومات المشاركة، واستخدام مصادر موثوقة.
ورفع الوعي حول التلاعب بالصور يمكن أيضًا أن يساعد في مكافحة انتشار المحتوى الخادع. ومع تطور التكنولوجيا الذكية، قد لا يكون هذا كافياً في المدى البعيد. هنا يأتي دور عقول معهد تقنية ماساتشوستس للذكاء الاصطناعي والحوسبة. لقد تحملوا المسؤولية وطرحوا تقنية "PhotoGuard" الخاصة بهم.
فعلى عكس العلامات المائية التقليدية، فإن هذه التقنية تعمل على تعديل بعض البكسلات في الصورة، وتتمكن من إرباك خوارزميات الذكاء الاصطناعي وفي الوقت نفسه تبقى غير مرئية تمامًا للعين البشرية. افترض أنها لغز يترك الذكاء الاصطناعي يحاول فهم ما يحدث.
وكلما زاد التعاون بين الشركات والمطورين، كانت تقنية PhotoGuard أفضل في العمل. فهجوم "encoder" يخدع نماذج الذكاء الاصطناعي لرؤية الصورة بأنها شيء آخر تمامًا، بينما يقوم الهجوم "diffusion" المتقدم بتشويه الصورة لتصبح هدفًا مختلفًا تمامًا، مما يجعل أي تعديلات AI تقريبًا عديمة الفائدة.
بالطبع، لا يوجد حل مضمون (حتى الآن)، ولكن لدى PhotoGuard حدوده أيضًا، فعلى سبيل المثال، قد يحاول شخص تهكير الصور المحمية عن طريق إضافة ضوضاء رقمية أو استخدام حيل أخرى. ولذلك يأتي العمل الجماعي! فكلما عمل المطورون ومنصات التواصل الاجتماعي وصانعو السياسات بشكل مشترك، كلما تعززت دفاعات PhotoGuard ضد المحاولات الخبيثة.
مع تقدم تكنولوجيا الذكاء الاصطناعي،من الضروري أن يستثمر مطورو الذكاء الاصطناعي في حلول دفاعية قوية لحماية الفن الرقمي. فقط عندئذ يمكننا الحفاظ على عالم يزدهر فيه الذكاء الاصطناعي والإبداع البشري معًا. ومع حراس PhotoGuard على مدار الساعة، يمكن أن نطمئن إلى أن العالم الافتراضي لا يزال مساحة آمنة للعقول الإبداعية.
185.208.78.254
اقرأ على الموقع الرسمي
وفي نهاية المقال نود ان نشير الى ان هذه هي تفاصيل تحذير لملايين السيدات.. ازاي تحمي صورك من السرقة والاستغلال وتم نقلها من صدى البلد نرجوا بأن نكون قد وفقنا بإعطائك التفاصيل والمعلومات الكامله .
علما ان فريق التحرير في صحافة العرب بالتاكد منه وربما تم التعديل علية وربما قد يكون تم نقله بالكامل اوالاقتباس منه ويمكنك قراءة ومتابعة مستجدادت هذا الخبر او الموضوع من مصدره الاساسي.
المصدر: صحافة العرب
كلمات دلالية: الذكاء موعد عاجل الدولار الامريكي اليوم اسعار الذهب اسعار النفط مباريات اليوم جدول ترتيب حالة الطقس الذکاء الاصطناعی
إقرأ أيضاً:
الذكاء الاصطناعي مجرد وهم.. باحثون يكشفون السبب
تابع أحدث الأخبار عبر تطبيق
في تطور جديد يعيد تقييم فعالية الذكاء الاصطناعي، أعلن باحثون بإحدى شركات التكنولوجيا العملاقة أن الذكاء الاصطناعي، وخصوصًا النماذج اللغوية الكبيرة، يُظهر سلوكًا يُوحي بالذكاء ولكنه في الواقع مجرد وهم، هذه النماذج تُظهر قدرة على الاستجابة والتفاعل مع المستخدمين، إلا أنها تفتقر إلى التفكير المنطقي الحقيقي وفهم السياق العميق.
ووفقا لموقع techxplore أن الباحثون يقولون رغم التقدم الكبير الذي حققته تطبيقات الذكاء الاصطناعي، توضح دراسة باحثي شركة التكنولوجيا أن هذه التقنيات ما زالت بعيدة عن تحقيق ذكاء حقيقي، والنماذج الحالية تعتمد على تقنيات تحليل الأنماط بدلاً من الفهم العميق أو التفكير المنطقي، مما يجعلها أداة مفيدة ولكنها ليست بديلاً عن العقل البشري، ونُشر البحث عبر منصة arXiv preprint.
نقاط البحث الأساسية:
• أجريت الدراسة على نماذج لغوية كبيرة، مثل تلك المستخدمة في تطبيقات الذكاء الاصطناعي الشائعة.
• أظهرت النتائج أن هذه النماذج لا تفهم الأسئلة المطروحة فهمًا حقيقيًا، بل تعتمد على بنية الجمل والخوارزميات المكتسبة.
الفرضية الأساسية للدراسة:
افترض الباحثون أن الذكاء الحقيقي، سواء للكائنات الحية أو الآلات، يتطلب القدرة على:
1. التمييز بين المعلومات ذات الصلة وغير ذات الصلة: مثال ذلك، إذا سأل طفل والده عن عدد التفاح في حقيبة تحتوي على تفاح صغير الحجم، يمكن للعقل البشري تجاهل حجم التفاح كعامل غير ذي صلة بالإجابة.
2. إظهار التفكير المنطقي: القدرة على استخلاص الاستنتاجات الصحيحة بناءً على المعطيات المتاحة.
اختبار النماذج اللغوية الكبيرة:
• استخدم الباحثون مئات الأسئلة التي استُخدمت سابقًا لتقييم قدرة النماذج اللغوية.
• أضيفت معلومات غير ذات صلة إلى هذه الأسئلة لقياس قدرة الذكاء الاصطناعي على تجاهلها.
• النتيجة: أدى وجود معلومات زائدة إلى إرباك الذكاء الاصطناعي، مما نتج عنه إجابات خاطئة أو غير منطقية.
نتائج البحث:
1. عدم الفهم الحقيقي للسياق
النماذج اللغوية الكبيرة لا تفهم الأسئلة فهمًا عميقًا. بدلاً من ذلك، تستند إلى التعرف على الأنماط وتوليد إجابات تعتمد على البيانات السابقة.
2. إجابات مضللة
أعطت النماذج إجابات بدت صحيحة ظاهريًا، لكنها عند الفحص الدقيق تبين أنها خاطئة أو غير متسقة مع المنطق.
3. الوهم الذكي
النماذج تظهر وكأنها “تفكر” أو “تشعر”، لكنها في الواقع تعتمد على خوارزميات تعليم الآلة للتفاعل مع المستخدم، دون وجود ذكاء حقيقي أو إدراك.
أمثلة توضيحية من البحث:
• سؤال بسيط: عند طرح سؤال على الذكاء الاصطناعي يتضمن معلومات غير ضرورية، غالبًا ما يدمجها في إجابته بدلاً من تجاهلها.
• الشعور والإحساس: عند سؤال الذكاء الاصطناعي عن “شعوره” تجاه أمر معين، قد يقدم إجابات تُوحي بأنه يشعر، لكن هذه مجرد خدعة لغوية تعتمد على بيانات التدريب.
دلالات البحث:
• النتائج تعزز وجهة النظر التي ترى أن الذكاء الاصطناعي ليس “ذكاءً” حقيقيًا بالمعنى البشري، بل هو نموذج إحصائي معقد.
• تؤكد الدراسة أن الذكاء الاصطناعي الحالي غير قادر على التفكير المنطقي أو فهم السياق كما يفعل الإنسان.
التحديات المستقبلية:
• تحسين قدرة النماذج اللغوية على الفصل بين المعلومات ذات الصلة وغير ذات الصلة.
• تطوير نماذج ذكاء اصطناعي تفهم السياق بشكل أفضل وتُظهر منطقًا أقرب للإنسان.
• تقليل الاعتماد على الأنماط الإحصائية وزيادة التركيز على التفاعل الديناميكي.