انتشر في الآونة الأخيرة "تريند" تحويل الصور الشخصية إلى رسوم كرتونية، ويتم ذلك عبر تطبيقات تم تصميمها بواسطة شركات تستخدم الذكاء الاصطناعي، يقوم المستخدم بتحميلها ثم منحها صورته لتحويلها إلى رسم كرتوني.

وكأي تقنية جديدة منذ انطلاق ثورة المعلومات، أثارت هذه التقنية الجدل بين المستخدمين، فهناك من دافع عنها بأنها تضفي لمسة جمالية ومُحببة على شكل الإنسان، وتعيده إلى ذكريات الطفولة حينما كان يتابع الرسوم المتحركة.



في المقابل، أبدى البعض تخوفا من استخدام هذه التقنية، لعدة أسباب منها الخوف من سرقة البيانات، واستخدام هذه الصور في عمليات قد تكون مشبوهة، أو بيعها لجهات مجهولة قد تستخدمها لانتحال شخصية المستخدم.


وحذر البعض من أن هذه الشركات قد تبيع الصور لأي جهة، ومن ثم تنتقل إلى جهات غير موثوقة قد تنشرها في "الإنترنت المُظلم"، وهي الشبكة العنكبوتية الموازية والتي تجري فيها الكثير من عمليات الاحتيال والأعمال الإجرامية، وبالتالي استخدام صور المستخدمين أو تزويرها في عمليات إجرامية.


مزايا جمالية وتسويقية
في المقابل، يرى بعض الخبراء أن تحويل الصور إلى رسوم كرتونية قد تكون له سيئات، لكن أيضا قد تكون له حسنات وفوائد، ولذلك فإن هناك خطوات وقائية يمكن للشخص اتباعها لحماية بياناته.

الخبير في الأمن السيبراني أحمد حسين العمري، "أكد أن هذه التطبيقات وعملها هو أحد نتائج الذكاء الاصطناعي أصلا، لأن عملها يعتمد على برمجياته، والتي تعمل على تعديل الصور وإزالة واستبدال بعض ملامح الإنسان وفق أنماط محددة بحيث تظهر على شكل رسوم كالتي نشاهدها في الأنيميشن وأفلام الكرتون".

وقال العمري لـ"عربي21": "تقنية تحويل الصور نعم قد يكون لها سيئات وعواقب وخيمة، ولكن لها أيضا حسنات، مثلا زيادة الشعبية على وسائل التواصل الاجتماعي، حيث إنها تساعد في إنتاج محتوى مميز وجذاب على هذه المنصات، وكما هو معلوم فإن هذا الأمر قد يجلب زبائن جددا".


وتابع، "مثلا تطبيقات مثل تيك توك وإنستغرام تمنحك مثل هذه الخاصية، وبالتالي فإن الشخص إذا كان لديه مثلا عيوب خلقية أو عيب معين لا يريد إظهاره، فإنه في هذه الحالة يستبدل بالصورة رسما كرتونيا، وأيضا يعكس شخصية المستخدمين، فأحيانا البعض يرغب في إظهار شخصيته بمظهر ما أو تقليد لشخصية مُحببة وهذه التقنية تمنحه ذلك".

ومن مزايا هذه التقنية وفقا للعمري، "زيادة أرباح الشركات المُطورة، وبالتالي توفير فرص عمل جديدة للعاملين في قطاع التصميم أو في الذكاء الاصطناعي، حيث يمكنهم عمل فلاتر مشابهة أو مستنبطة من هذه التكنولوجيا وبيعها".

ولفت إلى أنه "يمكن أيضا الاستفادة منها في الحملات الإعلانية التسويقية، حيث إنه أصبح الآن منتشرا ما يسمى بالتسويق الكرتوني، حيث تستغني بعض الشركات عن التعاقد مع مؤثرين تدفع لهم أموال طائلة للدعاية، وتستخدم رسوما كرتونية كالتي يتم إنتاجها بهذه التقنية، خاصة أن تكلفة الاستعانة بالرسم الكرتوني أقل بكثير من الاستعانة بالمؤثرين".

وأوضح أن "بعض المنصات والتطبيقات تستفيد من هذه التقنية عبر زيادة التفاعل بين المستخدمين، من خلال استخدام هذه الصور المُعدلة في ما يسمى (التظليل البصري)، وكذلك يستفيد المؤثرون وقطاع الإعلام منها عبر استخدامها لتعزيز المحتوى".

محاذير
ومن الأمور التي حذر منها البعض خلال استخدام هذه التقنية، إمكانية إعادة الرسم الكرتوني لصورة مرة أخرى، عبر عملية برمجية عكسية، وبالتالي فقد يقوم شخص ما بسرقة هذه الرسوم من حساب المستخدم ثم يعيدها إلى هيئتها الأولى مرة أخرى.

وأكثر ما يخيف مما يُحذر منه هو إعادة استخدام هذه الصور بعد إعادة تحويلها من رسم في عمليات ابتزاز وتشويه لشخصية صاحب الصورة، عبر تركيب صور اباحية مثلا أو وضعه في موقف أو مكان ما يثير الشبهات.

تنبيه :
الصور المحولة الى صور رسوم متحركة عبر برامج الذكاء الاصطناعي من السهولة اعادتها لحالتها الاصلية، عملت التجربة بنفسي عشان اتأكد وبالفعل البرنامج اعاد صورتها لحالتها الاصلية !!
مثل هذي الحسابات الساذجة تقودكم لمستنقعات الفساد بقصد او دون قصد وانتوا تتفاعلون معها ❌️ http://pic.twitter.com/KbsARRMYxs — ابو عبدالكريم القحطاني (@qahtani_m1) April 5, 2025
الخبير في الأمن السيبراني أحمد حسين العمري، "يتفق مع البعض بأن هناك محاذير يجب الانتباه لها، ومنها اختراق الخصوصية، فحينما يقوم المستخدم بتنزيل تطبيق ويدرج صورته فيه ليحولها إلى رسم كرتوني يطلب منه منحه امكانية الوصول للبيانات والمحتوى على هاتفه، منها جهات الاتصال والصور وغيرها".

وتابع: "كذلك من المخاطر استخدام صور الناس، بمعنى أنه عند استخدام أي شخص لهذه التطبيقات تصبح صورته موجودة عند من صمم التطبيقات، بالتالي فقد تحدث عمليات انتحال للشخصية، بمعنى عمل حسابات وهمية باسم هذا الشخص على وسائل التواصل الاجتماعي".

وحول إمكانية قيام هذه التطبيقات بانتحال شخصية بعض المستخدمين والمغامرة بخسارة سمعتها، قال العمري، إن "التطبيق لن ينتحل شخصية المستخدم بشكل مباشر، لكن بعض هذه الشركات قد تبيع بيانات المستخدمين، وبالتالي فإن من يشتريها قد يقوم هو بذلك".

وأكد أن "هناك أيضا مخاطر أمنية لهذه التطبيقات منها تتبع الوجوه، ويتم ذلك بواسطة الذكاء الاصطناعي استنادا إلى الصور التي منحها الشخص لهذه التطبيقات، علما بأن التعرف على الوجه يتم ليس بالملامح بل بما يُسمى السمات الحيوية أو خصائص رأس الإنسان".

وأوضح أن "السمات الحيوية مثل المسافة بين العينين أو بين الفكين أو الأذنين، هذه صفات ثابتة، بالتالي حتى لو غير الإنسان في ملامح وجهه فإنه يمكن التعرف عليه من خلال هذه التقنيات".

وأردف: "بمعنى آخر: حتى لو أجرى شخص عملية تجميل وغير الكثير من ملامح وجهه فإنه يمكن التعرف عليه من خلال السمات الحيوية لرأسه التي تم تخزينها بعد أخذ هذه الصور".

وشرح العمري ذلك بأنه "يتم بعد أخذ هذه الصور عمل تحليل وتخزين للسمات الحيوية في سيرفرات هذه الشركات، وفي المستقبل مثلا دولة أو جهة ما أرادت معرفة شخص يمكنها ذلك حتى لو غير في شكله عبر هذه السمات الحيوية التي تم تخزينها".

وحول طمأنة البعض للمستخدمين بالقول إن كل الشركات الكبرى أصلا لديها بياناتنا وبالتالي فلا داعي للخوف، قال العمري: "نعم صحيح، ولكن هناك شركات جديدة ومصممو تطبيقات يعملون في الذكاء الاصطناعي لا يملكون هذه البيانات، وبالتالي فقد تكون هذه الخدمة وسيلة لجمع بيانات الناس ويمكن بيعها واستخدامها من قبل دول أو مؤسسات أو أجهزة أمنية أو عصابات".

كيف تحمي بياناتك؟
وعلى الرغم من معرفة البعض بأن هناك مخاطر لاستخدام هذه التقنية على الرغم من وجود حسنات لها، إلا أن الفضول قد يدفعهم لتجربتها، وربما رغبة منهم في منح أنفسهم الشعور بأنهم أجمل في الصور الكرتونية.

ولهذا يبقى من المهم أن يعرف كل مستخدم كيف يحمي نفسه حينما يستخدم هذه التطبيقات.

عبدالرحمن الصاوي، مهندس برمجيات وباحث في شركة BeamNG GmbH، قال، إن "هذه التقنية أثارت جدلاً واسعًا، إذ اشتكى الفنانون الرقميون والمصورون من أن هذه النماذج تم تدريبها على صور وأعمال فنية مأخوذة من الإنترنت دون إذن مُسبق من أصحاب حقوق الملكية".

وتابع الصاوي خلال حديثه لـ"عربي21" بالقول: "يعتبر كثيرون أن استخدام هذه الصور دون موافقة صريحة ينتهك الملكية الفكرية، خصوصًا إذا استُخدمت النتائج تجاريًا أو منافسةً للأعمال الأصلية".

وأوضح أنه "بالمقابل، تُجادل بعض الشركات بأن البيانات التي يُدرَّب عليها الذكاء الاصطناعي تكون غالبًا علنية أو متاحة بموجب الاستخدام العادل، وعلى الرغم من أن هذه النقطة لا تزال تحت الدراسة القانونية في العديد من الدول، فإن المطالبات بإصدار قوانين أكثر وضوحًا لحماية المبدعين تزداد يومًا بعد يوم".


ولحماية البيانات الشخصية نصح الصاوي المستخدمين، "بعدم رفع الصور على منصات غير موثوقة أو مجانيّة دون قراءة الشروط، و تجنّب الإدخال العشوائي للبيانات في تطبيقات الذكاء الاصطناعي المفتوحة".

ومن وسائل الحماية أيضا نصح، "باستخدام علامات مائية رقمية، أو أدوات تشويش الوجه للمحتوى الحساس، وضبط إعدادات الخصوصية في منصات التواصل الاجتماعي لمنع من لا نرغب أن يشاهد ما ننشر بمشاهدته، كذلك استخدام أدوات حظر تتبّع البيانات وتصفّح الإنترنت بشكل آمن".

وحول كيف يمكن للناس استخدام الذكاء الاصطناعي وفي ذات الوقت حماية بياناتهم، قال الصاوي: "يجب استخدام نماذج محلية (Local AI Models)، مثل DeepSeek أو Mistral، لتشغيل الذكاء الاصطناعي على جهازك دون إرسال بياناتك لخوادم خارجية".

وختم نصائحه بالقول: "يجب تجنّب أدوات الذكاء الاصطناعي المجانية تمامًا، لأن بعض هذه الأدوات "تتغذى" على بيانات المستخدم وتستخدمها في التدريب، وما لا تدفع مقابله غالبًا ما تستخدم بياناتك كثمن له، وأخيرا قراءة الشروط وسياسات الخصوصية لأي أداة تستخدمها، وتفعيل خيار "عدم استخدام بياناتي للتدريب" إن توفر".

المصدر: عربي21

كلمات دلالية: سياسة اقتصاد رياضة مقالات صحافة أفكار عالم الفن تكنولوجيا صحة تفاعلي سياسة اقتصاد رياضة مقالات صحافة أفكار عالم الفن تكنولوجيا صحة تفاعلي سياسة سياسة عربية مقابلات حقوق وحريات سياسة دولية الصور الذكاء الاصطناعي الصور الذكاء الاصطناعي الامن السيبراني المزيد في سياسة سياسة سياسة سياسة سياسة سياسة سياسة سياسة سياسة سياسة سياسة سياسة سياسة اقتصاد رياضة صحافة قضايا وآراء أفكار عالم الفن تكنولوجيا صحة استخدام هذه الصور الذکاء الاصطناعی هذه التطبیقات هذه التقنیة تحویل الصور قد تکون أن هذه

إقرأ أيضاً:

الذكاء الاصطناعي العام (AGI) الخطوة التالية لقطاع التكنولوجيا..ما المخاطر؟!

في ظل التسارع المذهل في تطوير تقنيات الذكاء الاصطناعي، يتطلع قادة التكنولوجيا والأعمال إلى الخطوة التالية في هذا المجال، وهي "الذكاء العام الاصطناعي" (AGI)، وهو نوع من الذكاء الاصطناعي يتمتع بقدرات إدراكية شبيهة بالبشر.

إن إيجاد طرق جديدة لضمان عدم عمل هذه الآلة -التي تتمتع بمستوى ذكاء البشر نفسه- ضد مصالح البشر،هدف مهم  يسعى إليه الباحثون، ويصبح من الضروري أن تتكاتف الجهود، في الوصول إليه.

وأصدر باحثون في شركة "جوجل ديب مايند" التابعة لجوجل ورقة بحثية جديدة، مكونة من أكثر من 100 صفحة، تشرح طريقة تطوير الذكاء العام الاصطناعي بأمان. بحسب تقرير لموقع "ArsTechnica" المتخصص في أخبار التكنولوجيا.
اقرأ أيضاً..الذكاء الاصطناعي.. من منظور إيجابي 

تشير تقديرات "ديب مايند" إلى إمكانية ظهور AGI خلال السنوات الخمس القادمة، وتحديدًا بحلول عام 2030، مما يستدعي تعاونًا دوليًا عاجلًا لوضع الأطر القانونية والأخلاقية.

لا يملك البشر حتى الآن وسيلة لمنع خروج الذكاء العام الاصطناعي -في حالة الوصول إليه- عن السيطرة، لكن الباحثين في شركة "جوجل ديب مايند" التابعة لجوجل يعملون على هذه المشكلة.

كشف الباحثون عن أربعة مخاطر رئيسية قد تنجم عن تطوير الذكاء الاصطناعي العام (AGI) الشبيه بذكاء الإنسان وقد يؤدي إلى "أضرار جسيمة"، لأجل هذا سعوا إلى فهم مخاطره.

أبرز المخاطر
حدد الباحثون أربعة أنواع محتملة من مخاطر الذكاء العام الاصطناعي، وقدموا اقتراحات حول طرق التخفيف من هذه المخاطر.

وصنّف فريق "ديب مايند" النتائج السلبية للذكاء العام الاصطناعي على أنها سوء الاستخدام، والانحراف، والأخطاء، والمخاطر الهيكلية. وقد ناقش البحث سوء الاستخدام والانحراف بإسهاب، وتناول الأخيران بإيجاز.

 
المشكلة المحتملة الأولى، هي سوء الاستخدام،  بحيث تتشابه بشكل أساسي مع مخاطر الذكاء الاصطناعي الحالية. ومع ذلك، ولأن الذكاء العام الاصطناعي سيكون أقوى بحكم تعريفه، فإن الضرر الذي قد يُلحقه سيكون أكبر بكثير.

وقد يُسيء أي شخص لديه إمكانية الوصول إلى الذكاء العام الاصطناعي استخدام النظام لإلحاق الضرر، على سبيل المثال، من خلال مطالبة النظام بتحديد ثغرات واستغلالها، أو إنشاء فيروس مُصمَّم يمكن استخدامه كسلاح بيولوجي.

قال فريق "ديب مايند" إنه سيتعين على الشركات التي تُطور الذكاء العام الاصطناعي إجراء اختبارات مكثفة ووضع بروتوكولات سلامة قوية لما بعد التدريب. بعبارة أخرى، حواجز أمان معززة للذكاء الاصطناعي.

ويقترح الفريق أيضًا ابتكار طريقة لكبح القدرات الخطيرة تمامًا، تُسمى أحيانًا "إلغاء التعلم" (unlearning)، ولكن من غير الواضح ما إذا كان ذلك ممكنًا من دون تقييد قدرات النماذج بشكل كبير.

أما مشكلة "الانحراف" فهي ليست محل قلق حاليًا مع الذكاء الاصطناعي التوليدي في صورته الحالية. لكن مع الذكاء العام الاصطناعي قد يختلف الأمر.

أخبار ذات صلة رفاهية أكثر في «ياس» بالذكاء الاصطناعي مساعد AI لتحسين سير العمل بالمصانع من مايكروسوفت

تُصور مشكلة "الانحراف" هذه كآلة متمردة تجاوزت القيود التي فرضها عليها مصمموها، كما هو الحال في فيلم "ترميناترو". وبشكل أكثر تحديدًا، يتخذ الذكاء الاصطناعي إجراءات يعلم أنها لا تتماشى مع ما يقصده المطور.

وقالت "ديب مايند" إن معيارها للانحراف في ما يتعلق بالذكاء العام الاصطناعي أكثر تقدمًا من مجرد الخداع أو التخطيط.
حلول مقترحة
لتجنب ذلك، تقترح  "ديب مايند" على المطورين استخدام تقنيات مثل الإشراف المُعزز، حيث تتحقق نسختان من الذكاء الاصطناعي من مخرجات بعضهما البعض، لإنشاء أنظمة قوية من لا يُحتمل أن تنحرف عن مسارها.

وإذا فشل ذلك، تقترح "ديب مايند" إجراء اختبارات ضغط ومراقبة مكثفة لاكتشاف أي مؤشر على أن الذكاء الاصطناعي قد يبدأ في التمرد ضدنا.

وقالت إن إبقاء الذكاء الاصطناعي العام في بيئة افتراضية آمنة للغاية وإشراف بشري مباشر يمكن أن يُساعد في التخفيف من حدة المشكلات الناجمة عن الانحراف.

الأخطاء
من ناحية أخرى، إذا لم يكن الذكاء الاصطناعي يعلم أن مخرجاته ستكون ضارة، ولم يكن المشغل البشري يقصد ذلك، فهذا "خطأ". ويحدث الكثير من هذه الأخطاء مع أنظمة الذكاء الاصطناعي الحالية.مع ذلك، قد تكون هذه المشكلة أصعب مع الذكاء العام الاصطناعي.
تشير "ديب مايند" إلى أن الجيوش قد تنشر الذكاء العام الاصطناعي بسبب "الضغط التنافسي"، لكن هذه الأنظمة قد ترتكب أخطاء جسيمة لأنها ستُكلف بوظائف أكثر تعقيدًا بكثير من الذكاء الاصطناعي الحالي.

توصي الورقة بعدد من الإجراءات الوقائية،  للحد من الأخطاء. باختصار، يتلخص الأمر في عدم السماح للذكاء العام الاصطناعي بأن يصبح قويًا جدًا في المقام الأول.

وتدعو "ديب مايند" إلى نشر الذكاء العام الاصطناعي تدريجيًا والحد من صلاحياته، وتمرير أوامر الذكاء العام الاصطناعي عبر نظام حماية يضمن أن تكون آمنة قبل تنفيذها.

مخاطر هيكلية
تُعرف "ديب مايند" المخاطر الهيكلية على أنها عواقب غير مقصودة، وإن كانت حقيقية، للأنظمة متعددة الوكلاء التي تُسهم في تعقيد حياتنا البشرية.

على سبيل المثال، قد يُنتج الذكاء العام الاصطناعي معلومات مُضلّلة تبدو مُقنعة لدرجة أننا لم نعد نعرف بمن أو بما نثق. كما تُثير الورقة البحثية احتمالية أن يُراكِم الذكاء العام الاصطناعي سيطرة متزايدة على الأنظمة الاقتصادية والسياسية، ربما من خلال وضع مخططات تعريفات جمركية مُفرطة.

وقد تؤدي هذه المخاطر الهيكلية إلى أن نجد في يومٍ ما أن الآلات هي المُسيطرة بدلًا منّا.

وتُعتبر هذه الفئة من المخاطر أيضًا الأصعب في الحماية منها، لأنها ستعتمد على طريقة عمل الأفراد والبنية التحتية والمؤسسات في المستقبل.

لضمان أن يكون الذكاء الاصطناعي العام أداة لخدمة البشرية، لا مصدرًا لتهديدها..كما تشير "ديب مايند"، فإن التقدم نحو AGI قد يكون أسرع مما نتخيل، ما يجعل من وضع الحواجز الأخلاقية والتقنية ضرورة عاجلة لا تحتمل التأجيل.
لمياء الصديق(أبوظبي)

مقالات مشابهة

  • هل تطبيقات تحويل الصور لرسوم كرتونية آمنة؟.. خبراء يجيبون عربي21
  • الذكاء الاصطناعي العام (AGI) الخطوة التالية لقطاع التكنولوجيا..ما المخاطر؟!
  • خدعة أبريل التي صدّقها الذكاء الاصطناعي
  • مطالبات بإصدار تشريعات تنظم استخدام الذكاء الاصطناعي في قطاع التعليم
  • بيل غيتس يكشف عن 3 مهن ستصمد في وجه الذكاء الاصطناعي
  • موظفة بالشركة: توقفوا عن استخدام الذكاء الاصطناعي في الإبادة الجماعية
  • إنجاز جديد لـ GPT-4.5.. يجتاز اختبار "العقل البشري" ويربك خبراء الذكاء الاصطناعي
  • الصين ترد على رسوم ترامب بأغاني وفيديوهات من إنتاج الذكاء الاصطناعي
  • كيف وقع الذكاء الاصطناعي ضحية كذبة أبريل؟