يبدو أن السباق الرئاسي لانتخابات الأمريكية لهذا العام، يواجه خطرًا التزييف، وذلك بسبب المعلومات المضللة التي يقف الذكاء الاصطناعي خلفها، إذ أثار اتصال بصوت روبوت انتحل شخصية الرئيس جو بايدن القلق خصوصا حيال تسجيلات صوتية مزيّفة محتملة.

وجاء في الرسالة الصوتية الهاتفية التي قلّدت صوت بايدن "يا له من كلام فارغ"، في ترديد لإحدى عباراته المعروفة.

وحرض الاتصال بواسطة الروبوت سكان نيوهامشير على عدم التصويت في الانتخابات التمهيدية للحزب الديمقراطي الشهر الماضي، ما دفع سلطات الولاية لفتح تحقيق في قمع الناخبين.

كما أثار مطالبات من الناشطين بتشديد القيود على أدوات الذكاء الاصطناعي التوليدي أو حظر الاتصالات بواسطة الروبوتات تماما.

الخوف من سوء استخدام التطبيقات التي تستند إلى الذكاء الاصطناعي في انتخابات هذا العام!!!

ويخشى الباحثون المتخصصون في التضليل من انتشار سوء استخدام التطبيقات التي تستند إلى الذكاء الاصطناعي في عام انتخابات حاسمة بفضل انتشار أدوات استنساخ الأصوات زهيدة الثمن والتي يسهل استخدامها ويصعب تعقّبها.

وقال الرئيس التنفيذي والمؤسس المشارك لشركة "بندروب" للأمن الإلكتروني فيجاي بالاسوبراماتيان لـ "فرانس برس": "هذا بالتأكيد رأس جبل الجليد".

وأضاف "يمكننا أن نتوقع رؤية المزيد من عمليات التزييف العميق على مدى دورة الانتخابات هذه".

وأفاد تحليل مفصّل نشرته "بندروب" بأن نظام تحويل النص إلى كلام الذي طوّرته شركة "إيليفن لابز" الناشئة لاستنساخ الأصوات استُخدم لإتمام الاتصال بواسطة الروبوت بصوت بايدن.

تأتي الفضيحة في وقت يسخّر ناشطون من الحزبين أدوات الذكاء الاصطناعي من أجل إيصال رسالة فعالة خلال الحملات الانتخابية بينما يضخّ المستثمرون في مجال التكنولوجيا ملايين الدولارات في شركات استنساخ الأصوات الناشئة.

ورفض بالاسوبراماتيان القول إن كانت "بندروب" شاركت استنتاجاتها مع "إيليفن لابز" التي أعلنت الشهر الماضي عن حزم تمويل من المستثمرين قدّرت قيمة الشركة بـ1.1 مليار دولار، حسب "بلومبرغ".

ولم ترد "إيليفن لابز" على طلبات "فرانس برس" المتكررة الحصول على تعليق، علما بأن موقعها يقود المستخدمين إلى خدمة مجانية لتحويل النص إلى كلام من أجل "خلق أصوات ذكاء اصطناعي طبيعية فورا بأي لغة كانت".

وتقول توجيهات السلامة التابعة للشركة إنه يسمح للمستخدمين بتوليد نسخ لأصوات شخصيات سياسية على غرار دونالد ترامب من دون إذنهم إذا كانت "للتعبير عن الفكاهة أو السخرية" بطريقة "توضح للمستمع بأنه ما يسمعه هو محاكاة ساخرة وليس محتوى أصليا".

تفكّر الجهات الناظمة في الولايات المتحدة بجعل الاتصالات بواسطة الروبوتات التي يولدها الذكاء الاصطناعي مخالفة للقانون، وهي مساع أعطاها اتصال بايدن الزائف زخما جديدا.

وقال رئيس مجموعة "بابليك سيتيزن" الناشطة روبرت وايزمان "وصلت لحظة التزييف العميق السياسي".

وأضاف "على صانعي السياسات المسارعة لفرض إجراءات حماية وإلا فنواجه فوضى انتخابية. تذكر حالة التزييف العميق في نيوهامشير بالطرق العديدة التي يمكن للتزييف العميق من خلالها إحداث إرباك".

ويخشى باحثون من تأثير أدوات الذكاء الاصطناعي التي تُنتج تسجيلات مصورة ونصوصا تبدو حقيقية إلى الحد الذي يصعّب على الناخبين التفريق بين الحقيقة والخيال، ما يقوّض الثقة في العملية الانتخابية.

لكن المقاطع الصوتية المزيفة المستخدمة لانتحال هويات شخصيات معروفة أو سياسيين حول العالم تعد الأكثر إثارة للقلق.

وقال محلل السياسات البارز في "مركز الديمقراطية والتكنولوجيا" تيم هاربر لـ "فرانس برس": "من بين جميع الوسائل (فيديو أو صور أو مقاطع صوتية) التي يمكن للذكاء الاصطناعي استخدامها لقمع الناخبين، فإن المقاطع الصوتية هي الأكثر خطورة".

وأضاف: "من السهل استنساخ صوت بواسطة الذكاء الاصطناعي ومن الصعب التعرّف عليه".

وتعقّد سهولة صناعة ونشر محتوى صوتي مزيّف مشهدا سياسيا يعاني أساسا من الاستقطاب الشديد، ما يقوّض الثقة في الإعلام ويمكن أي شخص من زعم أن الأدلة المبنية على حقائق "هي مفبركة"، وفق ما قال الرئيس التنفيذي لـ "بلاكبرد أيه آي" Blackbird.AI وسيم خالد لـ "فرانس برس".

وتسود هذه المخاوف في وقت تنتشر أدوات الذكاء الاصطناعي الصوتية بسرعة أكبر من البرامج المخصصة لرصدها.

ما هى أداة الــ "ستريم فويس"؟

وكشفت شركة "بايت دانس" الصينية المالكة لمنصة "تيك توك" واسعة الانتشار مؤخرا عن "ستريم فويس"، وهي أداة ذكاء اصطناعي تحوّل بالوقت الحقيقي صوت المستخدم إلى أي بديل آخر.

وأفاد بالاسوبراماتيان بأنه "على الرغم من أن المهاجمين استخدموا إيليفن لابز هذه المرة، يرجّح بأن يكون نظام ذكاء اصطناعي توليدي آخر في الهجمات المستقبلية".

وتابع: "من الضروري أن يكون هناك ما يكفي من الضمانات المتاحة في هذه الأدوات".

وأوصى بالاسوبراماتيان وغيره من الباحثين بإدخال دمغات صوتية أو تواقيع رقمية على هذه الأدوات من أجل الحماية ووضع قواعد تجعلها متاحة للمستخدمين الذين يتم التحقق منهم فحسب.

وأفاد هاربر: "حتى بهذه الإجراءات، فإنه من الصعب والمكلف جدا اكتشاف متى يتم استخدام هذه الأدوات لصناعة محتوى مضر ينتهك شروط الخدمة".

وأضاف: "يتطلب الأمر استثمارا في الثقة والسلامة والتزاما ببناء (البرامج) مع اعتبار سلامة الانتخابات خطرا مركزيا".

 

 

المصدر: بوابة الفجر

كلمات دلالية: انتخابات الرئاسة الأمريكية تزييف الذكاء الاصطناعي الروبوتات أمريكا بايدن ترامب أدوات الذکاء الاصطناعی فرانس برس

إقرأ أيضاً:

هل يغير الذكاء الاصطناعي مستقبل أطفالنا؟

شمسان بوست / متابعات:

الذكاء الاصطناعي حديث الساعة على صفحات الجرائد والمجلات، وبات يشكل حيزًا كبيرًا على مواقع التواصل الاجتماعي المتعددة، ولديه القدرة على المساعدة في حل المشاكل المعقدة، ولكننا عرفنا أيضًا مخاوف جدية عنه، خصوصاً الطرق التي قد يغير بها حياة الأطفال والمراهقين.



فعلى الرغم من أن الذكاء الاصطناعي يتقدم بشكل أسرع مما يتوقعه أي شخص، فإننا لم نفكر بعد في تأثيره على الرفاهية الاجتماعية والعاطفية للأطفال، الذين لديهم قابلية كبيرة للارتباط بالألعاب- وحتى قبل مرحلة الإنترنت والأجهزة المحمولة-!


من هنا يتبادر إلى الذهن سؤال واحد هو: كيف يؤثر الذكاء الاصطناعي بين السلبيات والإيجابيات في حياة أطفالنا؟ اللقاء والدكتور محمود حسن أستاذ الحاسب الآلي والبرمجة الإلكترونية للشرح والتفسير.



*فوائد الذكاء الاصطناعي للأطفال

أشار خبراء صحة الأطفال في منظمة الأمم المتحدة للطفولة “يونيسيف” إلى أن الأطفال في جميع أنحاء العالم أصبحوا يستخدمون الذكاء الاصطناعي بشكل يومي تقريبًا، ويمكن للذكاء الاصطناعي والمراقبة الأبوية الجيدة أن تحسن حياة الأطفال بطرق إيجابية وعصرية ومنها:



*تحسين الخبرات التعليمية


مع تقدم الذكاء الصناعي، تسابقت الشركات المهتمة بالتعليم لإنشاء نماذج ذكاء اصطناعي تلبي احتياجات الأطفال، الذين تتراوح أعمارهم بين 7 و12 سنة، ويولّد ردودًا مناسبة بحسب العمر فقط.

لقد أنشأ الذكاء الاصطناعي قوته وإمكاناته المثيرة، طريقة تعليمية وممتعة للأطفال؛ للوصول إلى المعلومات على الإنترنت، ولكن مع مراعاة الحماية والأمان المناسبين للعمر.

كما يمكنه مساعدة الأطفال في تحسين مهاراتهم اللغوية وحتى تعلم لغات جديدة، مع تقدم الذكاء الصناعي تسابقت الشركات المهتمة بالتعليم لإنشاء نماذج ذكاء اصطناعي تلبي احتياجات الأطفال.


* الذكاء الاصطناعي يعزز الإبداع:

نحن نعيش في عالم مرئي، لذا يحتاج الأطفال إلى طرق للتعبير عن أفكارهم من خلال الصور والتصوير والرسوم البيانية وغيرها،

لهذا يعد الذكاء الاصطناعي ذا قيمة للفنانين الناشئين، وأيضًا للأطفال الذين يرغبون في إنشاء عروض بيانية ومخططات، ورسوم متحركة.

وقد يكون الذكاء الاصطناعي قادرًا على تحفيز الأطفال والتفاعل معهم بطرق جديدة؛ حيث يوفر طرقًا جديدة للاستمتاع واكتشاف عالمهم.

الذكاء الاصطناعي يساعد في حل المشكلات:

من خلال التفاعل مع الروبوتات الاجتماعية، يمكن للذكاء الاصطناعي أن يحسن الطريقة التي يعبر بها الأطفال عن أفكارهم وتحليلهم للمواقف، ويمكنه أيضاً تحسين قدرات فهمهم بشكل نقدي.

كما أظهرت الدراسات أن الأطفال الذين يتفاعلون مع هذه الروبوتات الاجتماعية عرضة لأن يعاملوها كشريك بشري، كما يساعد التفكير النقدي الأطفال في التعاون والتواصل مع الروبوتات بشكل إنتاجي.

الذكاء الاصطناعي يجهز الأطفال لفرص الوظائف في المستقبل:

الذكاء الاصطناعي يمكن أن يُعِد الأطفال في سن مبكرة للفرص المستقبلية في سوق العمل المتطور بسرعة، كما يمكن أن يوفر للأطفال الكفاءات والمعرفة اللازمة للنجاح في عالم التكنولوجيا.

مثل برمجة الحاسوب وتحليل البيانات، وذلك من خلال فهم إمكانيات الذكاء الاصطناعي وتطبيقاته، كما يمكن للأطفال أن يحظوا ببداية جيدة في الاستكشاف والتحضير لحياة مهنية في مجالات التكنولوجيا والابتكار.


* مخاطر الذكاء الاصطناعي على الأطفال


على الآباء إدراك أن الذكاء الاصطناعي سلاح ذو حدين بالنسبة للأطفال، والعامل الحاسم هو الأبوان اللذان عليهما توجيه أطفالهما ومراقبتهم كي ينعموا بأكبر فائدة، وأقل ضرر من الذكاء الاصطناعي ؛ فالذكاء الاصطناعي يمكن أن يلحق الضرر بالأطفال والأسر، خاصة أن عالم الإنترنت كبير ومفتوح، ومن طبيعة الطفل أنه فضولي ويحب الاكتشاف، وهذا ما يفتح الأبواب نحو المخاطر.


* قد ينشر الكراهية والتحيز والصور النمطية:

بما أن الذكاء الاصطناعي “يتعلم” من كل ما يجده على الإنترنت، فقد تعكس منصات الذكاء الاصطناعي نفس المتحيزات التي تهدد بتقسيمنا وعزلتنا، وبالتالي فإن المحتوى الذي يُنشأ بواسطة الذكاء الاصطناعي يعزز الصور النمطية والأكاذيب، وعلى البالغين أن يكونوا جاهزين للحديث مع الأطفال عما يرونه عبر الإنترنت.


* الشخصيات الوهمية وراء محتالي الإنترنت:

المخاطر المقلقة للغاية للأطفال عبر الإنترنت تتمثل في: تهديد المعتدين والمحتالين، حيث يمكن للذكاء الاصطناعي على وجه التحديد أن يُمكّن المحتالين عبر الإنترنت الاختباء وراء شخصيات وهمية.

وهؤلاء المحتالون يمكنهم استخدام أدوات الذكاء الاصطناعي لإنشاء روايات تحاكي قصص الأطفال، مما يزيد من خطر استمالة الأطفال واستغلالهم.

كما أن الألعاب والعوالم الافتراضية التي يُنشئها الذكاء الاصطناعي تقدم فرصًا كبيرة للتفاعل الاجتماعي، ولكنها يمكن أيضًا أن تعرّض الأطفال لسلوك عدواني.


* انتهاك خصوصية الأطفال وذويهم:

يجمع الذكاء الاصطناعي كمية هائلة من البيانات، فعلى سبيل المثال، عُثر على لعبة واحدة تسجل المحادثات بين الآباء والأطفال وأي شخص آخر قريب، مع إمكانية نقل البيانات من هذه المحادثات إلى أطراف ثالثة.

ومن الصعب متابعة التقارير المتعلقة بالألعاب والأجهزة التي قد تنتهك خصوصية عائلتك، ولكن قد يرغب الآباء في تجنب الألعاب التفاعلية التي يمكنها التحدث مع الأطفال.


* دعم العزلة الاجتماعية في المجتمع:

يواجه الأطفال والمراهقون حالياً وباء العزلة الاجتماعية، ويمكن أن تقلل الأنظمة المستندة إلى الذكاء الاصطناعي من الوقت الذي يقضونه في التفاعل مع الآخرين.

مقالات مشابهة

  • الذكاء الاصطناعي يختار الملاعب الأكثر رعبا في العالم
  • ألسن عين شمس تناقش أدوات الذكاء الاصطناعي في البحث العلمي
  • هل يغير الذكاء الاصطناعي مستقبل أطفالنا؟
  • جوجل تضيف 40 لغة لتوسيع أدوات البحث بالذكاء الاصطناعي.. تعرف على أبرزها
  • أدوات الذكاء الاصطناعي الأكثر شعبية في العام 2024 (إنفوغراف)
  • بلينكن يشيد بالتنسيق مع المغرب في مجال التعاون الرقمي والذكاء الاصطناعي
  • السبكي: نحرص على منظومة صحية متكاملة بالاعتماد على التحول الرقمي والذكاء الاصطناعي
  • جوجل تدخل وضع الذكاء الاصطناعي الجديد إلى محرك البحث
  • الإعلام والذكاء الاصطناعي.. تغطية الأزمات وثورة الخوارزميات
  • قصة العملة المعدنية والذكاء الاصطناعي في نزال فيوري وأوسيك