بعد النجاح الكبير الذي حققه تطبيق "ديبسك" الصيني للذكاء الاجتماعي وتجازوه، وتأثيره السلبي الكبير على أسهم شركات التكنلوجيا الكبرى، قال تقرير لصحيفة "الغارديان" البريطانية إن "الخبراء  حثوا على توخي الحذر بشأن التبني السريع لمنصة الذكاء الاصطناعي الصينية "ديبسك"، مشيرين إلى مخاوف بشأن نشرها لمعلومات مضللة وكيف قد تستغل الدولة الصينية بيانات المستخدمين.

وهي ذات المبررات التي أدت إلى حجب تطبيق "تيك توك" في الولايات المتحدة الأمريكية.

وأدى تطبيق الذكاء الاصطناعي الجديد منخفض التكلفة إلى مسح تريليون دولار من مؤشر أسهم التكنولوجيا الأمريكي الرائد هذا الأسبوع، وأصبح بسرعة التطبيق المجاني الأكثر تنزيلا في المملكة المتحدة والولايات المتحدة. ووصفه دونالد ترامب بأنه "جرس إنذار" لشركات التكنولوجيا.

لقد صدم ظهوره عالم التكنولوجيا من خلال إظهاره على ما يبدو أنه يمكنه تحقيق أداء مماثل للمنصات المستخدمة على نطاق واسع مثل ChatGPT"" مقابل جزء بسيط من تكلفتها.



ونقلت الصحيفة عن مايكل وولدريدج، أستاذ أسس الذكاء الاصطناعي في جامعة أكسفورد، قوله إنه "ليس من غير المعقول افتراض أن البيانات المدخلة في روبوت الدردشة يمكن مشاركتها مع الدولة الصينية".

وأضاف: "أعتقد أنه من الجيد تنزيله وسؤاله عن أداء نادي ليفربول لكرة القدم أو الدردشة حول تاريخ الإمبراطورية الرومانية، لكن هل أنصح بوضع أي شيء حساس أو شخصي أو خاص عليه؟ بالتأكيد لا، لأنك لا تعرف أين تذهب البيانات".

كما نقل التقرير عن ويندي هول، عضو الهيئة الاستشارية رفيعة المستوى للأمم المتحدة بشأن الذكاء الاصطناعي، قولها: "لا يمكنك التهرب من حقيقة أنه إذا كنت شركة تقنية صينية تتعامل مع المعلومات، فأنت تخضع لقواعد الحكومة الصينية بشأن ما يمكنك وما لا يمكنك قوله".

ونقلت عن روس بورلي، أحد مؤسسي مركز مرونة المعلومات، والذي تموله جزئيا حكومتا الولايات المتحدة والمملكة المتحدة، قوله: "يجب أن نشعر بالقلق. لقد رأينا مرارا وتكرارا كيف تسلح بكين هيمنتها التكنولوجية للمراقبة والسيطرة والإكراه، سواء على المستوى المحلي أو الخارجي".

وقال إنه إذا لم يتم التحكم فيه، فقد "يغذي حملات التضليل، ويؤدي إلى تآكل الثقة العامة وترسيخ السرديات الاستبدادية داخل ديمقراطياتنا".

وقال المتحدث باسم رئيس الوزراء، عندما سُئل عما إذا كانت الحكومة ستستبعد استخدام الذكاء الاصطناعي الصيني في وايتهول، إنه "من المبكر الحديث عن نماذج محددة". وقال إن التطورات أظهرت أن المملكة المتحدة يجب أن "تذهب أبعد وأسرع لإزالة الحواجز أمام الابتكار" في مجال الذكاء الاصطناعي.

و"ديبسك" منصة مفتوحة المصدر، مما يعني أن مطوري البرامج يمكنهم تكييفها مع غاياتهم الخاصة. وقد أشعلت الآمال في موجة جديدة من الابتكار في مجال الذكاء الاصطناعي، والتي بدا أنها تهيمن عليها شركات التكنولوجيا الأمريكية التي تعتمد على استثمارات ضخمة في الرقائق الدقيقة ومراكز البيانات ومصادر الطاقة الجديدة.

قال وولدريدج: "إنها تشير بقوة إلى حد ما، في حال لم يكن لدى أي شخص الرسالة، بأن الصين ليست متأخرة في هذا المجال".

ووجد بعض الأشخاص الذين اختبروا التطبيق أنه لن يجيب على أسئلة حول مواضيع حساسة مثل مذبحة ميدان تاينانمين. وعند سؤاله عن وضع تايوان، كرر موقف الحزب الشيوعي الصيني بأن الجزيرة جزء "غير قابل للتصرف" من الصين.

وقال هول: "إن أكبر مشكلة في الذكاء الاصطناعي التوليدي هي المعلومات المضللة. يعتمد الأمر على البيانات في النموذج، والتحيز في تلك البيانات وكيفية استخدامها. يمكنك أن ترى هذه المشكلة مع روبوت الدردشة DeepSeek".

يستخدم الأشخاص نماذج الذكاء الاصطناعي مثل "ديبسك" أو " شات جي بي تي" لمساعدتهم في معالجة الأوراق الشخصية أو المستندات الخاصة بالعمل، مثل محاضر الاجتماعات، ولكن يمكن لمالك الشركة أخذ أي شيء يتم تحميله واستخدامه لتدريب الذكاء الاصطناعي أو لأغراض أخرى.

تتخذ شركة "ديبسك" من هانغتشو مقرا لها وتوضح في سياسة الخصوصية الخاصة بها أن المعلومات الشخصية التي تجمعها من المستخدمين محفوظة "على خوادم آمنة تقع في جمهورية الصين الشعبية".



وتقول إنها تستخدم البيانات "للامتثال لالتزاماتنا القانونية، أو حسب الضرورة لأداء مهام في المصلحة العامة، أو لحماية المصالح الحيوية لمستخدمينا وغيرهم من الأشخاص".

وينص قانون الاستخبارات الوطنية في الصين على أن جميع الشركات والمنظمات والمواطنين "يجب أن يدعموا ويساعدوا ويتعاونوا مع جهود الاستخبارات الوطنية".

المصدر: عربي21

كلمات دلالية: سياسة اقتصاد رياضة مقالات صحافة أفكار عالم الفن تكنولوجيا صحة تفاعلي سياسة اقتصاد رياضة مقالات صحافة أفكار عالم الفن تكنولوجيا صحة تفاعلي صحافة صحافة إسرائيلية الصيني الذكاء الاصطناعي الصين الذكاء الاصطناعي صحافة صحافة صحافة سياسة سياسة صحافة صحافة صحافة صحافة صحافة صحافة صحافة صحافة صحافة صحافة سياسة اقتصاد رياضة صحافة أفكار عالم الفن تكنولوجيا صحة الذکاء الاصطناعی

إقرأ أيضاً:

“سدايا” تصدر تقريرًا حول تحيز الذكاء الاصطناعي وتحديات تبنيه

أصدرت الهيئة السعودية للبيانات والذكاء الاصطناعي “سدايا” تقريرًا متخصصًا عن “التحيز في أنظمة الذكاء الاصطناعي” بهدف تسليط الضوء على التحديات التي تواجه تطوير وتبني أنظمة الذكاء الاصطناعي في ظل توسـع كثير من الدول والمنظمات والشركات العالمية فـي تفعيل تطبيقات الذكاء الاصطناعي بشكل مضطرد في عددٍ من القطاعات الحساسة والحيوية، وما رافق ذلك من قلق متنام من تسرّب التحيز إلى أنظمة الذكاء الاصطناعـي لاسيما تلك المرتبطة باتخاذ القرار.

والتحيز في الذكاء الاصطناعي هو عبارة عن ميل غير عادل أو غير مقصود في مخرجات هذه الأنظمة وينشأ عن بيانات مُنحازة أو تصميم غير متوازن للخوارزميات، وقد يحدث في أنظمة الذكاء الاصطناعي بسبب التحيزات الإدراكية التي تؤدي إلى الانحراف عـن التفكير العقلاني أو السلوك الطبيعي في اتخاذ القرار أو الحكم على الأشياء، وغالبًا ما تنبع من التصورات الذهنية أو الاختصارات العقلية التي يستخدمها العقل البشري لتبسيط وتسريع عمليات الفهم واتخاذ القرارات أو بسبب التحيزات التقنية التي تنشأ عن تصميم وبناء أنظمة الذكاء الاصطناعـي وتطويرها وتنفيذها وتنبع من الجوانب الفنية للتقنية نفسها مثـل: التحيز في القياس أو الخوارزميات التي قد تؤثر في عدالة أو دقة أنظمة الذكاء الاصطناعـي.

وبذلت “سدايا” جهودًا كبيرة في تقليل التحيز في أنظمة الذكاء الاصطناعي من خلال تطوير معايير أخلاقية تضمن العدالة والشفافية وعدم التمييز، مع تحسين جودة مخرجات الذكاء الاصطناعي، ولضمان التزام تطبيقات الذكاء الاصطناعي بهذه المعايير، وأطلقت أداة متخصصة لقياس مدى الامتثال للمعايير الأخلاقية، مما يسهم في تعزيز استخدام الذكاء الاصطناعي بشكل مسؤول وعادل.

أخبار قد تهمك أكاديمية التنظيمات الرقمية تعقد برنامجًا تدريبيًا حول “التنظيمات المتطورة.. الذكاء الاصطناعي وأثره على الاقتصاد الرقمي” 27 فبراير 2025 - 8:43 مساءً منتدى مكة للحلال يشهد عددًا من الاتفاقيات لتعزيز النمو الاقتصادي واستثمار أحدث تقنيات الذكاء الاصطناعي في صناعة الحلال 27 فبراير 2025 - 12:19 صباحًا

وفي إطار التعاون الدولي، عملت سدايا مع المنظمات الدولية المهتمة بأخلاقيات الذكاء الاصطناعي لضمان تطبيق أفضل المعايير العالمية لأخلاقيات الذكاء الاصطناعي، حيث أنشأت المملكة العربية السعودية ممثلة في “سدايا” مركزًا دوليًا لأبحاث وأخلاقيات الذكاء الاصطناعي (ICAIRE) في الرياض بالتعاون مع منظمة اليونسكو؛ بهدف تعزيز الأبحاث الأخلاقية في الذكاء الاصطناعي ودراسة الحلول الممكنة لمعالجة تحديات الاستخدام الأخلاقي لهذه التقنية على المستوى الدولي.

كما نظّمت سدايا القمة العالمية للذكاء الاصطناعي لأعوام (2021 و2022 و2024) تحت شعار “الذكاء الاصطناعي من أجل خير البشرية” بهدف التوعية ومناقشة التحديات المرتبطة بالتحيز وتعزيز تطبيقات عادلة وشفافة تخدم الإنسانية، ولم تقتصر “سدايا” على الجانب التنظيمي فحسب، بل انتقلت إلى التطبيق العملي، حيث اتخذت عدة تدابير للحد من التحيزات في الأنظمة التي تقوم على تطويرها، بدءًا من مرحلة جمع البيانات وضمان جودتها ودقتها وتنوعها وحتى مرحلة نشر النموذج ، مثل “عيناي” ونموذج الكشف عن سرطان الثدي ونموذج التنبؤ بخطر الإصابة بالسكتة الدماغية.

وحذر التقرير من أنه يمكن أن يدخل الخطأ البشري والتحيز وسوء التقدير في دورة حياة بناء أنظمة الذكاء الاصطناعي، ويؤدي إلى خلق تحيّزات في تلك الأنظمة بصورة مقصودة أو غير مقصودة، وهذه التحيزات قد تقع في المراحل الأولية لصياغة المشكلة وجمع البيانات واستكشـافها إلى المراحل الحرجة كبناء النموذج والتنفيذ إلا أن فهـم مصادرها وكيفية ظهورها ووجود سياسات وإجراءات وضوابط مدروسة وأدوات تقنية مساعدة يُمكن أن يساعد على تجنب كثير منها ويخفف من حدة آثارها.

وأشار التقرير إلى إمكانية أن تنشأ التحيزات من البيانات المستخدمة لتدريـب الأنظمة أو الخوارزميات المستخدمة لمعالجة تلك البيانات أو حتى طريقة عـرض النتائج على المستخدمين مما قد تؤدي إلى تكريس صورة نمطية سلبية تجاه أحد الفئات، داعيًا إلى مراقبة ومراجعة النماذج قيد التشغيل بشكل مستمر لضمان الالتزام بالسياسات الأخلاقية المعتمدة بما يساعد في الكشف عن التحيزات مبكرًا، وتخفيفها قبل استفحال ضررها والبقاء على اطلاع بالبحوث الصادرة في هذا المجال، واختيار الموردين الملتزمين بتطوير تطبيقات الذكاء الاصطناعـي المسؤول.
وقدّم التقرير مجموعة من الحلول والتوصيات لمواجهة التحيز في الذكاء الاصطناعي، من بينها تطوير خوارزميات تتبنى مبادئ الشفافية والعدالة، وتحسين جودة البيانات من خلال ضمان تنوعها وتمثيلها لجميع الفئات، وزيادة الوعي بخطورة التحيز وتأثيره في المجتمعات لتحقيق التوازن والإنصاف، ووضع معايير وقواعد موحدة ومناسبة لتسمية البيانات لكي يتم تلافي عدم التوافق والاتساق في التسميات بين المسـميين مع الاستعانة ببعض الأدوات الناضجة في هذا المجال مثل اتفاقية المسـمين.
ودعا التقرير في ذلك الجانب إلى تنويع فريق العمل المسـؤول عن تطوير ونشر أنظمة الذكاء الاصطناعي وشموليته، وصيانة البنية التحتية لأنظمة الذكاء الاصطناعي لضمان الحفاظ على كفاءة هذه الأنظمة ووقايتها من تسرب التحيزات إليها، والتأكد بشكل دوري من كونها تعمل بكفاءة إلى جانب اعتماد إجراءات للتخفيف من تحيز البيانات عند ملاحظتهـا، وإجراءات لحماية بيانات المستفيدين، وعدم نشر التطبيقات إلا بعد مراجعتها من فرق الحوكمة المتخصصة والمُدربة على البحث عـن أنواع التحيزات في جميع دورات حياة بناء أنظمة الـذكاء الاصطناعـي والإبلاغ
عـن أي مخاوف عند توقعها.

ويمكن الاطلاع على التقرير من خلال زيارة الرابط التالي: https://2u.pw/z2VXywn4 .

مقالات مشابهة

  • الصين تطلب من مسؤولي شركات الذكاء الاصطناعي تجنب السفر لأمريكا
  • الصين تحصّن عقولها التقنية.. قيود صارمة على سفر قادة الذكاء الاصطناعي إلى أمريكا
  • الصين توجه مسؤولي شركات الذكاء الاصطناعي بتجنب السفر لأميركا
  • الصين تحذر مختصي الذكاء الاصطناعي من مواطنيها من السفر إلى الولايات المتحدة
  • الصين تحذر مسؤولي شركات الذكاء الاصطناعي من السفر لأمريكا
  • الذكاء الاصطناعي يتسبب بإلغاء 4 آلاف وظيفة بأكبر بنك في سنغافورة
  • خوفاً من التسريب والاعتقال..الصين تحذر المسؤولين عن الذكاء الاصطناعي من السفر إلى أمريكا
  • مايكروسوفت تطلق تطبيق Copilot لأجهزة ماك مع مزايا الذكاء الاصطناعي
  • “سدايا” تصدر تقريرًا حول تحيز الذكاء الاصطناعي وتحديات تبنيه
  • أمين الفتوى يوضح حكم استخدام الذكاء الاصطناعي في البحث العلمي