طردت شركة غوغل موظفا اعترض علنا على عمل الشركة لصالح الجيش الإسرائيلي. خلال عرض تقديمي قدمه أحد المسؤولين التنفيذيين في فرع غوغل في إسرائيل يوم الاثنين، حيث وقف مهندس غوغل السابق وصرخ قائلا "أنا أرفض بناء تكنولوجيا تدعم الإبادة الجماعية أو المراقبة".

وأكدت غوغل عملية الطرد، التي أبلغ عنها موقع "سي إن بي سي" (CNBC) لأول مرة، في رسالة بالبريد الإلكتروني إلى موقع ذي فيرج (The Verge).

وقال المتحدث باسم غوغل بيلي تومسون في بيان أرسل عبر البريد الإلكتروني "في وقت سابق من هذا الأسبوع، قام أحد الموظفين بتعطيل زميل في العمل كان يقدم عرضا تقديميا، مما أدى إلى التدخل في حدث رسمي ترعاه الشركة" وأضاف "هذا السلوك ليس مقبولا، بغض النظر عن المشكلة، وتم إنهاء خدمة الموظف بسبب انتهاك سياساتنا".

وقد وقع الحادث في مؤتمر مايند ذي تيك (Mind the Tech)، وهو مؤتمر إسرائيلي سنوي للتكنولوجيا في نيويورك، خلال عرض تقديمي قدمه باراك ريجيف، المدير الإداري لشركة غوغل في إسرائيل.

وكان المهندس يحتج على مشروع نيمبوس (Nimbus)، وهو عقد حكومي إسرائيلي بقيمة 1.2 مليار دولار للوصول إلى الخدمات السحابية من غوغل وأمازون.

BREAKING—PRO-PALESTINE @googlecloud ENGINEER DISRUPTS @Google ISRAEL DIRECTOR AT GOOGLE-SPONSORED ISRAELI TECH CONFERENCE IN NYC.

The worker demanded that Google STOP using worker labor to power genocide against Palestinians in Gaza. #NoTechForApartheid pic.twitter.com/t2mqCqFFay

— No Tech For Apartheid (@NoTechApartheid) March 4, 2024

وقال الموظف "مشروع نيمبوس يعرض أفراد المجتمع الفلسطيني للخطر". "لا للفصل العنصري السحابي". قبل أن يتم اصطحاب الموظف إلى خارج العرض التقديمي من قبل رجال الأمن.

وواجهت شركة غوغل انتقادات بسبب مشاركتها في مشروع نيمبوس عندما تم توقيع العقد في عام 2021. ونشر المئات من موظفي غوغل وأمازون رسالة مفتوحة للتحدث علنا ضد الصفقة، قائلين إن التقنيات "تسمح بمزيد من المراقبة وجمع البيانات غير القانونية عن الفلسطينيين".

ونشرت منظمة نو تيك في أبارتهايد (No Tech For Apartheid)، وهي منظمة مناهضة لمشروع نيمبوس، بيانا حول طرد المهندس يوم الجمعة.

وقالت المنظمة "أهداف غوغل واضحة: تحاول الشركة إسكات العمال لإخفاء إخفاقاتهم الأخلاقية"، وأضافت "باعتباره مهندس برمجيات سحابية في مجال التكنولوجيا الحيوية التي تمكن مشروع نيمبوس من العمل على مراكز بيانات إسرائيلية ذات سيادة، تحدث هذا العامل من مكان يشعر فيه بقلق شخصي عميق بشأن التأثيرات المباشرة والعنيفة لعمله".

منذ اندلاع الحرب بين إسرائيل وحماس في أكتوبر/تشرين الأول الماضي، نظم الموظفون عدة وقفات احتجاجية في مكاتب الشركة في سان فرانسيسكو اعتراضا على عقد الخدمات السحابية، ووقع أكثر من 600 موظف رسالة تحث غوغل على التوقف عن رعاية مؤتمر مايند ذي تيك. وذلك بحسب تقرير لموقع وايرد (Wired).

المصدر: الجزيرة

كلمات دلالية: حريات مشروع نیمبوس

إقرأ أيضاً:

الذكاء الاصطناعي.. سلاح ذو حدين أمام تحديات الصحة النفسية

يبدو الأمر مبهراً.. تطبيق في جيبك يلعب دور المعالج النفسي، متاح لك في كل وقت، دون مواعيد طويلة أو تكاليف باهظة. هذا هو وعد "العلاج النفسي بالذكاء الاصطناعي"، الذي يشهد تزايدًا في الإقبال، خاصة بين بعض الفئات من الباحثين عن الدعم النفسي السريع، وفقًا لموقع The Conversation التقني.

لكن الباحث نايجل ماليغان من جامعة دبلن سيتي يحذّر من أن هذه الوسائل، رغم سهولتها، قد تُفاقم عزلة الأشخاص الضعفاء بدلاً من تخفيف معاناتهم.

 

 

اقرأ أيضاً.. الذكاء الاصطناعي يتفوق على البشر في تحليل بيانات مراقبة القلب بدقة مذهلة

 

دعم محدود... وخطر محتمل



يستخدم العلاج النفسي التقليدي الحوار العميق لفهم المشاعر والصراعات الداخلية. أما الذكاء الاصطناعي – مثل برامج "تشات بوت" – فيحاكي ذلك الحوار ظاهريًا دون أن يمتلك القدرة الحقيقية على التعاطف أو الفهم الإنساني.


 

اقرأ أيضاً.. الأول من نوعه عالمياً.. مسح متخصص يكشف تأثير الذكاء الاصطناعي على الرعاية الصحية

 

ووفقًا للباحثين، فإن هذه الأنظمة قد تكون مفيدة في بعض الحالات الخفيفة كأداة مساعدة للمعالج البشري، لكنها غير مؤهلة للتعامل مع أزمات نفسية خطيرة التي تتطلب تدخلًا إنسانيًا مدروسًا.

فجوات إنسانية وثقافية




أخبار ذات صلة دراسة جديدة.. موظف واحد مدعوم بالذكاء الاصطناعي يضاهي أداء فريق كامل تخيّل ولعب ونجح.. هكذا هزم "دريمر" تحديات "ماينكرافت"!

الذكاء الاصطناعي يفتقر إلى الحساسية الثقافية، وقد يُسيء تفسير السياق أو النوايا بسبب اعتماده على خوارزميات جامدة. كما أنه لا يستطيع تعديل نهجه بناءً على التفاعل العاطفي أو الخلفية الشخصية للمستخدم، ما قد يؤدي إلى ردود فعل غير ملائمة أو حتى مؤذية.

 



غياب المساءلة والأمان



على عكس المعالجين المرخصين، لا تخضع تطبيقات الذكاء الاصطناعي لضوابط مهنية أو مساءلة قانونية، ما يثير القلق بشأن جودة النصائح المقدمة، وسرية البيانات الشخصية الحساسة التي يُمكن أن تُستغل أو تُسرّب.



 

العزلة بدل الراحة النفسية



يشير الباحث إلى خطر الاعتماد المفرط على "المعالج الذكي"، إذ قد يتجنب بعض الأشخاص التوجه إلى معالج بشري، مما يؤخر الحصول على علاج فعّال. في نهاية المطاف، قد يؤدي ذلك إلى تفاقم مشاعر الوحدة والعزلة، وهو عكس ما تهدف إليه الصحة النفسية.

 

 

على الرغم من أن الذكاء الاصطناعي قد يقدم أدوات مساعدة، إلا أنه لا يمكن أن يكون بديلاً عن العلاقة الإنسانية العميقة التي يبنيها العلاج النفسي الحقيقي، القائم على الثقة، التفاعل، والمساءلة.


 

إسلام العبادي(أبوظبي)

مقالات مشابهة

  • تعرف على إجراءات النيابة الإدارية خلال التحقيق مع الموقوف عن العمل
  • ذكاء مايكروسوفت الاصطناعي في خدمة إسرائيل: أصوات رافضة تدفع الثمن
  • رئيس الطائفة الإنجيلية يشارك في مؤتمر الصلاة السنوي بوادي النطرون.. صور
  • رئيس الطائفة الإنجيلية يشارك في مؤتمر الصلاة السنوي "ليسكن المجد في أرضنا"
  • ابتهال أبو سعد.. كيف كشفت مساعدة مايكروسوفت لإبادة فلسطين؟ القصة الكاملة
  • «مايكروسوفت» تحظر حسابات مهندسة فضحت مساعدة الشركة للاحتلال في قتل أطفال غزة
  • ‏⁧‫رسالة‬⁩ من نوع آخر إلى ( ⁧‫صدر الدين الگبنچي‬⁩) الذي يريد يقاتل أمريكا من العراق دفاعا عن ايران !
  • روسيا تطرد 3 دبلوماسيين مولدافيين رداً على خطوة مماثلة
  • تربية قناة السويس تطلق مؤتمرها الطلابي الثامن
  • الذكاء الاصطناعي.. سلاح ذو حدين أمام تحديات الصحة النفسية