هل يؤدي ضغط العمل إلى «انتحار الروبوتات»؟.. تفاصيل واقعة غريبة في كوريا
تاريخ النشر: 30th, June 2024 GMT
واقعة غريبة في كوريا الجنوبية، أثارت حالة من الجدل عبر منصات التواصل الاجتماعي، خاصة بعد انتشار خبر «انتحار روبوت»، إذ أقدم على إلقاء نفسه من أعلى الدرج، نتيجة ساعات العمل الطويلة، التي من الممكن أن تكون أرهقته، هنا جاء التساؤل الأكبر كيف يمكن للروبوتات أن تشعر بأشياء تدفعها إلى الانتحار.. فما هي الحقيقة؟.
الروبوتات عبارة عن قطعة حديدية تحركها بعض البرامج تنفيذًا للأوامر التي يطلبها الإنسان، حقيقة يعلمها الجميع، هل يمكن لها أن تشعر بمتاعب أو إرهاق بسبب العمل أو مثل الذي يشعر بها البشر، وتدفعها للانتحار والتخلص من حياتها بطريقة مثل البشر أيضًا؟، أسئلة كثيرة تداولها الجميع بحثًا عن الإجابة المناسبة.
وحسبما نشرته صحيفة «فرانس بريس»، فإن البلدية أعلنت في وسط كوريا الجنوبية، عن فتحها تحقيقًا إثر إلقاء روبوت كان يستعان به في إنجاز المهام البلدية، نفسه من أعلى الدرج، إذ أنه كان يساعد منذ عام تقريبا سكان مدينة غومي على القيام بمهام إدارية.
حقيقة إقدام روبوت على الانتحاروتعليقًا على ذلك، قال الدكتور مصطفى أبو جمرة، خبير تكنولوجيا المعلومات ومتخصص في الذكاء الاصطناعي، إن حقيقة انتحار الروبوتات نتيجة ساعات العمل الطويلة أو غيرها، فلا أساس لها من الصحة، ولا يجوز للروبوت الحديدي أن يشعر مثل البشر مما يدفعه للقيام بأعمال قاسية أو التخلص من حياته.
وتابع «أبو جمرة» خلال حديثه لـ«الوطن»، أن كل تصرفات الروبوت تأتي نتيجة برمجة الإنسان له، وبعد تداول خبر «الانتحار» بسبب ساعات العمل الطويلة، من الممكن أن يكون أنه تمت برمجته للعطل في وقت معين أو العمل لساعات معينة، وهناك البعض الآخر يبرمجها للعطل التقني نتيجة مرورها بموقف معين بُرمج عليه أيضًا، أي كل ما يمر به الروبوتات تأتي نتيجة «عطل تقني».
المصدر: الوطن
كلمات دلالية: انتحار روبوت روبوت بالذكاء الاصطناعي الذكاء الاصناعي روبوت التكنولوجيا تكنولوجيا
إقرأ أيضاً:
خمسة أشياء لا يجب مشاركتها مع روبوت دردشة GPS
في الأشهر الأخيرة، أصبحت ChatGPS أداة شائعة للإجابة على الأسئلة وتقديم المساعدة في مختلف الأمور اليومية. وعلى الرغم من فائدتها الكبيرة كأداة قائمة على الذكاء الاصطناعي، يحذر بعض الباحثين من مخاطر مشاركة كل المعلومات معها.
أطلقت شركة Open AI منتجها ChatGPS، الذي يوفر مساعدًا رقميًا متعدد الوظائف. يمكن لهذا المساعد كتابة النصوص، تدقيق الأكواد البرمجية، تحليل البيانات الطبية، وحتى تقديم حلول عملية لمساعدة الأطفال على النوم. ومع ذلك، تعتمد هذه الاستجابات المخصصة على خوارزميات ذكية تتعلم وتطور نفسها بناءً على كل تفاعل مع المستخدمين.
وعلى مر السنين فإن ChatGPT، لم تعرف عنك فقط أنك تحب بيض الدجاج وتعاني من آلام الظهر، بل حفظت أيضًا المزيد من التفاصيل الشخصية.
وتهدف أدوات مثل ChatGPS إلى تخصيص الاستجابات وتحسين الأداء المستقبلي، مع حفظ العديد من التفاصيل الفردية، بدءًا من الحالة البدنية للمستخدمين وحتى أمور خاصة جدًا.
ويمكن تعطيل هذه الميزة عبر الإعدادات، لكن العديد من الأشخاص لا يفعلون ذلك، مما يؤدي إلى توفير كميات كبيرة من المعلومات لروبوت ChatGPS. ولكن ما الذي يجب تجنب قوله؟ ولماذا؟
وبحسب تحذيرات الخبراء، هناك خمسة أنواع من المعلومات لا ينبغي إدخالها في المحادثات مع روبوتات الدردشة، حيث يمكن أن تُساء استخدامها أثناء تدريب النماذج أو بسبب أخطاء النظام أو حتى في الهجمات الإلكترونية.
تتضمن هذه المعلومات:
1. معلومات الهوية: مثل رقم شهادة الميلاد، جواز السفر، العنوان، رقم الهاتف، وتاريخ الميلاد. ,رغم محاولات بعض روبوتات المحادثة فرض رقابة على هذه البيانات، tلا توجد ضمانات كاملة.
2. نتائج الفحوص الطبية: روبوتات المحادثة غير خاضعة لقوانين حماية البيانات الصحية الصارمة. إذا لزم الأمر، يمكن تحميل نتائج الاختبارات دون تضمين بيانات الهوية.
Relatedكيف يمكن الاعتماد على "تشات جي بي تي" أن يزيد من الاحتباس الحراري في العالم؟دراسة تكشف مفاجأة: تشات جي بي تي يشعر بالتوتر ويحتاج إلى "العلاج"مدينة أركاشون تتيح خدمة تشات جي بي تي بريميوم مجانًا لدعم كبار السن في الوصول إلى الخدمات الرقمية3. المعلومات المالية: مثل أرقام الحسابات المصرفية أو الاستثمارية، والتي قد تؤدي إلى عواقب خطيرة في حال الكشف عنها بشكل غير مقصود.
4. معلومات المؤسسة السرية: يعتمد بعض المستخدمين على روبوتات المحادثة لكتابة رسائل البريد الإلكتروني أو مراجعة الأكواد البرمجية أثناء العمل، مما قد يؤدي إلى تسريب بيانات تجارية حساسة أو رموز سرية.
5. كلمات المرور وأسماء المستخدمين: روبوتات المحادثة ليست بيئة آمنة لتخزين كلمات المرور أو البيانات الشخصية، ويجب الاحتفاظ بها ضمن برامج إدارة كلمات المرور المتخصصة.
تستخدم شركات كبرىمثل OpenAI وGoogle وMicrosoft محادثات المستخدمين لتحسين نماذجها. وعلى الرغم من إتاحة خيار تعطيل استخدام البيانات للتدريب ضمن الإعدادات، فإن العديد من المستخدمين غير مدركين لهذه الميزة.
طرق الحفاظ على الخصوصيةيقدم خبراء الأمن السيبراني توصيات لحماية الخصوصية، من بينها:
• استخدام وضع الدردشة المؤقتة: تعمل هذه الميزة مثل التصفح المتخفي في المتصفحات، حيث تمنع حفظ المحادثات واستخدامها في تدريب النماذج.
• حذف المحادثات: يمكن للمستخدمين حذف المحادثات من السجل بعد كل جلسة، مع التأكد من مسح البيانات نهائيًا بعد مرور 30 يومًا.
• استخدام أدوات إخفاء الهوية: يقدم محرك البحث «DuckDuckGo» أداة تُسمى «Duck.ai» لإرسال رسائل مجهولة إلى نماذج الذكاء الاصطناعي، رغم أن إمكانياتها تبقى محدودة مقارنة بروبوتات الدردشة الشاملة.
في النهاية، يعود القرار لك بشأن ما تختار مشاركته وما تحتفظ به لنفسك. روبوتات المحادثة مصممة لاستمرارية التفاعل، لكن السلطة النهائية تظل في يد المستخدم.
انتقل إلى اختصارات الوصولشارك هذا المقالمحادثة مواضيع إضافية "لا أمزح".. ترامب يُشير مجددًا إلى احتمال ترشحه لولاية رئاسية ثالثة عيد الفطر على وقع الانقسام بين الدول: مواعيد متعددة والجدل يحتدم إيران تهدد بقصف قاعدة "دييغو غارسيا" إذا تعرضت لأي هجوم تشات جي بي تيالذكاء الاصطناعيأمن