- الإفراط في تبنّي التقنية يضعف مهارات التواصل الإنساني لدى الكوادر الطبية

- خصوصية المرضى تحدٍ أخلاقي.. ومخاوف من انتهاكات الأمن السيبراني والهجمات الخبيثة

- ضرورة وضع إطار قانوني أخلاقي يحدد المسؤولية الطبية ويراعي الحدود الإنسانية

يشهد القطاع الصحي ثورة تقنية غير مسبوقة من إدخال التقنيات وتطبيقات الذكاء الاصطناعي في عمليات التشخيص والعلاج ومعالجة البيانات، ولكن هذا الجانب يثير الكثير من التساؤلات حول مستقبل الأطباء ودورهم الإنساني في علاج المرضى، وهل بالفعل سيؤثر الذكاء الاصطناعي على أداء الأطباء؟ وهل سيفقد الطبيب بريقه في التواصل المباشر مع المريض واتخاذ القرارات العلاجية؟ أم ما زالت التقنية بحاجة إلى المزيد من التقنين لما قد تحدثه من تأثيرات جوهرية على الممارسة الطبية وأخلاقياتها وكذلك على دراسة الجوانب القانونية المرتبطة بها كون المحور الأساسي في العملية العلاجية هو حياة المريض؟.

الذكاء الاصطناعي في الصحة لا يجب أن يُلغي دفء الإنسانية ورحابة الفهم البشري، هذا ما أرادت أن تؤكد عليه الدكتورة رقية بنت إسماعيل الظاهرية رئيسة قسم الأبحاث والدراسات القانونية وعضو فريق الذكاء الاصطناعي بالمستشفى السلطاني بقولها: كلما تقدمنا في العلم والتكنولوجيا، تنشأ تحديات جديدة تتجاوز حدود المعرفة التقليدية وتتعلق بكيفية التعامل مع القوى المتزايدة التي يمنحها لنا التطور، وهناك دائمًا تساؤلات عن حدودها وتأثيرها على الإنسانية والقيم التي نسعى للحفاظ عليها في عالم التكنولوجيا المتسارع، وأصبح الذكاء الاصطناعي جزءًا لا يتجزأ من منظومة الرعاية الصحية، ولكن هناك ضرورة ملحة لدراسة هذه التقنية قبل تبنيها لما قد تحدثه من تأثيرات جوهرية على الممارسة الطبية وأخلاقياتها وكذلك على دراسة الجوانب القانونية المرتبطة بها كون المحور الأساسي في العملية العلاجية هو حياة المريض.

وتابعت: يجب أن نعمل نحو تكنولوجيا أخلاقية لا تترك المرضى أسرى لأرقام ومعادلات، بل تستمع لنبض قلوبهم وتستجيب لاحتياجاتهم الحقيقية، لابد من التعرف على نقاط القوة والضعف في تبني تطبيقات الذكاء الاصطناعي في التشخيص الطبي.

وأكدت الظاهرية بأنهم كأطباء قد يجدون أنفسهم في مفترق طرق بين الأمل والمخاطرة وبين تبني التقنية والقيم الإنسانية لاسيما حينما يتعلق الأمر برعاية المريض فذكرت أنه كلما تقدمنا في العلم والتكنولوجيا، تنشأ تحديات وأسئلة جديدة لاستكشاف هذه الرحلة المعقدة بين الآلة والإنسان، الخطر الحقيقي في زخم هذه الثورة هو يمكن أن يفقد الطب بعضًا من بشريته ويحوّل المرضى إلى مجرد بيانات على أجهزة تقنية تحلل وتعالج دون وضع الاعتبار لإنسانيتهم.

وبدون أدنى شك ثورة الذكاء الاصطناعي أحدثت طفرة نوعية في تحسين الخدمات الصحية وتقديم رعاية شاملة وفعالة من حيث تحليل البيانات الضخمة بسرعة فائقة تفوق القدرات البشرية بالإضافة إلى أن نظم التعلم الآلي قادرة على تحديد الأمراض في مراحلها المبكرة، والتنبؤ بمساراتها، وحتى اقتراح خطط علاجية مخصصة بناءً على بيانات الفرد الصحية والجينيّة والقدرة على قراءة الصور الطبية مما يؤدي إلى اكتشاف مبكر للسرطانات وفرص واعدة بالشفاء، كل ذلك يوفر وقتًا ثمينًا يمكن استثماره في جوانب أخرى من العلاج والرعاية، بل إن بعض التنبؤات تشير إلى أن الذكاء الاصطناعي قد يسهم في تقليص تكاليف الرعاية الصحية بشكل كبير، مما يتيح توسيع نطاق الخدمات الطبية لتصل إلى شرائح أوسع من المجتمع.

الحس الإنساني

وأضافت: بالرغم من كل هذه الآفاق الواعدة وجب أن نتريث قليلًا؛ لنعود إلى محور العملية العلاجية وهو المريض حيث لا يمكننا التغافل عن الوجه الآخر لمخاطر هذه الثورة والتي قد تؤثر على العلاقة الإنسانية في الممارسة الطبية.

والجانب المظلم للذكاء الاصطناعي أن يتم الاعتماد الكلي على استخدامه في اتخاذ القرارات التشخيصية والعلاجية مما قد يؤدي إلى افتقار اللمسة الإنسانية ويقل التفاعل بين الأطباء ومرضاهم، كما أن الإفراط في تبني هذه التقنية يضعف من مهارات التواصل الإنساني لدى الكوادر الطبية كالاستماع والتفهم والشعور وهذا من جوهر مهنة الطب ولبّها، حيث إن العملية العلاجية هي رحلة إنسانية مشتركة بين الطبيب والمريض للفهم العميق لحاجات الإنسان النفسية والجسدية؛ فالدعم والتعاطف مع المريض في حالات ضعفه أسس مهمة في هندسة الشفاء، ومها كانت عبقرية خوارزميات الذكاء الاصطناعي ودقتها لن تستطيع أن تحل محل الحس الإنساني المرهف.

وأكدت الدكتورة أن خصوصية المرضى تعد من أهم التحديات الأخلاقية لتبني تقنية الذكاء الاصطناعي، فثمة مخاطر متزايدة في الأمن السيبراني وانتهاكات البيانات والهجمات الخبيثة على نماذج الذكاء الاصطناعي، فالتعامل مع البيانات الصحية يتطلب قدرًا عاليًا من السرية؛ لحمايتها من إساءة الاستخدام لذا وجب وضع ضوابط وقوانين صارمة للتصدي لخطر الاختراق وسوء الاستخدام، كما تثير هذه التقنية تساؤلا محوريا عن المسؤولية الطبية والمخاوف بشأن التحيزات الخوارزمية أو الأخطاء التي قد تؤدي إلى تآكل الثقة في الذكاء الاصطناعي والتأثير سلبًا على نزاهة الرعاية الصحية، كون خوارزميات هذه التقنية غير معصومة من الخطأ ويمكن أن يحدث أي خلل في الشبكات التي يعتمد عليها النظام، مما قد يؤدي إلى خطأ في التشخيص أو خطأ في خطة العلاج، ففي حال الخطأ من يتحمل المسؤولية؟ هل هو الطبيب المعالج أم المؤسسة الصحية التي تبنت التقنية أم مطور التقنية الذي صمم الخوارزميات؟ لذا وجب وضع إطار قانوني أخلاقي يحدد المسؤولية الطبية في تبني الذكاء الاصطناعي ووضع أسس واضحة حتى لا يتم تجاوز الحدود الإنسانية في عصر التقنية.

كما أن الانحيازات الخوارزمية في الذكاء الاصطناعي في مجال الصحة تعد من أهم التحديات، وتنشأ هذه التحيزات نتيجة البيانات المستخدمة في تدريب النماذج الذكية، مما يؤدي إلى نتائج غير دقيقة أو غير عادلة عند استخدامها في التشخيص أو العلاج، وهذا الانحياز يمكن أن يتسبب في تفاوتات صحية، حيث قد تتجاهل الخوارزميات التنوع العرقي والجنسي والبيئي، مما ينعكس سلبًا على دقة التشخيص وكفاءة العلاج، ويؤدي إلى تمييز غير مقصود في الرعاية الصحية. لذا، فإنه من الضروري تطوير خوارزميات أكثر شمولية وشفافية لضمان تقديم رعاية صحية عادلة ودقيقة لجميع المرضى.

وأكدت أن تقنيات الذكاء الاصطناعي تحمل في طياتها آفاقًا واعدة لتحسين جودة الرعاية الصحية وإمكانيات كبيرة لتسهيل عمل الممارسين الصحيين، ولكن وجب تبني هذه التقنية بحذر واعتبارها وسيلة لتعزيز قدرة الطبيب ولا تحل مكانه، وأن تكون القرارات الطبية والعلاجية بيد الطبيب بحيث تستخدم التقنيات كأدوات مساعدة فقط، ويجب أن توضع لوائح وقوانين صارمة تؤطّر القيم الإنسانية والأخلاقية والقانونية لضمان ممارسة طبية آمنة ومسؤولة في عصر تكنولوجيا الذكاء الاصطناعي، كما أن حوكمة الذكاء الاصطناعي تعد متطلبًا أساسيًا لتقليل المخاطر المحتملة وضمان مستقبل آمن ومستدام للرعاية الصحية، وأن الموازنة الدقيقة بين التكنولوجيا والإنسانية مطلب حيوي لضمان طب أخلاقي ومستدام لذلك دمج هذه التقنية يجب أن يتم في سياق تتناغم فيه التكنولوجيا مع الأخلاق لتقديم رعاية صحية مستدامة ومشرقة.

مخاطر أخلاقية

وفي السياق ذاته طرحنا تساؤلًا على الدكتور هشام بن عبدالله الذهب استشاري أول جهاز هضمي ومناظير تداخلية حول إمكانية الاستغناء عن الطرق التقليدية في تشخيص الأمراض؟ فأجاب قائلا:" كما هو الحال مع كل أداة وتطور في التكنولوجيا هناك جانب مظلم ومشرق في آن واحد ولا بد من التعامل بحذر مع التطور السريع وعدم الانجراف إلى كل ما هو جديد إلا بعد التثبت، ومعرفة كل ما يتعلق بالذكاء الاصطناعي في تشخيص الحالات المرضية قبل الاعتماد عليه بشكل كبير، مشيرًا إلى أن الاعتماد المفرط على الذكاء الاصطناعي قد يؤدي إلى تقليل دور الأطباء في عملية التشخيص، مما قد يؤثر على مستوى العناية الصحية المقدمة، وقد تكون خوارزميات الذكاء الاصطناعي غير دقيقة في بعض الحالات، مما يؤدي إلى تشخيص خاطئ، وهذا يمكن أن يؤدي إلى معالجات غير مناسبة ويعرّض حياة المرضى للخطر.

أما فيما يخص موضوع خطر غياب الشفافية فهو يتمثل في أن معظم نماذج الذكاء الاصطناعي تعمل كـ"صندوق أسود"، مما يعني أنه يصعب فهم كيف تتخذ القرارات، وقد يؤدي ذلك إلى تزعزع الثقة من قبل الأطباء والمرضى في نتائج التشخيص، وهناك مخاطر قانونية حيث إنه إذا حدث خطأ في تشخيص الذكاء الاصطناعي، فقد يكون من الصعب تحديد المسؤولية مما قد يثير قضايا قانونية معقدة.

وأضاف: هناك مخاطر أخلاقية في استخدام الذكاء الاصطناعي يمكن أن يؤدي إلى تمييز غير متعمد إذا كانت البيانات المستخدمة لتدريب الأنظمة تحتوي على تحيزات وهذا قد يؤثر على مجموعات سكانية معينة سلبًا.

وفي المقابل أوضح الدكتور هشام إيجابيات الذكاء الاصطناعي في تشخيص الأمراض قائلا: لتحقيق أقصى فائدة من الذكاء الاصطناعي في تشخيص الأمراض، يجب دمجه مع الطرق التقليدية كأداة مساعدة للأطباء، واستخدام نتائجه كجزء من تقييم شامل للحالة، وهذا التكامل يساعد على الحفاظ على العلاقة الإنسانية بين الطبيب والمريض، ويضمن أن يتم اتخاذ القرارات الطبية بشكل مدروس وآمن، ويستطيع الذكاء الاصطناعي أتمتة بعض المهام الروتينية، مما يسمح للأطباء بالتركيز على الحالات الأكثر تعقيدًا واحتياجًا للاهتمام البشري.

ويمكن أن يحلل الذكاء الاصطناعي كميات كبيرة من البيانات بسرعة ودقة، مما يمكنه من التعرف على أنماط قد تغفلها العين البشرية، ويمكنه معالجة وتحليل البيانات الكبيرة من السجلات الطبية، والفحوصات، والتاريخ الطبي للمرضى، مما يعزز فهم الحالة الصحية لكل مريض. و باستخدام تقنيات مثل تعلم الآلة، يمكن للذكاء الاصطناعي أن يساعد في الكشف المبكر عن الأمراض، مما يزيد من فرص العلاج الناجح، وله دور في تخصيص العلاج عبر تقديم توصيات علاجية مخصصة بناءً على بيانات كل مريض، مما قد يؤدي إلى تحسين النتائج الصحية.

أداة مساعدة

وعن قياس فعالية استخدام الذكاء الاصطناعي في الممارسات الطبية قالت إيمان بنت حمود الندابية مديرة دائرة التدريب والدراسات: الذكاء الاصطناعي (AI) أثبت قدرته على تحليل كميات هائلة من البيانات والتعلم من الأنماط في صور الأشعة وتحاليل المختبرات بسرعة ودقة. ومع ذلك، لا يزال الذكاء الاصطناعي أداة مساعدة وليس بديلًا عن الطبيب.

حيث إن العوامل الإنسانية، مثل التواصل العاطفي وفهم خلفيات المريض الشخصية، هي عناصر أساسية في التشخيص والعلاج. لذا سيكون مكملًا للطبيب وليس متفوقًا عليه بالكامل، ويمكن قياس فعالية الذكاء الاصطناعي في المجال الطبي من خلال مقاييس مختلفة مثل دقة التشخيص، والسرعة في اتخاذ القرار الطبي، وتقليل الأخطاء الطبية ومتابعة مدى تحسين نتائج المرضى وتقليل التكاليف الطبية تكون مؤشرات فعالة، ودراسات الجدوى السريرية التي تقارن بين طرق التشخيص التقليدية وتلك المدعومة بالذكاء الاصطناعي تعد مهمة في هذا السياق.

وتطرقت الندابية إلى الحديث عن تأثير الذكاء الاصطناعي على دور الطبيب في التواصل مع المريض موضحة بقولها: الذكاء الاصطناعي يمكنه مساعدة الأطباء في تسريع عملية التشخيص، مما يوفر لهم الوقت للتركيز على جوانب التواصل مع المريض وتقديم رعاية شخصية. مع ذلك، هناك قلق بأن الاعتماد الزائد عليه قد يقلل من التفاعل الإنساني، لذا يجب على الأطباء الحرص على الحفاظ على التوازن بين استخدام التقنية والاحتفاظ بدورهم الإنساني في رعاية المرضى.

وأضافت: الأطباء بحاجة إلى تطوير فهم عميق للتحديات الأخلاقية المرتبطة بالذكاء الاصطناعي، مثل حماية خصوصية البيانات، التحيز الخوارزمي، واتخاذ قرارات علاجية تعتمد على الذكاء ويتطلب ذلك الالتزام بمعايير أخلاقية صارمة، والمشاركة في تطوير إرشادات توجيهية تقنن استخدام الذكاء الاصطناعي بما يحمي حقوق المرضى ويضمن العدالة.

ومن الضروري وضع أنظمة وقوانين واضحة تضمن استخدام الذكاء الاصطناعي بشكل آمن وفعال في القطاع الصحي. وهذه القوانين يجب أن تحمي حقوق المرضى وتضمن الشفافية في كيفية اتخاذ القرارات الطبية كما يجب أن تحمي الأطباء من المسؤوليات الزائدة إذا حدثت أخطاء ناتجة عن أنظمة الذكاء الاصطناعي.

وحول التحديات التي تواجه الأطباء عند استخدام الذكاء الاصطناعي أفادت أن أبرز التحديات تشمل التحيز في البيانات التي يتعلم منها الذكاء الاصطناعي، وهو ما قد يؤدي إلى نتائج غير دقيقة أو غير عادلة، بالإضافة إلى ذلك، قد يواجه الأطباء صعوبة في تفسير القرارات التي تتخذها أنظمة الذكاء، ما يتطلب تدريبًا متخصصًا لفهم وتحليل مخرجات هذه الأنظمة بشكل صحيح.

وأكدت أن تكامل أنظمة الذكاء الاصطناعي مع نظم المعلومات الصحية التقليدية يعد أهم التحديات التي تحتاج إلى بنى أساسية متطورة تضمن نقل البيانات بسلاسة دون التأثير على سير العمل اليومي أو سرية بيانات المرضى، والتحديات الأخرى تتعلق بأمان المعلومات، حيث إن تزايد الاعتماد على الذكاء الاصطناعي يزيد من خطر الهجمات السيبرانية.

وسخّر القطاع الصحي بعض تطبيقات الذكاء الاصطناعي في تحليل الصور الطبية مثل الأشعة والرنين المغناطيسي، والتنبؤ بنتائج العلاجات، وتطوير الأدوية بشكل أسرع، وتحليل البيانات الصحية لتحديد الأنماط الوبائية، كما يساعد الذكاء في دعم القرار الطبي وتقديم توصيات علاجية مخصصة بناءً على تحليل بيانات المرضى.

تقنيات طبية

وشهد القطاع الصحي تطورًا هائلًا بفضل التقدم التكنولوجي والابتكارات المستمرة وهذا ما أشار إليه تقرير "رؤية عمان 2040": في مجال التقنيات الطبية تم إدخال الذكاء الاصطناعي في 5 مؤسسات صحية في مجال الكشف المبكر عن سرطان الثدي، وتقديم خدمات صحية عبر 5 عيادات افتراضية شملت الطب التطوري، وعيادة الأعصاب للكبار، وعيادة الأعصاب للأطفال، والغدد الصماء عند الأطفال وعيادة الصحة المهنية في المدينة الطبية الجامعية.

ومن الأمثلة الناجحة قامت المدينة الطبية الجامعية بإجراء أول عملية جراحة أطفال في زراعة الحالبين عن طريق المنظار من داخل المثانة، وتوفير علاج جديد باستخدام جهاز التحفيز المغناطيسي عبر الجمجمة، وإكمال التحضيرات اللازمة لتوسعة قسم الأشعة والتصوير الجزئي.

ويعكس مركز المحاكاة والابتكار الذي تم تأسيسه في المجلس العماني للاختصاصات الطبية الجهود المبذولة للاستفادة من التقنيات الحديثة في تطوير القطاع الصحي، ويعمل المركز على الجمع بين كل الفروع والتخصصات الطبية وتحسين مهارات الكادر الصحي من خلال تبني تقنيات وأساليب حديثة في التعليم الطبي ووسائل ابتكارية تعويضية والتدريب والبحث والتقييم والابتكار لتقليل العبء المادي والمعنوي، وتحسين رعاية وسلامة المرضى، وقد حصل المركز على جائزتين في فئتي "الابتكار" و"الطابعة ثلاثية الأبعاد" عن دوره في تدريب الكوادر الصحية باستخدام التقنيات الحديثة في مؤتمر مهارات المستقبل وتنمية الموارد البشرية، عن طريق الدار العربية للبحوث كما فاز بجائزة أفضل مبادرة في الابتكار وتوظيف التقنيات المتقدمة، ضمن فعاليات معرض كومكس العالمي للتكنولوجيا في مايو 2024.

المصدر: لجريدة عمان

كلمات دلالية: استخدام الذکاء الاصطناعی الذکاء الاصطناعی فی الرعایة الصحیة اتخاذ القرارات ما قد یؤدی إلى القطاع الصحی هذه التقنیة فی التشخیص مع المریض فی تشخیص یمکن أن حیث إن ا یمکن مما قد یجب أن

إقرأ أيضاً:

كيف أصبحت غزة ساحة لتطوير الاحتلال قدرات الذكاء الاصطناعي وتجريبه؟

كشف تقرير نشرته صحيفة "نيويورك تايمز"، عن مدى توغل التكنولوجيا المتقدمة، وخاصة الذكاء الاصطناعي، في العمليات العسكرية الإسرائيلية خلال حربها المستمرة على قطاع غزة.

وأوضح التقرير الذي ترجمته "عربي21"، أن الاحتلال الإسرائيلي اعتمد بشكل متزايد على أدوات وتقنيات الذكاء الاصطناعي لتحقيق تفوق نوعي في ميدان المعركة، وهو ما أدى في بعض الأحيان إلى نتائج قاتلة طالت المدنيين.

وأشار التقرير إلى أن أبرز مثال على هذا الاستخدام جاء في أواخر عام 2023، عندما حاولت القوات الإسرائيلية اغتيال إبراهيم البياري، أحد القادة البارزين في حركة حماس. ونظراً لصعوبة تحديد مكانه الفعلي، نظراً لاحتمال اختبائه في شبكة الأنفاق المنتشرة تحت غزة، لجأ جيش الاحتلال الإسرائيلي إلى تقنية تحليل صوتي مدعومة بالذكاء الاصطناعي، كانت قد طُورت قبل نحو عقد من الزمن لكنها لم تُستخدم في ساحات القتال من قبل.

وبحسب مصادر أمريكية وإسرائيلية مطلعة تحدثت للصحيفة، فقد تولى مهندسون في الوحدة 8200، المكافئة الإسرائيلية لوكالة الأمن القومي الأمريكية، تطوير الأداة ودمجها بتقنيات ذكاء اصطناعي متقدمة.

وتم تحليل مكالمات البياري، واعتمادا على تلك البيانات الصوتية، قامت قوات الاحتلال الإسرائيلي بشن غارة جوية في 31 تشرين الأول/أكتوبر 2023 استهدفت الموقع المشتبه به. غير أن الغارة، التي فشلت في قتل البياري، أسفرت عن استشهاد 125 مدنيا، بحسب منظمة "إيروورز" المعنية بتوثيق ضحايا الحروب.

ويمثل هذا الهجوم، وفق التقرير، نموذجاً مصغراً لطريقة استخدام إسرائيل لتقنيات الذكاء الاصطناعي في حربها ضد غزة، حيث دمجت هذه التقنيات بمجالات متعددة تشمل التعرف على الوجوه، وتحليل البيانات النصية، وتحديد الأهداف العسكرية المحتملة. وقد أشارت مصادر الصحيفة إلى أن عمليات تطوير هذه الأدوات جرت عبر تعاون وثيق بين ضباط الوحدة 8200 وعدد من جنود الاحتياط العاملين في شركات تكنولوجية كبرى مثل غوغل، مايكروسوفت، وميتا.


وتحدث التقرير عن إنشاء ما يعرف بـ"الاستوديو"، وهو مركز ابتكار تابع للوحدة 8200، يهدف إلى تسريع إنتاج وتطبيق أدوات الذكاء الاصطناعي في العمليات العسكرية. وبيّن أن نشر هذه الترسانة التكنولوجية أدى أحياناً إلى نتائج كارثية، منها أخطاء في تحديد الهوية، واعتقالات عشوائية، بل ووقوع ضحايا مدنيين، وهو ما أثار تساؤلات أخلاقية لدى مسؤولين عسكريين إسرائيليين وأمريكيين على حد سواء.

وفي هذا السياق، قالت هاداس لوربر، المديرة السابقة لمجلس الأمن القومي الإسرائيلي ورئيسة معهد الأبحاث التطبيقية في الذكاء الاصطناعي، إن "وتيرة الابتكار تسارعت تحت وطأة الحاجة الملحة للرد على التهديدات"، مشيرة إلى أن هذه الابتكارات التقنية منحت الجيش الإسرائيلي "مزايا استراتيجية"، لكنها "أثارت أيضاً قضايا أخلاقية جوهرية تتطلب وجود ضوابط صارمة".

ورغم امتناع جيش الاحتلال الإسرائيلي عن التعليق المباشر على هذه التقنيات لأسباب تتعلق بالسرية، إلا أن مصادر التقرير كشفت أن الجيش أطلق تحقيقاً داخلياً في الغارة التي استهدفت البياري. أما شركات التكنولوجيا التي ذُكر أن موظفيها شاركوا في هذه الجهود ضمن صفوف جنود الاحتياط، فقد رفض معظمها التعليق، بينما قالت شركة غوغل إن مشاركة موظفيها "لا علاقة لها بمهامهم داخل الشركة".

ويذكر التقرير أن الاحتلال الإسرائيلي دأب على استغلال الحروب، خاصة في غزة ولبنان، كمنصات لاختبار وتطوير قدراتها التكنولوجية، مثل الطائرات بدون طيار، وأدوات اختراق الهواتف، ونظام الدفاع الصاروخي "القبة الحديدية". 

ومنذ  7 تشرين الأول/ أكتوبر، فتح الاحتلال المجال أمام استخدام واسع النطاق لتقنيات الذكاء الاصطناعي بالتعاون مع الوحدات العسكرية المختصة.


كما طوّر جيش الاحتلال الإسرائيلي نموذجاً لغوياً كبيراً باللغة العربية، أنشئ لتشغيل روبوت محادثة قادر على تحليل الرسائل النصية، ومنشورات وسائل التواصل الاجتماعي، وغير ذلك من البيانات. وتم تغذيته بكم هائل من البيانات التي جمعت خلال سنوات من المراقبة الإلكترونية، مما مكنه من تمييز اللهجات المختلفة وتحليل ردود الفعل العامة، كما حدث بعد اغتيال حسن نصر الله في أيلول/سبتمبر الماضي، وفق ما أفاد به ضباط إسرائيليون للصحيفة.

إلا أن النموذج لم يكن خالياً من العيوب، إذ فشل أحياناً في تفسير بعض المصطلحات العامية، أو أخطأ في فهم المحتوى البصري، ما تطلب تدخل ضباط مخضرمين لتصحيح هذه الأخطاء. وعلى الأرض، زودت إسرائيل نقاط التفتيش المؤقتة في غزة بكاميرات مدعومة بتقنيات التعرف على الوجه، لكنها أخفقت أحياناً في التعرف على الأشخاص بدقة، ما تسبب في اعتقال مدنيين عن طريق الخطأ.

ومن بين الأدوات التي أثارت جدلاً أيضاً، خوارزمية "لافندر"، وهي أداة تعلم آلي صممت لتحديد المقاتلين منخفضي الرتب في حماس، لكنها كانت غير دقيقة، ومع ذلك استخدمت لتحديد أهداف في بداية الحرب.

ويخلص التقرير إلى أن هذه التجارب التقنية، رغم ما توفره من قدرات عسكرية متقدمة، قد تؤدي إلى تسريع وتيرة العنف وسقوط ضحايا من المدنيين، في وقت لم تُحسم فيه بعد الأسئلة الأخلاقية الكبرى المرتبطة باستخدام الذكاء الاصطناعي في ميادين الحروب.

مقالات مشابهة

  • الذكاء الاصطناعي يتنبأ باستجابة المرضى لعلاج سرطان الكلى
  • "إكسترا نيوز" تبرز مخاطر الذكاء الاصطناعي على الأطفال
  • الرئيس الصيني: الذكاء الاصطناعي سيغير أسلوب الحياة البشرية بشكل جذري
  • كيف أصبحت غزة ساحة لتطوير الاحتلال قدرات الذكاء الاصطناعي وتجريبه؟
  • لطافتك تكلف الذكاء الاصطناعي الملايين!
  • جهاز ذكي يساعد المكفوفين على التنقل باستخدام الذكاء الاصطناعي
  • أبوظبي.. الذكاء الاصطناعي في خدمة الرعاية الصحية
  • أطلقتها «الإمارات الصحية».. «مسار» لتوظيف الذكاء الاصطناعي بالرعاية الصحية
  • كيف تعمل من المنزل باستخدام الذكاء الاصطناعي؟
  • يساعدك في اتخاذ القرار.. كيف يغيّر الذكاء الاصطناعي صورة الإنسان عن نفسه؟