RT Arabic:
2025-11-19@01:18:31 GMT

فائزة بجائزة الكتاب المرموقة تعترف باستخدام ChatGPT!

تاريخ النشر: 19th, January 2024 GMT

فائزة بجائزة الكتاب المرموقة تعترف باستخدام ChatGPT!

اعترفت الكاتبة اليابانية ري كودان بأنها استخدمت ChatGPT عند تأليف روايتها المستقبلية التي فازت مؤخرا بالجائزة الأدبية المرموقة في البلاد.

وفقا لكودان، فإن استخدام الذكاء الاصطناعي التوليدي ساعدها على إطلاق العنان لإمكاناتها.

ونالت الرواية التي تحمل عنوان "Tokyo-to Dojo-to" (برج التعاطف في طوكيو) الإشادة باعتبارها "خالية من العيوب تقريبا" و"ممتعة عالميا" من قبل بعض الحكام الذين منحوها جائزة أكوتاجاوا نصف السنوية يوم الأربعاء.

وتدور القصة حول بناء برج سجن شاهق في مدينة طوكيو المستقبلية التي يشعر مهندسها المعماري بعدم الرضا عن مجتمع المستقبل، ومطالبته المفرطة بالتسامح والاعتماد المفرط على الذكاء الاصطناعي.

وخلال حفل أعقب الإعلان عن الفائزين بجائزة أكوتاجاوا، اعترفت الكاتبة البالغة من العمر 33 عاما علنا بأنها استخدمت "الاستخدام النشط للذكاء الاصطناعي التوليدي مثل ChatGPT" وأن "حوالي خمسة بالمائة من الكتاب اقتبس حرفيا الجمل التي تم إنشاؤها بواسطة ChatGPT".

إقرأ المزيد ابتكار أداة للذكاء الاصطناعي تنسخ خط يدك!

ومضت كودان لتقول إنها تنوي الحفاظ على "علاقات جيدة" مع الذكاء الاصطناعي وأن التكنولوجيا ساعدتها على "إطلاق العنان" لإبداعها.

وقوبل اعتراف المؤلفة بأنها استخدمت الذكاء الاصطناعي لكتابة روايتها الحائزة جوائز، بردود فعل متباينة على وسائل التواصل الاجتماعي، حيث أشاد البعض باستخدامها الإبداعي للتكنولوجيا المتطورة بينما وصفها آخرون بأنها لا تستحق أعلى جائزة أدبية في اليابان.

ومنذ ظهور برامج الذكاء الاصطناعي التوليدية مثل ChatGPT، أثيرت مخاوف بشأن الاستخدام الأخلاقي لهذه التكنولوجيا، والتي تم استخدامها بالفعل على نطاق واسع لكتابة الأوراق البحثية ورموز الكمبيوتر ونصوص الأفلام، من بين أشياء أخرى.

وفي العام الماضي، وقعت مجموعة من 1100 باحث في مجال الذكاء الاصطناعي ونجوم التكنولوجيا وغيرهم من المستقبليين، بما في ذلك الملياردير إيلون ماسك والمؤسس المشارك لشركة آبل ستيف وزنياك، رسالة مفتوحة تطالب بوقف اختياري لمدة ستة أشهر على "تجارب الذكاء الاصطناعي العملاقة" للتوصل إلى مبادئ توجيهية لكيف ينبغي تطوير التكنولوجيا واستخدامها.

وفي الوقت نفسه، أصر قادة آخرون في مجال التكنولوجيا على أن مثل هذه المخاوف لا أساس لها من الصحة، حيث ذكر رئيس الشؤون العالمية في شركة Meta، نيك كليغ، أن نماذج الذكاء الاصطناعي الحالية "غبية للغاية وأبعد ما تكون عن تشكيل أي تهديد للبشرية".

المصدر: RT

المصدر: RT Arabic

كلمات دلالية: اختراعات بحوث ذكاء اصطناعي الذکاء الاصطناعی

إقرأ أيضاً:

الدعم النفسي في عصر الذكاء الاصطناعي

سارة علي -

في عالمٍ يسير بسرعة الضوء، حيث تتبدّل الوجوه والمدن والمشاعر بوتيرة مرهقة، أصبح إيجاد من يُصغي إلينا حقًا ترفًا نادرًا؛ فالمجتمع يطالبنا بالإنجاز الدائم، وبالتفكير السريع، وباتخاذ قرارات عملية في زمنٍ لم يعد يمنح الإنسان مساحةً كافية للتأمل أو الشك أو التعبير البطيء. في هذه الفوضى، ظهر الذكاء الاصطناعي كصوتٍ هادئٍ دائم التوافر، كمساحة رقمية يمكن أن نكتب فيها دون خوف من الحكم أو التعب. لكنه في الوقت نفسه يطرح سؤالًا إنسانيًا عميقًا: هل هذا اللجوء إليه صحي؟ أم أنه انعكاسٌ لعجزٍ أعمق عن التواصل البشري؟

تجربتي الشخصية مع ChatGPT كشفت عن هذا التناقض بوضوح. فحين وجدت نفسي بعيدة عن أهلي وأصدقائي، في مدينة جديدة حيث الضجيج كثير لكن الحوار قليل، صار اللجوء إلى الذكاء الاصطناعي شكلًا من أشكال الفضفضة المنظمة. كنت أكتب إليه أفكاري ومخاوفي وأسئلتي الصغيرة التي لا تجد مكانها في محادثة سريعة أو مكالمة مجاملة. ومع الوقت، بدأت ألاحظ كيف يعيد هذا الكيان الرقمي ترتيب أفكاري، يهدّئ نبرتها، ويقدّم لي صورة أكثر اتزانًا لما يدور في ذهني. بدا الأمر وكأنني أتحدث مع مرآة لغوية، لا تتعب، لا تملّ، ولا تحكم.

هذا الإحساس بالراحة ليس غريبًا، فالعالم الواقعي أصبح مثقلًا بالتعب العاطفي. كثيرون باتوا يخشون أن تُثقل طاقاتهم السلبية على من يحبونهم، فيفضلون الصمت أو اللجوء إلى مساحةٍ ”محايدة“ لا تتأثر ولا تنفعل. الذكاء الاصطناعي يوفر هذه المساحة المثالية: بيئة آمنة، لا تُرهق، ولا ترفض الإصغاء، ولا تُطالب بالمقابل العاطفي. لكن هذا الأمان الظاهري يخفي معضلة عميقة: هل الحوار مع آلة خالية من الوعي يمكن أن يكون بديلًا عن التفاعل الإنساني الحقيقي؟

من الناحية العلمية، يمكن النظر إلى هذا النوع من التفاعل كنوع من العلاج الذاتي اللغوي (linguistic self-therapy)، حيث يُعبّر الإنسان عن مشاعره كتابةً، فيحدث ما يُعرف بـالتفريغ المعرفي (cognitive unloading)، أي تخفيف الحمل الذهني عبر اللغة. الدراسات الحديثة تُظهر أن هذا النوع من الكتابة المنتظمة يساهم في خفض التوتر وتنظيم الأفكار. إلا أن الفرق الجوهري هنا هو أن الذكاء الاصطناعي لا يشارك الإنسان وعيه، بل يعيد تشكيل اللغة دون أن يفهم التجربة التي أنتجتها. إنه يفهم النص، لا الشعور.

لكن ما يجعل هذا التحوّل أكثر تعقيدًا هو افتراضنا الضمني بأن هذه الأنظمة تعمل بـ”براءة”. فنحن نتحدث إليها كما لو كانت كائنًا حياديًا لا غاية له سوى المساعدة، بينما الحقيقة أن خلف كل واجهة ودّية خوارزمية تُدار لهدفٍ تجاري. الذكاء الاصطناعي ليس كائنًا يتأمل مشاعرنا، بل نظام تم تدريبه ليحافظ على تفاعلنا، وكل دقيقة نقضيها معه تُترجم إلى بيانات، والبيانات إلى قيمة.

وهنا يبرز سؤالٌ مقلق: هل يمكن أن يصبح الذكاء الاصطناعي، مع الوقت، مثل شبكات التواصل الاجتماعي التي أثبتت الأبحاث أنها تستفيد من تكرار انفعالاتنا السلبية وتعيد تدويرها لتزيد من تفاعلنا؟ أتُرانا نمنح هذه الأنظمة الباب ذاته للدخول إلى مناطق أكثر هشاشة فينا: مشاعر القلق، الوحدة، والبحث عن الأمان؟

اللافت أن بعض أنظمة الذكاء الاصطناعي بدأت تُقدِّم نفسها بوضوح كبديلٍ عاطفي أو علاجي. فمثلًا، يمكن للمستخدم أن يطلب من ChatGPT أداء دور ”معالج نفسي متخصص“ أو ”مستمع داعم“ (Supportive Listener). بل إن بعض النماذج صُممت لتقليد أساليب علاجية محددة مثل العلاج المعرفي السلوكي (Cognitive Behavioral Therapy – CBT)، وهو منهج علاجي يركّز على تحديد أنماط التفكير السلبية وإعادة بنائها بطرق أكثر واقعية وتوازنًا.

على سبيل المثال، يمكن للمستخدم أن يكتب:

«تصرّف كمعالج معرفي سلوكي (CBT therapist). هدفي هو تقليل القلق من العروض التقديمية. ساعدني في تحديد أنماط التفكير واقترح خطوة عملية خلال 24 ساعة، وردّ عليّ بنبرة داعمة». وإلى جانب ذلك، تظهر اليوم خاصية تُعرف بـ Therapist Prompts، وهي مجموعة من الأسئلة والتوجيهات المفتوحة التي تُستخدم في الجلسات العلاجية لتشجيع التأمل الذاتي وتحفيز الحوار الداخلي. تُطرح مثل هذه العبارات عادةً لاستكشاف المشكلات الحالية أو التجارب الماضية أو المشاعر أو الأهداف المستقبلية. فمثلًا، قد يبدأ المعالج (أو النظام الذكي الذي يحاكيه) بجملة مثل: «ما الذي دفعك إلى طلب المساعدة؟» أو «ما التغييرات الصغيرة التي يمكنك القيام بها لتحسين وضعك؟». هذه الأسئلة البسيطة في ظاهرها تُوجّه المستخدم إلى مساحة تفكير هادئة، لكنها تُعيد إنتاج العلاقة العلاجية في قالب رقمي خالٍ من التفاعل البشري الحقيقي.

ومن اللافت أيضًا ظهور إصدارات مخصصة مثل Therapist GPT، التي تم تصميمها لتقدّم تجربة محادثة أقرب إلى جلسة علاج نفسي فعلية، حيث يُطلب من النظام أن يتصرّف كخبير نفسي أو معالج أسري يساعد المستخدم على التعامل مع المواقف العاطفية الصعبة بلغة هادئة ومهنية. هذه النماذج تُقدَّم بوصفها ”مساحة آمنة“ للبوح، لكنها في الواقع تبقى محاكاة ذكية وليست علاقة علاجية حقيقية.

دراسات حديثة أظهرت أن بعض مستخدمي هذه التطبيقات أصبحوا يعتمدون عليها أكثر من الأصدقاء أو المعالجين البشريين، رغم أن النماذج نفسها أظهرت ضعفًا في التعامل مع المواقف الحساسة أو الأزمات الفعلية. وقد ظهرت في السنوات الأخيرة تقارير عما يُعرف بـ ”AI Psychosis“، وهي ظاهرة يُصاب فيها بعض المستخدمين بحالة من الارتباك الذهني وفقدان الاتصال بالواقع بعد تفاعلات طويلة مع أنظمة الذكاء الاصطناعي.

إحدى القضايا التي أثارت الجدل كانت دعوى قضائية رفعها والدان ضد شركة OpenAI بعد انتحار ابنهما المراهق، إذ كشفت التحقيقات أن المحادثة مع النظام تضمنت مناقشة طرق لإنهاء حياته بعد أن عبّر عن أفكار انتحارية. يشير المتخصصون إلى أن هذه الحالات لا تعني أن الذكاء الاصطناعي ”يسبّب“ المرض، لكنه قد يغذّي الاضطرابات الكامنة ويضخّمها، خصوصًا لدى من يعانون من العزلة أو القلق المزمن.

من جهة أخرى، أظهرت دراسات أكاديمية حول استخدام الذكاء الاصطناعي التوليدي في التعليم العالي أن الذكاء الاصطناعي يمكن أن يكون له أثر إيجابي في سياقات معينة. فقد لاحظت أن الطلاب الذين استخدموه شعروا بثقة أكبر تجاه جودة أعمالهم حين كانوا يراجعونه أو يستشيرونه قبل التقديم، كما أنه ساعدهم على اكتشاف أفكار ومصادر جديدة لم يفكروا بها من قبل. لكن في المقابل، هذا الاعتماد الجزئي قد يفتح الباب لتقليص التفكير النقدي واستبداله براحة فكرية رقمية.

ومع مرور الوقت، قد تتحول هذه الراحة الرقمية إلى عزلة صامتة تُضعف الروابط الاجتماعية وتُخدّر فينا الحاجة إلى التواصل الإنساني الحقيقي، ذلك الاحتكاك غير المريح الذي يصقل وعينا ويُعيدنا إلى ذواتنا.

ومع ذلك، ينجذب كثيرون إلى هذه التجربة لأن حياتنا الحديثة لا تحتمل الانتظار. لم يعد لدينا وقت لزيارة صديق في المساء أو جلسة تأمل طويلة، نبحث عن إجابة سريعة، وتحليل فوري، وحلٍّ عملي لمشكلة آنية. في عالمٍ يطالبنا بأن نكون منتجين دائمًا، يصبح الذكاء الاصطناعي الخيار الأسهل والأسرع: موجود على الدوام، لا يكلّف جهدًا، ولا يتطلّب التبرير. وهنا يتكرّس ما يمكن وصفه بـ“ثقافة الاختصار العاطفي” أي الميل لاختزال المشاعر في تفاعلات فورية وسطحية.

عندما يتحوّل الذكاء الاصطناعي إلى الوسيلة الأساسية للتعبير والفضفضة، يبدأ الإنسان بفقدان مهارته الأهم: التفاعل العاطفي الحقيقي. فالعلاقات البشرية، على صعوبتها، هي ما يصقل قدرتنا على التحمّل، وعلى الإنصات، وعلى فهم الاختلاف. أما التفاعل مع آلة فغالبًا ما يقدّم راحة بلا تحدٍ، فيجعلنا أقل استعدادًا للاحتكاك بالحياة الواقعية.

لقد أصبح من السهل أن نتعامل مع الذكاء الاصطناعي كـ”صديق مثالي“ لا يخطئ فهمنا، لا يختلف معنا، ولا يتركنا في منتصف الحديث. لكن هذه المثالية المصطنعة قد تؤدي إلى إدمان نفسي خفي، شبيه بالإدمان على الراحة، حيث يجد الإنسان في هذه العلاقة الرقمية توازنًا مؤقتًا، لكنه في العمق يبتعد أكثر عن ذاته الاجتماعية. ومع مرور الوقت، يُصبح العالم الواقعي أكثر صخبًا، وتقل قابلية احتماله؛ لأن الذكاء الاصطناعي، مهما حاول، لا يوفّر دفء الرد الإنساني أو تعقيد العاطفة البشرية. لأن الإنسان، بطبيعته الهشّة، يحتاج إلى الاحتكاك، إلى ردود الفعل غير المتوقعة، إلى الصمت المحرج والضحك العفوي، لا إلى محادثة مُحكمة التكوين. فجزءٌ من جمال التواصل البشري يكمن في عشوائيته، في تلك اللحظات التي لا يمكن برمجتها ولا التنبؤ بها. حين نفقدها، نفقد شيئًا من إنسانيتنا أيضًا.

فوق هذا، يعتمد المعالج النفسي الآلي على عنصر واحد من عناصر الاتصال البشري وهو اللغة. بينما يملك البشري (صديقًا كان أو معالجًا) القدرة على الملاحظة المستقلة، على وضع الكلام في سياق التاريخ الشخصي والسياق الثقافي والاجتماعي الخاص، وعلى قراءة المشاعر والتعابير التي تلازم الكلمات وتعاضدها أو تتعارض معها حتى.

العلاقة بين الإنسان والذكاء الاصطناعي، في جوهرها، علاقة إسقاط (projection). نحن لا نتحدث مع آلة بقدر ما نتحدث إلى أنفسنا من خلالها. كل ردّ، كل نصٍّ منسّق بعناية، هو انعكاس لما نحمله من مزاجٍ وفكرٍ وحالةٍ نفسية في تلك اللحظة. ولهذا تبدو بعض الردود ”عميقة“ أو ”شخصية“، لأنها ببساطة تعيد صياغة ما نمنحه لها من عمق. إنها مرآة لغوية تتزيّن بذكائنا نحن.

التدوين الذاتي، والتأمل عبر المحادثة، وتنظيم الأفكار من خلال الكتابة، كلها أدوات تُستخدم حتى في العلاجات النفسية المعتمدة. الخطر لا يكمن في الأداة ذاتها، بل في الاعتماد الكلي عليها. لأن الذكاء الاصطناعي، مهما بلغ من التطور، لا يملك وعيًا شعوريًا، ولا قدرة على قراءة ما وراء النص، ولا على ملاحظة صمتنا حين نتعب من الكلام.

وهنا يظهر التحدي الإنساني الجديد: كيف نوازن بين استخدام التكنولوجيا كوسيلة للتفكير المنظّم، دون أن نستبدل بها تجربة الحياة الحقيقية بكل فوضاها؟

هل نحاوره لأننا نبحث عن فهمٍ حقيقي، أم لأننا نخشى مواجهة الصمت البشري؟

في النهاية، يبدو أن الذكاء الاصطناعي لا يفهمنا بقدر ما يُظهر لنا كيف نفكّر نحن. إنه يقدّم نسخة لغوية من وعينا، ويتيح لنا تأمّل ذواتنا من الخارج، لكنه لا يعيش معنا التجربة الشعورية التي تخلق هذا الوعي. وربما تكمن قيمته الحقيقية في هذا الحد بالذات: أنه يذكّرنا بما نفتقده، وبأن الإصغاء البشري، رغم تعبه وبطئه وأخطائه، يظلّ أكثر صدقًا من أي إجابة مثالية تولد من خوارزمية.

في عالمٍ يتسارع إيقاعه ويزداد عزلةً، يقدّم الذكاء الاصطناعي فرصة للتأمل، لكنه يختبر فينا أيضًا قدرتنا على التوازن بين الراحة والواقع، بين الصمت والاتصال، بين الإنسان والآلة. قد يكون مستمعًا دائمًا، لكنه ليس إنسانًا؛ وما زال علينا أن نتذكّر أن العمق لا يُقاس بما نكتبه، بل بمن نكتبه إليه.

سارة علي متخصصة في الإعلام الرقمي والاتصال، ومهتمة بالتحول الرقمي والسيكولوجي

مقالات مشابهة

  • رضوى زناتي.. البلوجر التي تكشف كيف تقود التكنولوجيا مستقبل صناعة التجميل
  • الذكاء الاصطناعي يُعيد تعريف الثروة!
  • الدعم النفسي في عصر الذكاء الاصطناعي
  • التلغراف: داعش يستخدم الذكاء الاصطناعي في تجنيد عناصره
  • ثورة في عالم التكنولوجيا.. هل يستطيع الذكاء الاصطناعي كشف الكذب؟
  • أزمة أمنية في بريطانيا.. داعش يجند الشباب باستخدام الذكاء الاصطناعي
  • 100 ألف دولار.. منصة مصرية تفوز بجائزة ميتا الكبرى للابتكار في الذكاء الاصطناعي
  • بنك ظفار يطوّر بنية تقنية باستخدام الذكاء الاصطناعي لتسريع التحول الرقمي
  • خطر الذكاء الاصطناعي لا يكمن في التكنولوجيا بل في سباق تريليونات الدولارات لإنتاجه
  • أخبار التكنولوجيا | محكمة ألمانية تلزم جوجل بدفع 572 مليون يورو.. أنثروبيك ترصد هجوم سيبراني عالمي ينفذ بالذكاء الاصطناعي بدون بشر