باحثون أمريكيون في جامعة أريزونا: حلقات الأشجار تكشف عن تهديد الزلازل العنيفة متعددة الصدوع
تاريخ النشر: 30th, September 2023 GMT
واشنطن-سانا
توصل باحثون أمريكيون في جامعة أريزونا إلى أن حلقات الأشجار تستطيع أن تكشف عن تهديد الزلازل العنيفة متعددة الصدوع، التي يمكن أن تحدث لمنطقة كانت تعرضت لحدث زلزالي عنيف قبل 1000 عام.
ووفقاً للباحثين في الدراسة التي نُشرت بدورية “ساينس أدفانسز”، فقد انفجرت صدوع ضحلة منذ حوالي 1000 عام في منطقة بوجيه لولاندز في غرب واشنطن، وساعدت حلقات الأشجار في تحديد أن الحدث الزلزالي وقع في أواخر عام 923 م أو أوائل عام 924 م، ما يعني أن حدثاً مماثلاً يمكن أن يهز مرة أخرى المنطقة التي تضم الآن أكثر من 4 ملايين شخص، بما في ذلك سياتل وتاكوما وأولمبيا.
وقد سافر فريق من باحثي الجامعة بقيادة برايان بلاك عام 2021 إلى جبال شمال غرب المحيط الهادئ، للمشاركة بدراسة جذوع الأشجار في المنطقة التي ضربها زلزالان شمال غرب الولايات المتحدة، عندما حاصر صدع جبل سادل مجرى مائياً غمر الغابة، حيث لا تزال البحيرة التي توجد فيها جذوع هذه الأشجار الغارقة قائمة حتى اليوم، وعندما قارنوا مجموعة أشجار خلال فترات زمنية متقاربة من جميع أنحاء المنطقة، وجدوا أنها كانت بحدث مرتبط، ما يؤكد وقوع زلزالين بفاصل زمني ضيق على صدعي سياتل وجبل سادل.
ولفت الباحثون إلى أنه مع مرور كل عام تضيف الأشجار حلقة حول جذوعها، ويتم تحديد عرض الحلقة حسب المناخ الذي تعيشه، إذ إن الظروف المواتية تعني حلقات أوسع، والظروف غير المواتية تعني حلقات أرق وأنحف، موضحين أنه نظراً لاختلاف المناخ من سنة إلى أخرى، فإنه يخلق أنماطاً زمنية محددة مثل الرمز الشريطي “أو الباركود” في نمو الأشجار داخل المنطقة.
وتمكن الباحثون من مطابقة أنماط النمو المحددة زمنياً في الأشجار الميتة مع أنماط من الأشجار الحية، موضحين أنه إذا كان هناك تداخل مع الأشجارالحية، فيمكن تحديد التواريخ الدقيقة التي عاشت فيها الأشجار قبل أن تموت، وهذا هو النهج الذي تم استخدامه لتحديد متى ماتت الأشجار التي قتلها الزلزال في منطقة بوجيه الأمريكية.
المصدر: الوكالة العربية السورية للأنباء
إقرأ أيضاً:
الذكاء الاصطناعي مجرد وهم.. باحثون يكشفون السبب
تابع أحدث الأخبار عبر تطبيق
في تطور جديد يعيد تقييم فعالية الذكاء الاصطناعي، أعلن باحثون بإحدى شركات التكنولوجيا العملاقة أن الذكاء الاصطناعي، وخصوصًا النماذج اللغوية الكبيرة، يُظهر سلوكًا يُوحي بالذكاء ولكنه في الواقع مجرد وهم، هذه النماذج تُظهر قدرة على الاستجابة والتفاعل مع المستخدمين، إلا أنها تفتقر إلى التفكير المنطقي الحقيقي وفهم السياق العميق.
ووفقا لموقع techxplore أن الباحثون يقولون رغم التقدم الكبير الذي حققته تطبيقات الذكاء الاصطناعي، توضح دراسة باحثي شركة التكنولوجيا أن هذه التقنيات ما زالت بعيدة عن تحقيق ذكاء حقيقي، والنماذج الحالية تعتمد على تقنيات تحليل الأنماط بدلاً من الفهم العميق أو التفكير المنطقي، مما يجعلها أداة مفيدة ولكنها ليست بديلاً عن العقل البشري، ونُشر البحث عبر منصة arXiv preprint.
نقاط البحث الأساسية:
• أجريت الدراسة على نماذج لغوية كبيرة، مثل تلك المستخدمة في تطبيقات الذكاء الاصطناعي الشائعة.
• أظهرت النتائج أن هذه النماذج لا تفهم الأسئلة المطروحة فهمًا حقيقيًا، بل تعتمد على بنية الجمل والخوارزميات المكتسبة.
الفرضية الأساسية للدراسة:
افترض الباحثون أن الذكاء الحقيقي، سواء للكائنات الحية أو الآلات، يتطلب القدرة على:
1. التمييز بين المعلومات ذات الصلة وغير ذات الصلة: مثال ذلك، إذا سأل طفل والده عن عدد التفاح في حقيبة تحتوي على تفاح صغير الحجم، يمكن للعقل البشري تجاهل حجم التفاح كعامل غير ذي صلة بالإجابة.
2. إظهار التفكير المنطقي: القدرة على استخلاص الاستنتاجات الصحيحة بناءً على المعطيات المتاحة.
اختبار النماذج اللغوية الكبيرة:
• استخدم الباحثون مئات الأسئلة التي استُخدمت سابقًا لتقييم قدرة النماذج اللغوية.
• أضيفت معلومات غير ذات صلة إلى هذه الأسئلة لقياس قدرة الذكاء الاصطناعي على تجاهلها.
• النتيجة: أدى وجود معلومات زائدة إلى إرباك الذكاء الاصطناعي، مما نتج عنه إجابات خاطئة أو غير منطقية.
نتائج البحث:
1. عدم الفهم الحقيقي للسياق
النماذج اللغوية الكبيرة لا تفهم الأسئلة فهمًا عميقًا. بدلاً من ذلك، تستند إلى التعرف على الأنماط وتوليد إجابات تعتمد على البيانات السابقة.
2. إجابات مضللة
أعطت النماذج إجابات بدت صحيحة ظاهريًا، لكنها عند الفحص الدقيق تبين أنها خاطئة أو غير متسقة مع المنطق.
3. الوهم الذكي
النماذج تظهر وكأنها “تفكر” أو “تشعر”، لكنها في الواقع تعتمد على خوارزميات تعليم الآلة للتفاعل مع المستخدم، دون وجود ذكاء حقيقي أو إدراك.
أمثلة توضيحية من البحث:
• سؤال بسيط: عند طرح سؤال على الذكاء الاصطناعي يتضمن معلومات غير ضرورية، غالبًا ما يدمجها في إجابته بدلاً من تجاهلها.
• الشعور والإحساس: عند سؤال الذكاء الاصطناعي عن “شعوره” تجاه أمر معين، قد يقدم إجابات تُوحي بأنه يشعر، لكن هذه مجرد خدعة لغوية تعتمد على بيانات التدريب.
دلالات البحث:
• النتائج تعزز وجهة النظر التي ترى أن الذكاء الاصطناعي ليس “ذكاءً” حقيقيًا بالمعنى البشري، بل هو نموذج إحصائي معقد.
• تؤكد الدراسة أن الذكاء الاصطناعي الحالي غير قادر على التفكير المنطقي أو فهم السياق كما يفعل الإنسان.
التحديات المستقبلية:
• تحسين قدرة النماذج اللغوية على الفصل بين المعلومات ذات الصلة وغير ذات الصلة.
• تطوير نماذج ذكاء اصطناعي تفهم السياق بشكل أفضل وتُظهر منطقًا أقرب للإنسان.
• تقليل الاعتماد على الأنماط الإحصائية وزيادة التركيز على التفاعل الديناميكي.