بيتحكم فيا وعايزني ندخل سينما أسمع كلامه؟ علي جمعة يرد على سؤال فتاة
تاريخ النشر: 2nd, March 2025 GMT
وجهت إحدى الفتيات سؤالا إلى الدكتور علي جمعة، عضو هيئة كبار العلماء في الأزهر الشريف، تقول فيه (لو مرتبطة وأهلي عارفين بس هو بيتحكم فيا.. أسمع كلامه ولا كلامهم؟
وأجاب علي جمعة، على السؤال خلال برنامجه الرمضاني "نور الدين والدنيا"، أن هذه الفتاة تسمع كلام والدها لأنه الذي ما زال ينفق عليها ويتعب من أجل جلب لقمة العيش والإنفاق على مصاريفها الدراسية.
وتابع قائلا: تسمع كلام الفسل ده ليه، ده فسل، فعلى الشاب ألا يشغل بال الفتاة في الخفاء، ويصدق ذلك المثل الفلاحي (المدارية تكسر المحرات" ولذلك سيدنا النبي ينبهنا ويقول (الإثم ما حاك في القلب وخفت أن يطلع عليه الناس).
كما تابع: لو شاب على علاقة بفتاة والأهل على علم بهذه العلاقة وقابلها في الطريق وطلب منها دخول السينما هذا يسمى "استعباط" وفي الآخر نقول ياريت اللي جرا ما كان، فالصداقة بالعفاف بالمعلومية بالإشراف، والطاعة هنا لمن أنفق أي للوالد فقط.
وأكد علي جمعة، أن المشكلة في كسوفنا وأننا لا نعرف إخراج المشاعر بطريقة صحيحة وأن عندنا شهوة وليس حب، فكل هذه الأمور تؤدي إلى الخطأ والمصائب.
وناشد علي جمعة، الشباب والفتيات، بالإنتقال من حالة الخفاء والظلام إلى حالة النور والإشراف وإدراك الواقع، فهذا يرضي الله ورسوله، منوها أن الإمام ابن حجر العسقلاني درس على 52 شيخة كان يتعلم على أيديهم.
وتابع علي جمعة: طب أنا ماليش ولا شيخة، لأن المرأة منعها العثمانيين من الوجود، فكانت سابقا تعلم وتدرس العلوم للرجال.
المصدر: صدى البلد
كلمات دلالية: علي جمعة السينما العفاف نور الدين والدنيا الأهل العلاقة بين الشاب والفتاة المزيد علی جمعة
إقرأ أيضاً:
تقنية جديدة تحوّل إشارات الدماغ إلى كلام طبيعي في أقل من ثانية
في إنجاز علمي بارز يجمع بين علوم الأعصاب والذكاء الاصطناعي، تمكَّن باحثون من جامعتَيْ كاليفورنيا في بيركلي وسان فرنسيسكو من تطوير واجهة دماغ-حاسوب «BCI» قادرة على استعادة القدرة على الكلام الطبيعي للأشخاص المصابين بشلل حاد.وقد نُشرت نتائج الدراسة، هذا الأسبوع، في مجلة «نيتشور نيوروساينس «Nature Neuroscience» مُشكّلةً خطوةً كبيرةً نحو التواصل الصوتي الفوري عبر إشارات الدماغ، مما يعيد الأمل والاستقلالية لأولئك الذين فقدوا القدرة على الكلام.
تقنية بلا تأخير
تعتمد هذه التكنولوجيا المتقدمة على نظام مدعوم بالذكاء الاصطناعي قادر على تحويل الإشارات الدماغية إلى كلام مسموع في الوقت شبه الحقيقي، وهو ما يشكل نقلة نوعية في حل مشكلة التأخير الزمني التي طالما عانى منها هذا النوع من التقنيات. يقول الدكتور جوبالا أنومانشيباللي، أستاذ مساعد بقسم الهندسة الكهربائية وعلوم الحاسوب بجامعة كاليفورنيا-بيركلي والمحقق الرئيسي المشارك في الدراسة، إن النهج الذي جرى اعتماده في البث اللحظي يقدم قدرة فك شفرة الكلام بسرعة مشابِهة لتلك التي نراها في أجهزة مثل «أليكسا» و«سيري»، ولكن في خدمة المرضى.
ولطالما شكّل التأخير بين المتحدث والكلام الناتج عن واجهات الدماغ والحاسوب عائقًا كبيرًا أمام التواصل الطبيعي. ففي التجارب السابقة، كان على المستخدم الانتظار نحو 8 ثوانٍ لسماع جملة واحدة. أما النظام الجديد فقد قلّص هذه المدة إلى أقل من ثانية واحدة، ما سمح بتدفق الكلام بشكل طبيعي ومتواصل.
تحسين جودة الحياة
يتوقع الدكتور إدوارد تشانغ، جرّاح الأعصاب في «UCSF» والمحقق الرئيسي الآخر في الدراسة، أن التكنولوجيا الجديدة قد تُحدث فرقًا جذريًّا في حياة المرضى. ويشرح أن هذه التقنية تحمل إمكانات هائلة لتحسين جودة حياة الأشخاص المصابين بشللٍ يؤثر على الكلام. ويرى أنه من المثير أن تُسهم تطورات الذكاء الاصطناعي المتسارعة في جعل هذه الواجهات أقرب إلى الواقع. مِن أبرز نقاط القوة في هذا الابتكار هو مرونته، فقد أثبت الباحثون أن التقنية لا تقتصر على نوع واحد من الأجهزة، بل تعمل بكفاءة مع واجهات دماغية متعددة، مثل الأقطاب الدقيقة المزروعة داخل الدماغ، أو الأجهزة غير التوغلية مثل أجهزة الاستشعار على الوجه التي تقيس النشاط العضلي. يوضح كايلو ليتلجون، طالب الدكتوراه في بيركلي والمؤلف المشارك في الدراسة، أن الخوارزمية نفسها يمكن تطبيقها على تقنيات مختلفة، متى ما توفرت إشارات دماغية واضحة.
ترجمة إشارات الدماغ
تبدأ عملية التحويل من منطقة القشرة الحركية في الدماغ، المسؤولة عن التحكم في عضلات النطق. هناك يجري التقاط الإشارات العصبية وفك تشفيرها باستخدام نماذج ذكية مدرَّبة مسبقًا لفهم أنماط معينة مرتبطة بالكلام. ويشرح شاول جون تشو، المؤلف المشارك في الدراسة، أنه تجري ترجمة الإشارات التي تأتي بعد أن يقرر الشخص ما يريد قوله، وبعد أن يختار الكلمات والحركات اللازمة للنطق.
لتدريب النموذج، تعاوَنَ الباحثون مع مريضة فقدت القدرة على الكلام بعد إصابتها بسكتة دماغية. في جلسات التدريب، كانتِ المريضة تنظر إلى شاشة تعرض جملة مثل: «مرحبًا، كيف حالك؟»، وتحاول قولها بصمت. وعلى الرغم من عدم قدرتها على إصدار أي صوت، تمكَّن النظام من ربط نشاطها العصبي بالجملة المقصودة.
محاكاة الصوت الأصلي
ولأن المريضة لا تملك قدرة على النطق الفعلي، لم يكن لدى الباحثين تسجيلات صوتية حديثة للمقارنة. لذلك، استعانوا بنموذج ذكاء اصطناعي مسبق التدريب لإنشاء صوت اصطناعي يحاكي صوتها قبل الإصابة. ووفق أنومانشيباللي، أدى سماعها صوتها القديم في الزمن الحقيقي إلى جعل التجربة أكثر شعورًا بالتحكم والاندماج. وللتأكد من قدرة النظام على تجاوز حدود البيانات التي تدرَّب عليها، اختبر الباحثون النموذج باستخدام كلمات جديدة مثل أسماء حروف الناتو الصوتية «ألفا، برافو، تشارلي»، فنجح في توليد أصوات مفهومة بدقة، ما يدل على أن النموذج لا يكرر فحسب، بل يتعلم فعليًّا بناء الصوت.
المثير أيضًا أن النظام حافظ على دقته العالية رغم السرعة الكبيرة. يقول ليتلجون: «لقد كان من غير المعروف سابقًا ما إذا كان بالإمكان بث كلام واضح في الزمن الحقيقي مباشرة من الدماغ.. .لكن الآن لدينا هذا الإثبات».
لغة تحمل العاطفة
وفي حين يتطلع الفريق إلى المستقبل، يعمل الباحثون على تحسين الجوانب العاطفية والتعبيرية للكلام، مثل النبرة والحِدّة ومستوى الصوت، بما يعكس المشاعر أو الانفعالات الطبيعية في الحديث.
ففي عالمٍ يزداد فيه اندماج الدماغ مع التكنولوجيا، تمثل هذه الخطوة نقطةَ تحول في استعادة القدرة على التعبير الصوتي، مما يعيد ربط الإنسان بعالمه، من خلال إحدى أكثر أدوات التواصل أساسية، وهي الصوت.
اقرأ أيضًاتحت رعاية وزير الصحة.. انطلاق المؤتمر الدولي الثاني للسكتة الدماغية والقسطرة المخية بالقاهرة
دراسة تكشف تأثير تقليل استخدام الهواتف الذكية على نشاط الدماغ
تمهيداً للتشغيل التجريبي: عميد طب طنطا يتفقد تجهيزات مبنى السكتة الدماغية الجديد بمركز الطب النفسي