سرقة قصة فيلم الهوى سلطان| ورسالة شديدة اللهجة لمؤلفة العمل
تاريخ النشر: 10th, November 2024 GMT
أثارت المؤلفة رشا عزت الجزار، جدلًا كبيرًا على السوشيال ميديا خلال الساعات الماضية، بعد إعلانها عن سرقة مؤلفة فيلم الهوى سلطان بسرقة العمل منها.
وكتبت رشا الجزار، على صفحتها على موقع التواصل الاجتماعي فيسبوك، قائلة : "فيلم (الهوي سلطان) - هو معالجة فيلم (حُبي الأول) من تأليفي، في سبتمبر عام 2017 قمت بكتابة معالجة فيلم روائي طويل بعنوان (حبي الأول)، ودا كان أسم مؤقت للفيلم
ومثبت عندي على الايميلات والواتس آب بالتواريخ المراسلات للمخرجين والمنتجين في رحلة البحث عن إنتاج من حينها وحتي أشهر قريبة".
وتابعت : "وكان المورال بتاعي، إن الحب ممكن يكون قريب منك جدًا وانت مش شايفه ولا واخد بالك منه لانك مسميه أي أسم تاني (صداقة، عشرة، جيره، أخوه.. الخ)، مش شايفة مع انه ممكن يبقي قريب منك جدا، ودا لانك ملبسه امبرله مختلفة في المسمى".
وأضافت : "يوم الخميس 7 نوفمبر الحالي، دخلت السينما عشان اشوف فيلم (الهوى سلطان)، ودا لأني بنتظر أي فيلم جديد ينزل السينما وبجري عشان اشوفه، وكنت متحمسه جدًا لاني بحب منة شلبي وبشوف كل أعمالها
اتفاجئت ان قصة الفيلم كامله (بأكد تاني كامله) مسروقة من قصة فيلمي (حبي الأول)، بكل التفاصيل.. مع اختلاف اللوكيشن والحوار
عندي في قصتي كنت مسكنه البطل والبطلة في نفس العمارة في شقتين فوق بعض
بدون مبالغة لو ذكرت التفاصيل اللي عندي في قصتي واوجه التطابق بنها وبين اللي شوفته في فيلم الهوي سلطان، التطابق هيتجاوز ال 70%".
واستكملت حديثها قائلة: "الفكرة والقصة وكل الاحداث الرئيسية بتفاصيل ما سيحدث مع الابطال مسروقين من قصتي (حبي الاول) حاولت على مدار يومين اتواصل مع مؤلفة ومخرجت فيلم (الهوى سلطان)، لكنها لم ترد على تليفوناتي، مع اني بعتلها رسالة على الواتس وعرفتها بنفسي وطلبت اني اكلمها ضروري، ورجعت بعدها اتصلت بيها تاني مرتين ولم ترد، البوست دا فقط من أجلي أنا ومن أجل حقي في الدفاع عن شغلي، وليس من اجل أي شئ آخر".
وتابعت : "صعب جدًا يحصل معاك كل هذا الانتهاك والسرقة لإبداعك وشغلك ومتقولش.. مع ان لو كانت مؤلفة الفيلم ردت عليا وأوجدتلي تفسير لما حدث ربما كنت سكت وسامحت، لكن سرقة وتجاهل وقح شئ مؤلم اجبرني على الكتابة هنا امام الناس.. اشهد الله ان فكرة وقصة فيلم (الهوى سلطان) الموجود في السينمات حاليا، هو فكرة وقصة وتفاصيل فيلمي (حبي الأول)، وأنه مجهودي وتأليفي ومسروق مني ولن اسامح مؤلفة الفيلم على هذا التعدي على حقي الأدبي".
واضافت : "كنت اتمنى أن المؤلفة تتمتع بقدر من الشجاعة وترد عليا وتقولي هل الكم الهائل دا من السرقة حتى في ابسط التفاصيل تألفها فعلا؟ ولا ورقي وقع في ايديها؟ ولا حد حكلها القصة وهي اشتغلت عليها وأحب أقول للمؤلفة شئ اخر، انتي "مزعتي القصة"، وسرقتي تفاصلها لكن من على الوش لأنك معندكيش جزور ولا الفكرة والقصة طالعة من روحك مرفق مع الصورة الـ Log- Line لقصة فيلمي (حبي الاول).
واختتمت حديثها قائلة :"بقرر تاني التشابة ليس فقط في الفكرة بل القصة بكل تفاصيلها كل الاحترام لباقي صناع العمل من نجوم وفنانين وصناع وشركة إنتاج، لان ملهمش ذنب ولا حد فيهم يعرف.. ومحبتي الكبيرة لمنة شلبي وموهبتها الكبيرة أنا بالبوست دا بقول "لنفسي- بقول لرشا" انا بدافع عنك وعن حقك وعن شغلك وعن محاولاتك المستمرة في السعي بشرف، عشان اقدر اكمل اكتب بحب وطاقة وشغف وسط كل هذا القبح.. إلى هبة يسري مؤلفة (الهوى سلطان)
بقولهالك قدام الناس كلها اهو انا مش مسمحاكي".
المصدر: بوابة الوفد
كلمات دلالية: فيلم الهوى سلطان الهوى سلطان السوشيال ميديا موقع التواصل الاجتماعى فيسبوك سوشيال ميديا رشا عزت الجزار قصة فيلم الهوى سلطان أبطال فيلم الهوى سلطان منة شلبي الهوى سلطان
إقرأ أيضاً:
هكذا استغل الاحتلال اللهجة الفلسطينية واللبنانية!
سرايا - نشرت صحيفة "الغارديان" البريطانية، تقريراً، أعدّه هاري ديفيس ويوفال أبراهام، قالا فيه إنّ "وحدة رقابة في الجيش الإسرائيلي استخدمت مجموعة بيانات لاتصالات الفلسطينيين التي اعترضتها، لبناء أداة ذكاء اصطناعي مُشابهة لتشات جي بي تي، والتي تأمل بأن تُحدث تحوّلا في قدرات التجسّس".
وكشف التحقيق المشترك مع مجلة +972 وموقع "لوكال كول" الإسرائيلي، أنّ "وحدة 8200 قامت بتدريب نموذج ذكاء اصطناعي قادر على فهم اللغة العربية، من خلال استخدام كمية كبيرة من الحوارات الهاتفية والنصية التي تم الحصول عليها من خلال التنصت على الأراضي الفلسطينية المحتلة".
وبحسب مصادر عليمة بالمشروع، فقد بدأت الوحدة ببناء النموذج لإنشاء أداة متطورة تشبه روبوت المحادثة، قادرة على الإجابة على أسئلة حول الأشخاص الذين تراقبهم، وتوفير رؤى حول كميات هائلة من بيانات المراقبة التي تجمعها.
وسرّعت الوحدة التي تقارن قدراتها بوكالة الأمن القومي الأميركية، أن أس إي، جهودها لتطوير النظام بعد بداية عدوان الاحتلال الإسرائيلي على غزة في تشرين الأول 2023، ولا يزال النموذج طور التدريب في النصف الثاني من العام الماضي، ولا يعرف إن تم نشره بعد.
وتمّ الكشف جزئياً عن الجهود لتطوير نموذج اللغة الكبير أو "أل أل أم"، وهو نظام تعلم متقدم يولد نصا يشبه النص البشري، في محاضرة عامة لم يلحظها أحد وقدمها أحد خبراء تكنولوجيا الاستخبارات العسكرية السابقين، الذي قال إنه أشرف على المشروع.
وقال المسؤول السابق، شكيد روجر جوزيف سيدوف، أمام الحضور في مؤتمر عسكري للذكاء الاصطناعي في "تل أبيب"، العام الماضي: "لقد حاولنا إنشاء أكبر مجموعة بيانات ممكنة [و] جمع كل البيانات التي حصلت عليها إسرائيل على الإطلاق باللغة العربية".
وأضاف سيدوف، أنّ "النموذج يتطلب كميات هائلة من البيانات"؛ فيما أكّد ثلاثة مسؤولين سابقين في الاستخبارات على دراية بالمبادرة وجود برنامج التعلم الآلي وشاركوا تفاصيل حول بنائه".
ووصفت عدّة مصادر أخرى كيف استخدمت الوحدة 8200 نماذج التعلم الآلي الأصغر حجما في السنوات التي سبقت إطلاق المشروع الطموح، والتأثير الذي أحدثته هذه التكنولوجيا بالفعل.
وقال مصدر مطلع على تطوير وحدة 8200 لنماذج الذكاء الاصطناعي في السنوات الأخيرة إنّ "الذكاء الاصطناعي يزيد من القوة"، وأضاف أنّ "الأمر لا يتعلق فقط بمنع الهجمات بإطلاق النار، بل يمكنني تتبع نشطاء حقوق الإنسان، ومراقبة البناء الفلسطيني في المنطقة ج [من الضفة الغربية]. لدي المزيد من الأدوات لمعرفة ما يفعله كل شخص في الضفة الغربية".
ويوضّح المشروع أيضا كيف تسعى الوحدة 8200، مثل العديد من وكالات التجسّس في جميع أنحاء العالم، إلى الاستفادة من التقدم في مجال الذكاء الاصطناعي لإجراء مهام تحليلية معقدة وفهم الكميات الهائلة من المعلومات التي تجمعها بشكل روتيني، والتي تتحدى بشكل متزايد المعالجة البشرية وحدها.
وعبّر باحث في مجال المراقبة بمنظمة "هيومان رايتس ووتش"، زاك كامبل، عن قلقه من أن تستخدم الوحدة 8200 برامج الذكاء الاصطناعي لاتّخاذ قرارات مهمة بشأن حياة الفلسطينيين تحت الاحتلال العسكري، وقال: "إنها آلة تخمين، وفي النهاية يمكن استخدام هذه التخمينات لتجريم الناس".
وتشير الصحيفة إلى أنّ: "وحدة 8200 قد طوّرت عددا من الأساليب التي تعمل بالذكاء الاصطناعي في السنوات الأخيرة".
وكانت أنظمة مثل "غوسبل" و"لافيندر" والتي تم دمجها بسرعة في العمليات القتالية في الحرب على غزة، لعبت دوراً مهما في قصف الجيش الإسرائيلي للمنطقة من خلال المساعدة في تحديد الأهداف المحتملة (كل من الأشخاص والمباني) للضربات القاتلة.
وتابعت: "منذ ما يقرب من عقد من الزمان، استخدمت الوحدة أيضا الذكاء الاصطناعي لتحليل الاتصالات التي تعترضها وتخزّنها، باستخدام سلسلة من نماذج التعلم الآلي لفرز المعلومات إلى فئات محددة مسبقا، وتحديد كيفية التعرف على الأنماط وإجراء التنبؤات".
وأضافت: "لكن عندما حشد جيش الاحتلال الإسرائيلي، مئات الآلاف من جنود الاحتياط، عادت مجموعة من الضباط ذوي الخبرة في بناء نموذج اللغة الكبير إلى الوحدة من القطاع الخاص، وجاء بعضهم من شركات التكنولوجيا الأميركية الكبرى، مثل غوغل وميتا ومايكروسوفت".
وقالت غوغل إنّ "العمل الذي يقوم به موظفوها كجنود احتياطيين غير مرتبط بالشركة، فيما رفضت ميتا ومايكروسوفت التعليق.
ونقلت الصحيفة عن مصدر، قوله إنّ الفريق الصغير من الخبراء بدأ في بناء نموذج اللغة الكبير، قادر على فهم اللغة العربية، ولكن كان عليه فعليا أن يبدأ من الصفر بعد اكتشاف أن النماذج التجارية والمصادر المفتوحة باللغة العربية الموجودة، تم تدريبها باستخدام اللغة العربية المعيارية المكتوبة والمستخدمة في الاتصالات الرسمية والأدب والإعلام – بدلا من اللغة العربية المنطوقة".
وقال أحد المصادر: "لا توجد نصوص للمكالمات أو محادثات واتساب على الإنترنت بكمية كافية لتدريب مثل هذا النموذج".
وأضافت المصادر أن التحدي كان "جمع كل النصوص [العربية المنطوقة] التي حصلت عليها الوحدة على الإطلاق ووضعها في مكان مركزي".
وقالوا إنّ "بيانات تدريب النموذج تتكون في النهاية من حوالي 100 مليار كلمة"؛ فيما قال مصدر مطلع على المشروع لصحيفة "الغارديان" إن هذا الكم الهائل من الاتصالات يشمل محادثات باللهجتين اللبنانية والفلسطينية.
وقالت مصادر أخرى، بحسب الصحيفة نفسها، إنّ "الوحدة سعت أيضا إلى تدريب النموذج على فهم المصطلحات العسكرية المحددة للجماعات المسلحة، لكن يبدو أن عملية جمع البيانات التدريبية الضخمة تضمّنت جمع كميات كبيرة من الاتصالات التي لا قيمة استخباراتية لها عن الحياة اليومية للفلسطينيين".
تابع قناتنا على يوتيوب تابع صفحتنا على فيسبوك تابع منصة ترند سرايا
طباعة المشاهدات: 357
1 - | ترحب "سرايا" بتعليقاتكم الإيجابية في هذه الزاوية ، ونتمنى أن تبتعد تعليقاتكم الكريمة عن الشخصنة لتحقيق الهدف منها وهو التفاعل الهادف مع ما يتم نشره في زاويتكم هذه. | 07-03-2025 08:56 PM سرايا |
لا يوجد تعليقات |
الرد على تعليق
الاسم : * | |
البريد الالكتروني : | |
التعليق : * | |
رمز التحقق : | تحديث الرمز أكتب الرمز : |
اضافة |
الآراء والتعليقات المنشورة تعبر عن آراء أصحابها فقط
جميع حقوق النشر محفوظة لدى موقع وكالة سرايا الإخبارية © 2025
سياسة الخصوصية برمجة و استضافة يونكس هوست test الرجاء الانتظار ...