راغب علامة ينفي فيديو مسرّب وإخبارًا إلى النيابة العامة: تكنولوجيا الذكاء الاصطناعي تُشعل الغضب في لبنان
انتشرت على وسائل التواصل الاجتماعي تسريبات صوتية قيل إنها تعود للفنان راغب علامة، تضمنت تصريحات مسيئة بحق الأمين العام لحزب الله الشهيد السيد حسن نصرالله. ورغم النفي القاطع من علامة، أثارت هذه المقاطع جدلًا واسعًا وغضبًا شعبيًا كبيرًا، ما دفع الفنان اللبناني إلى تقديم إخبار رسمي أمام النيابة العامة التمييزية.
الفيديو المُفبرك وإثارة الجدل
الفيديو الذي تم تداوله يظهر اتصالًا هاتفيًا مزعومًا بين راغب علامة والفنان الإماراتي عبدالله بالخير، حيث سمع صوت نُسب إلى علامة يقول: “خلصنا من ربّه”، في إشارة إلى السيد نصرالله. لكن علامة خرج عن صمته ونفى تمامًا صحة التسجيل، مؤكدًا أن الصوت مفبرك باستخدام تقنيات الذكاء الاصطناعي (AI).
وفي تصريحاته عبر حسابه الرسمي على منصة “إكس” (تويتر سابقًا)، شدد علامة على أن المقطع مفبرك وأنه لن يتهاون مع من يقف وراء هذه الحملة، مشيرًا إلى أنه سيتابع القضية قانونيًا.
إخبار رسمي إلى النيابة العامة
لم يكتفِ راغب علامة بنفيه للتسجيل، بل تقدّم بإخبار رسمي إلى النيابة العامة التمييزية، مشيرًا إلى أن الفيديو يهدف إلى “إثارة النعرات الطائفية وتعكير الصفاء بين مكونات الشعب اللبناني.” وقد استند الإخبار إلى مواد قانونية لبنانية تتعلق بالتحريض الطائفي والإساءة إلى المعتقدات الدينية.
ردود الفعل والاحتجاجات الشعبية
رغم نفي علامة، أثارت الحادثة موجة احتجاجات كبيرة، خاصة بين أنصار حزب الله. وبلغت الأمور ذروتها عندما قامت مجموعة من الأفراد بتحطيم واجهات مدرسة “سان جورج” التي يملكها علامة في الضاحية الجنوبية لبيروت، احتجاجًا على المقطع الصوتي.
هذا التصعيد دفع عددًا من النشطاء على وسائل التواصل الاجتماعي إلى دعوة لمقاطعة الفنان اللبناني، وسط دعوات أخرى تطالب بالتحقيق في الواقعة ومحاسبة المسؤولين عن نشر هذا الفيديو المزعوم.
عبدالله بالخير يكشف الحقيقة
من جانبه، خرج الفنان الإماراتي عبدالله بالخير ليؤكد أنه كان ضحية خدعة. وأوضح أن الشخص الذي تحدث معه عبر الهاتف لم يكن راغب علامة، بل شخص آخر تمكّن من تقليد صوته بدقة باستخدام تقنيات الذكاء الاصطناعي.
الدعوات للتحقق من الأخبار
في ظل تصاعد الأحداث، دعت شخصيات سياسية وفنية بارزة إلى الحذر من تصديق ونشر المعلومات غير الموثوقة التي تنتشر عبر الإنترنت، خاصة تلك التي تعتمد على تقنيات حديثة مثل الذكاء الاصطناعي لتزوير الصوت والصورة.
تكنولوجيا الذكاء الاصطناعي كأداة للتضليل
تُظهر هذه الواقعة خطورة استخدام تقنيات الذكاء الاصطناعي في التزوير وتشويه سمعة الشخصيات العامة. ويؤكد الخبراء أن انتشار مثل هذه التقنيات يزيد من أهمية التحقق من صحة المحتوى قبل نشره، لتجنب الوقوع في فخ الأخبار الكاذبة.
Ragheb Alama Denies Leaked Video and Legal Report: AI Technology Sparks Controversy in Lebanon
Lebanese singer Ragheb Alama has been at the center of a storm after a leaked audio clip, allegedly featuring his voice, went viral on social media. The clip contained remarks deemed offensive to the late Secretary-General of Hezbollah, Sayyed Hassan Nasrallah. Despite Alama's firm denial, the controversy has fueled public outrage, prompting him to file a formal legal report with the Public Prosecutor’s Office.
The Alleged Video and Its Fallout
The leaked audio appeared to feature a phone call between Alama and Emirati artist Abdullah Balkhair, where a voice attributed to Alama was heard saying, “We’re done with his Lord,” referring to Nasrallah. However, Alama categorically denied the authenticity of the clip, asserting that it was fabricated using artificial intelligence (AI) technology.
On his official “X” account (formerly Twitter), Alama stated that the voice in the clip was not his and vowed to take legal action against those responsible for spreading the false allegations.
Filing a Legal Report
In response to the incident, Alama submitted a formal report to the Public Prosecutor’s Office, claiming that the video was intended to “incite sectarian tensions and disturb national unity.” The report cited Lebanese legal provisions related to incitement and religious defamation.
Public Outrage and Protests
Despite Alama’s denial, the leaked audio sparked widespread anger, particularly among Hezbollah supporters. The situation escalated when a group of individuals vandalized the façade of “Saint George School,” owned by Alama in Beirut’s southern suburbs, as a reaction to the controversial clip.
Calls for a boycott of Alama’s work circulated online, while others urged authorities to investigate the incident and hold those responsible for the fake video accountable.
Abdullah Balkhair Clarifies the Incident
In a surprising twist, Emirati artist Abdullah Balkhair revealed that he had been duped. He confirmed that the person who spoke to him on the phone was not Ragheb Alama but someone else imitating his voice with precision using AI technology.
Warnings Against Fake News
The incident prompted political and artistic figures to caution the public against believing and spreading unverified information online, particularly content generated with advanced AI tools that can falsify voices and images.
The Risks of AI in Misinformation
This case underscores the dangers of using AI technology for forgery and defamation. Experts stress the importance of verifying the authenticity of content before sharing it to avoid falling prey to disinformation campaigns.
راغب علامة لعبدالله بالخير ◀️ ‘ما عش في نصرالله، ارتحنا من ربّو..'
شكلو ما عارف إنو هوّي عل الخط ورح تنزل عل social media.. وأخيرا وقعت يا حقير..pic.twitter.com/p7U4IzIRN8
— علي (@allouush) December 23, 2024
Translated by international scopes team
المصدر: رصد موقع سكوبات عالمية