«صوت الذكاء الاصطناعي بات أقرب إلى صوتنا — هل ينبغي أن نقلق؟» أخبار الجريمة

مكالمات احتيالية بصوت مزيف

في مطلع العام الجاري تلقّى عدد من رجال الأعمال الإيطاليين الميسورين مكالمات هاتفية مفاجِئة. المتحدث بدا وكأنه وزير الدفاع غيدو كروستّو، وطلب بطريقة ملحّة تحويل أموال للمساعدة في إطلاق سراح صحفيين إيطاليين مخطوفين في منطقة الشرق الأوسط. لكن لم يكن كروستّو على الطرف الآخر؛ فقد اكتشف الوزير الأمر بعدما تواصل معه بعض المستهدفين ليبلغوه بما حصل، وتبيّن لاحقًا أن المحتالين استعانوا بتقنيات الذكاء الاصطناعي لتقليد صوته.

خلفية الحادثة

وقعت هذه المكالمات في بداية فبراير، أي بعد شهر من تأمين رئيسة الوزراء جورجيا ميلوني للإفراج عن الصحافية سيسيليا سالا المحتجزة في إيران. صوت «الديفبفايك» الذي قيل إنه لكروستّو طالب بتحويل نحو مليون يورو إلى حساب مصرفي خارجي، وقد زود المحتالون الضحايا بمعلومات الحساب أثناء المكالمة أو من خلال اتصالات أخرى ادّعوا فيها أنهم من فريق الوزير أو من ضباط رفيعي المستوى.

نشر كروستّو على منصة اكس أنه تلقى في الرابع من فبراير اتصالاً من «صديق، رائد أعمال بارز» استفسر عما إذا كان مكتبه قد طلب رقم هاتفه المحمول، فأبلغه الوزير أن مكتبه لم يجرِ أي اتصال من هذا النوع. وأضاف أنه تواصل لاحقاً رجل أعمال آخر أجرى تحويلًا مصرفيًا كبيرًا بعد اتصاله بشخص ادّعى أنه «جنرالّ» وزوده بتفاصيل الحساب، فحذّره كروستّو من أن الأمر احتيال وأبلغ قضاة الشرطة (الكرابينييري) الذين سجلوا شكواه.

استهدفت رسائل الاحتيال أيضاً شخصيات بارزة من عالم الأعمال مثل مصمم الأزياء جورجيو أرماني وشريك برادا باتريزيو بيرتيلّي، لكن السلطات أكدت أن من أرسل الأموال فعلاً كان ماسّيمو موراتي، مالك إنتر ميلان السابق، الذي أخطر الشرطة فتم التعقب وتجميد المبلغ المحوّل. وقد قدّم موراتي شكوى إلى مدعي المدينة وقال لوسائل الإعلام الإيطالية إنه رفع الشكوى ويفضل أن يترك التحقيق يسير، معترفًا بأن الاحتيال بدا حقيقياً وقد يحصل لأي شخص.

يقرأ  ما الذي تسبب في تدهور مفاجئ في العلاقات بين الهند والولايات المتحدة؟ — دونالد ترامب

كيف تعمل تقنيات توليد الصوت بالذكاء الاصطناعي؟

تعتمد مولّدات الصوت الحديثة على خوارزميات «التعلّم العميق» التي تدرس مجموعات ضخمة من التسجيلات الصوتية الحقيقية لتتعلم نبرة الصوت، النطق، الانحداء الصوتي، والإيقاع الكلامي. تُدرّب الأنظمة على عينات متعددة لشخص واحد لتتقن تقليد صوته ولهجته وطريقته في الكلام، وينتج عنها ما يُعرف باستنساخ صوتي اصطناعي.

بواسطة نماذج معالجة اللغة الطبيعية يمكن للنظام أن يلتقط أيضاً خصائص نغمية مثل السخرية أو الفضول، ويحوّل نصًّا مكتوبًا إلى مكوّنات صوتية فونيتية ثم يولّد مقطع صوتي صناعي يبدو بشدّة كصوت إنسان حقيقي. المصطلح «ديفبفايك» (deepfake) وُلد في 2014 ليعبر عن دمج «التعلّم العميق» مع «التزييف»، ويشير إلى صور أو فيديوهات أو مقاطع صوتية واقعية جداً مولّدة آلياً.

مدى نجاح هذه التقنيات في الانتحال

دراسة لجامعة كوين ماري بلندن نشرت في مجلة PLOS One أظهرت أن الأصوات المولّدة بالذكاء الاصطناعي باتت تُخدع المستمعين وتُعتبر حقيقية في كثير من الحالات. استُخدمت أداة اسمها ElevenLabs لإنتاج 40 عيّنة صوتية اصطناعية (بعضها مستنسخ لأصوات حقيقية وبعضها جديد كلياً)، وأُخذت 40 عيّنة تسجيلات لأصوات بشرية حقيقية، عمِلت الفرق البحثية على تنقية هذه المقاطع لتوحيد الجودة.

ضمّت العيّنات أصواتاً ذكورية وأنثوية بلهجات بريطانية وأمريكية وأسترالية والهندية؛ واختبر الفريق 50 مشاركاً بريطانيّاً (أعمارهم بين 18 و65) طُلِب منهم فرز المقاطع لتمييز الاصطناعي عن الحقيقي وتقييم مدى الموثوقية. النتائج بيّنت أن الأصوات المولّدة بالكامل كانت أقل إقناعاً من استنساخات الأصوات، أما «استنساخات الصوت» فصُنّفت واقعية تقريبًا مثل الأصوات الحقيقية؛ إذ أخطأ المشاركون في تمييز 41٪ من الأصوات الاصطناعية و58٪ من استنساخات الأصوات باعتبارها بشرية حقيقية. كما أشار المشاركون إلى أن اللهجة البريطانية كانت أكثر احتمالاً لأن تُعتَبر صوتاً حقيقياً مقارنة باللهجة الأمريكية، ولافت أن الأصوات الاصطناعية حازت على تقييمات أعلى من حيث درجة الثقة لدى المستمعين.

يقرأ  «أحب الحياة»: رجل يحدد موعد وفاته ليستمتع بحياتهصحة

خلاصة ومخاطر مقبلة

التقدّم في توليد الأصوات يجعل الاحتيال الصوتي أكثر سهولة وخطورة، ويضع تحدياً أمام الأفراد والمؤسسات والسلطات في التحقق من هوية المتصلين وحماية المعاملات المالية والمعلوماتية. الحاجة ملحّة إلى تعزيز آليات التحقق والرصد الفني والتوعية العامة لتقليل فرص وقوع ضحايا جدد. يختلف هذا عن البحوث السابقة التي غالبًا ما وجدت أن الأصوات المولَّدة بواسطة الذكاء الاصطناعي أقل موثوقية، ما يشكل اشارة أخرى إلى أن تقنيات الذكاء الاصطناعي باتت متطوِّرة بشكل خاص في إنتاج أصوات مزيفة.

هل ينبغي أن نقلق جميعًا بشدة حيال هذا؟

يمكن أن يكون الصوت المولَّد اصطناعيًا الذي يبدو «بشريًا» مفيدًا لقطاعات مثل الإعلان وتحرير الأفلام، لكنه قابل للاستخدام بشكل مسيء في عمليات الاحتيال ونشر الأخبار المفبركة.

عمليات احتيال مماثلة لتلك التي استهدفت رجال الأعمال الإيطاليين في تزايد بالفعل. في الولايات المتحدة، وردت تقارير عن أشخاص تلقوا مكالمات بصوت مزيف لأقاربهم يدّعون أنهم في ورطة ويطلبون أموالًا.

بين يناير ويونيو من هذا العام، خسر الناس حول العالم أكثر من 547.2 مليون دولار بسبب عمليات الاحتيال المرتبطة بالتزييف العميق، وفق بيانات شركة ريسمبل إيه آي التي تتخذ من كاليفورنيا مقرًا لها. ويعكس هذا اتجاهًا تصاعديًا، إذ ارتفعت الأرقام من ما يزيد قليلًا عن 200 مليون دولار في الربع الأول إلى 347 مليون دولار في الربع الثاني.

هل يمكن تزييف الفيديو أيضًا؟

للقلق، الجواب نعم. يمكن استخدام برامج الذكاء الاصطناعي لإنشاء فيديوهات مزيفة لأشخاص حقيقيين. وبالاقتران مع الصوت المولَّد اصطناعيًا، يعني ذلك أن مقاطع فيديو تُظهر أشخاصًا يفعلون أو يقولون أشياء لم يفعلوها يمكن تزويرها بشكل مقنع للغاية.

علاوة على ذلك، بات من الصعب بشكل متزايد التمييز بين الفيديوهات الحقيقية والمزيفة المنشورة على الإنترنت.

يقرأ  جوجل تطلب من المحكمة العليا وقف تنفيذ أمر قضائي بشأن متجر التطبيقات في دعوى إيبك جيمزأخبار التكنولوجيا

تقدّر شركة ديب ميديا العاملة على أدوات كشف الوسائط الصناعية أن حوالي ثمانية ملايين مقطع تزييف عميق سيُنتَج ويُشارَك على الإنترنت بحلول نهاية عام 2025.

وهذا ارتفاع هائل مقارنة بنحو 500 ألف تم مشاركه على الإنترنت في 2023.

بماذا يُستخدم التزييف العميق أيضًا؟

بخلاف احتيال المكالمات والأخبار الزائفة، استُخدمت تقنيات التزييف العميق لصنع محتوى جنسي عن أشخاص حقيقيين. والأكثر إثارة للقلق أن تقرير ريسمبل إيه آي الصادر في يوليو وجد أن التقدّم في الذكاء الاصطناعي أدى إلى إنتاج صناعي لمواد إساءة جنسية للأطفال مولَّدة بالذكاء الاصطناعي، مما أجهد جهات إنفاذ القانون على مستوى العالم.

في مايو من هذا العام، وقع الرئيس الأمريكي دونالد ترامب قانونًا يجعل من نشر صور حميمة لشخص دون موافقته جريمة اتحادية، ويشمل ذلك التزييفات العميقة المولَّدة بالذكاء الاصطناعي. الشهر الماضي، أعلنت الحكومة الأسترالية أيضًا أنها ستحظر تطبيقًا كان يُستخدم لإنشاء صور عارية مزيفة.

أضف تعليق