مؤخرًا، قام بعض المحتالون باستخدام تكنولوجيا deepfake لتقليد صوت إيلون ماسك وتصرفاته لخداع الناس وإقناعهم بالاستثمار في برنامج احتيال عملات رقمية.
يستخدم النصابون الذكاء الاصطناعي وتعلم الآلة لإنشاء أصوات وطرق تصرف مستنسخة بواسطة الذكاء الاصطناعي لشخصيات بارزة للترويج لعمليات احتيال في مجال العملات الرقمية.
يجب أن تقوم المؤسسات بتثقيف موظفيها حول اكتشاف ومعالجة حالات التزوير العميقة.
تقدم التكنولوجيا بمخاطر أكبر مما كانت عليه في السابق. على سبيل المثال، يستخدم بعض الأشخاص الخبيثة الذكاء الاصطناعي والتقنيات ذات الصلة لتزييف الأصوات والأفعال لأشخاص بارزين لإيهام جمهورهم وسرقة أصولهم الرقمية. وعلى وجه الخصوص، يقوم هؤلاء الأشخاص السيئون بتزييف الأخبار ومقاطع الفيديو المفبركة لإيهام المستثمرين والاحتيال عليهم. يتناول هذا المقال كيف تم تزييف مقاطع فيديو اليوتيوب لإيلون ماسك أثناء إطلاق سبيس إكس.
اقرأ أيضًا: يُتهم إيلون ماسك بتلاعب عملة الدوجكوين
في 6 يونيو، قام بعض النصابين بغزو يوتيوب بمقاطع فيديو deepfake لإيلون ماسك بينما حاولوا استغلال مستثمري العملات الرقمية لأصولهم الرقمية خلال فترة إطلاق SpaceX. خلال حدث إطلاق صاروخ Starship، بث النصابون صوت ماسك المولد بالذكاء الاصطناعي على أكثر من 35 قناة على يوتيوب. من خلال البث المباشر، قاموا بتزييف صوت وتصرفات ماسك لجذب المستثمرين إلى مشروع عملات رقمية حيث وعدوا المستثمرين بكسب مبالغ مستثمرة مضاعفة.
أظهرت لقطات الفيديو كأن ماسك يتحدث في الخارج في سبيس إكس. ومع ذلك، كانت لقطات الفيديو تحتوي على أقسام مشوشة مُبرمجة بطريقة لإخفاء حقيقة الوضع. وقد تزامن بث الاحتيال مع إطلاق اختبار سبيس إكس الرابع حيث تم توجيه الصاروخ إلى نقطة دخوله في الغلاف الجوي من الأرض. كما أظهر اللحظة التي غرق فيها الصاروخ في المحيط الهندي كما كان مخططًا.
اقرأ أيضًا: مخططات الاحتيال في التسجيل وكيفية الوقاية منها
قام المحتالون بدمج عناصر مختلفة لجعل الجمهور يعتقد أنه إيلون ماسك الذي يتحدث إليهم. وفقًا لـ نشر Cointelegraph، قناة YouTube تنتحل شخصية حساب SpaceX الرسمي وتبث بثًا مباشرًا لعملية احتيال جذبت أكثر من 170000 مشاهد. يعتقد بعض الخبراء أن معظم المشاهدين المزعومين كانوا مجرد برامج روبوتية تستخدم لإقناع الجمهور بأنه كان بثًا مباشرًا شرعيًا. تم تصميم تأثير المشاهد لجذب المستثمرين في العملات المشفرة للاستثمار في مشروع استثماري من المفترض أن يكون مسك.
صوت الذكاء الاصطناعي بشبه ماسك أقنع الجمهور بإرسال أنواع مختلفة من الأصول الرقمية مثل بيتكوين أو إيثر إلى عناوين المحفظة الرقمية المذكورة. فعل صانعو الفيديو المزور بشكل كبير لإقناع الناس بأنه كان في الواقع ماسك الذي يتحدث. على سبيل المثال، يتضمنون تصرفاته المعتادة وجوانب أخرى من صوته الطبيعي مثل التلعثم والتوقف. كان ذلك واضحًا عندما قال الصوت، “هذا ليس مزيفًا، هذه هدية حقيقية. أنا شخصيا أضمنها لك.” كان هناك أيضًا رمز الاستجواب الذي سيقوم المستثمرون بمسحه لإجراء إيداعاتهم الرقمية.
صوت المضيف: ‘لديك فرصة لرؤية عملة العملات الرقمية الخاصة بك تتصاعد بشكل هائل بينما تقوم صاروخنا بالارتفاع نحو النجوم.’ وتلا ذلك بتصفيق حاد من حشد من الناس، وكانت أصواتهم مزيفة أيضًا. في الوقت الحالي، لا يوجد رقم صحيح لعدد الأشخاص الذين تم خداعهم من خلال هذا الاحتيال على يوتيوب. ومع ذلك، هناك دليل على أن بعض الأشخاص قد قاموا بإرسال عملاتهم الرقمية إلى العناوين المذكورة. تظهر الصورة التالية شخصًا قام بإرسال أصول عملة رقمية بقيمة 30 دولارًا إلى أحد محافظ النصابين.
المصدر: x.com
ومع ذلك، تمت إزالة تدفقات الفيديو لاحقاً وتمت إعادة تسمية القناة لتقليد Cardano المؤسسة. مجموعة البحث مسك كانت أول من يحذر مجتمع مجال العملات الرقمية للعملة الاحتيالية كما يوضح الصورة التالية.
المصدر: x.com
لا شك أن Mysk ساعدت مجتمع التشفير على إدراك الخطر الذي كان عليه في ذلك الوقت. هذه التنبيهات الأمنية عبر الإنترنت ضرورية للحفاظ على كرامة قطاع الأصول الرقمية. ومع ذلك ، ليست هذه هي المرة الأولى التي يتورط فيها ماسك في عملية احتيال كهذه. يستهدف المحتالون الملياردير المشفر بسبب دعمه المفتوح للعملات المشفرة وتأييده للعديد من مشاريع التشفير مثل دوج كوين و شيبا إنو. على سبيل المثال، في أبريل، تعرف تلال حاج بكري وتومي ميسك على حساب يوتيوب مزيف آخر لشركة SpaceX برسالة مماثلة، داعيًا المستثمرين في مجال العملات الرقمية للاستثمار في مشروع نصب مزدوج الأموال.
أولاً، من المهم أن نلاحظ أن الفيديوهات المزيفة تستفيد من تقنيات قوية باستخدام الذكاء الاصطناعي وتعلم الآلة لتلاعب في المحتوى الصوتي والبصري لخداع فئات معينة من المجتمع. لذلك، فإن أفضل وسيلة لمواجهة مثل هذه الخدع هي استخدام تقنيات مماثلة لاكتشاف الفيديوهات المزيفة والتخفيف من التهديدات الأمنية التي تشكلها.
بعبارة أخرى، يجب أن تستخدم المؤسسات بما في ذلك الشركات الرقمية تقنيات التعلم الآلي والذكاء الاصطناعي للتحقق من صحة المحتوى البصري والصوتي الذي قد يعتبرونه مشبوهاً. لذا، يجب على المؤسسات الاستثمار في حلول التعلم الآلي ذات الصلة التي تستفيد من الأتمتة في الكشف والتحقق من الحيوية. وذلك لأن ما قد يفوته العين البشرية يمكن لنظم التعلم الآلي القائمة على الآلات اكتشافه.
ثانيًا، يجب على المؤسسات وضع أنظمة للتعامل مع المخاطر الأمنية الناشئة المتعلقة بالفيديوهات المفبركة والتمثيل. على سبيل المثال، يجب أن يشمل الوعي بالفيديوهات المفبركة كجزء من برامجهم التعليمية في مجال الأمن السيبراني التنظيمي. بمعنى آخر، يجب عليهم تدريب موظفيهم على جميع المستويات في المؤسسة للتعرف على المحتوى المفبرك والاستجابة بشكل مناسب.
أخيرًا، من الضروري بالنسبة للمؤسسات التي تعمل في القطاع الرقمي أن تبتكر وسائل للتواصل مع بعضها البعض عند حدوث حوادث deepfake. يجب أيضًا أن يعملوا جنبًا إلى جنب مع منظمات إنفاذ القانون للتعامل مع مثل هذه الحالات.
تزداد حالات الفيديوهات المزيفة deepfake في الصناعة الرقمية، لا سيما في قطاع العملات الرقمية. مؤخرًا، قام بعض المحتالون في مجال العملات الرقمية بتنصل شخصية إيلون ماسك لخداع بعض المستثمرين. وضع أموالهم في عملية احتيال في مجال العملات الرقمية. ومع ذلك، تمكنت منظمات التحذير مثل Mysk من كشف هذا التهديد الأمني. في المستقبل، يجب على المؤسسات في القطاع الرقمي تعليم موظفيها كيفية كشف والتعامل مع حالات الفيديو المزيفة بشكل عميق.