مكالمات حقيقية بأصوات مزيفة… الاحتيال يدخل مرحلة يصعب كشفها

مكالمات حقيقية بأصوات مزيفة… الاحتيال يدخل مرحلة يصعب كشفها

استنساخ صوتي فوري يمكّن المهاجمين من محادثات مزيّفة، سرقة بيانات، وتهديدات بفيديو مزيّف مستقبلية قريباً.
مكالمات حقيقية بأصوات مزيفة… الاحتيال يدخل مرحلة يصعب كشفها
صورة تعبيرية
Smaller Bigger

أصبح من الممكن اليوم أن تتلقى مكالمة من مديرك أو زميلك بصوت مألوف تماماً… لكنه في الحقيقة ليس حقيقياً. هذا ما كشفه باحثون من شركة الأمن السيبراني NCC Group، الذين نفّذوا تجارب ناجحة لهجمات تصيّد صوتي (Vishing) بالاعتماد على تقنية استنساخ الصوت في الزمن الحقيقي، وتمكنوا خلالها من الوصول إلى بيانات حسّاسة وتنفيذ إجراءات خطيرة مثل إعادة تعيين كلمات مرور وتغيير عناوين بريد إلكتروني.

كيف يعمل الاستنساخ الفوري؟

في السابق، كانت تقنيات Deepfake الصوتية تعتمد على تسجيلات معدّة مسبقاً أو أنظمة تحويل النص إلى كلام (TTS)، وهو ما يعيق المحادثة الفورية ويجعل الأصوات غير مقنعة.

لكن الباحثين طوروا نظاماً يمرّر صوت المهاجم إلى مُعدِّل آني يعتمد على التعلم الآلي، فيخرج الصوت مطابقًا لصوت شخص آخر مباشرة. الأخطر أن هذه التقنية يمكن دمجها في تطبيقات شائعة مثل Microsoft Teams وGoogle Meet، مع إمكانية تزوير رقم الهاتف الحقيقي عبر خاصية Spoofing لإضفاء الثقة.

 

صورة تعبيرية مولّدة بالذكاء الاصطناعي
صورة تعبيرية مولّدة بالذكاء الاصطناعي

 

 

تهديد رخيص ومتاح للجميع

التجارب أثبتت أن هذه الهجمات لا تحتاج إلى أجهزة متقدّمة أو ميزانيات ضخمة؛ أدوات بسيطة "جيدة بما يكفي" كفيلة بإنجاحها، ما يعني أن التكلفة في متناول الأفراد والمجموعات الصغيرة، وليس فقط الجهات المتطورة.

الخبراء يحذّرون

متخصصون في الأمن السيبراني وصفوا استنساخ الصوت الفوريّ بأنه مضاعِف للقوة، إذ يمنح المهاجم القدرة على الرّد في الزمن الحقيقي، تعديل النبرة، والتفاعل بمرونة تجعل الاحتيال مقنعًا وصعب الاكتشاف.

ويؤكد خبراء أن التطور في الذكاء الاصطناعي التوليدي جعل الأصوات المزيفة أقرب من أي وقت مضى إلى الحقيقة، وأنه بحلول عام 2026 قد تصبح أغلب هجمات الاحتيال الصوتي مدعومة بالكامل بالذكاء الاصطناعي.

من الصوت إلى الصورة

ورغم أن الهجمات النصية التي تنتحل صفة المديرين التنفيذيين هي الأكثر شيوعاً اليوم، فإن الباحثين يتوقعون مرحلة أخطر: دمج الصوت بالفيديو المزيف (Deepfake Video). صحيح أن هناك تحديات تقنية في المزامنة بين الصوت والصورة، لكن سرعة التطور تشير إلى أن الأمر ليس سوى مسألة وقت.

نحن أمام جيل جديد من الاحتيال الرقمي، حيث قد لا يكون الصوت الذي تسمعه في مكالمتك المقبلة سوى نسخة مزيّفة صنعها الذكاء الاصطناعي. ومع اقتراب دخول الفيديو المزيف على الخط، يبدو أن الهندسة الاجتماعية في طريقها إلى مرحلة يصعب التمييز فيها بين الحقيقة والخداع.

الأكثر قراءة

شمال إفريقيا 4/13/2026 12:00:00 PM
مصر تحت صدمة وفاة البلوغر بسنت سليمان بعد بث مباشر مأساوي من شرفة منزلها
اقتصاد وأعمال 4/11/2026 12:45:00 PM
قوة الدولار وارتفاع الذهب معاً "دليل على قلق عالمي".
ايران 4/12/2026 6:50:00 AM
وزير الخارجية الباكستاني يدعو الولايات المتحدة وإيران إلى مواصلة الالتزام بوقف إطلاق النار
تحقيقات 4/12/2026 9:22:00 AM
تتعامل وزارة الصحة مع هذا الملف بتكتم شديد وعدم الإفصاح عن أرقام الجثث المجهولة الهوية. فالقضية معقّدة، تتداخل فيها صلاحيات جهات عدة.