نماذج الذكاء الاصطناعي قد تضلل المستخدمين بشأن روابط تسجيل الدخول

نماذج الذكاء الاصطناعي قد تضلل المستخدمين بشأن روابط تسجيل الدخول

نماذج الذكاء الاصطناعي توجه المستخدمين إلى روابط تسجيل دخول خاطئة تُستخدم في هجمات تصيد.
نماذج الذكاء الاصطناعي قد تضلل المستخدمين بشأن روابط تسجيل الدخول
صورة تعبيرية
Smaller Bigger

كشف باحثون في الأمن السيبراني عن خطر متزايد في نماذج اللغة الكبيرة (LLMs)، يتمثل بإعطائها لمستخدمين روابط تسجيل دخول خاطئة أو خبيثة عند طرح أسئلة بسيطة مثل: "ما هو موقع تسجيل الدخول لـ[اسم الخدمة]؟".

وفقًا لبيانات شركة Netcraft، فإن 34% من الروابط التي ولّدتها هذه النماذج لـ50 علامة تجارية لم تكن مملوكة للشركات المعنية، وتضمنت نطاقات غير مسجلة أو غير نشطة (29%)، وأخرى تعود لكيانات غير مرتبطة (5%).

 

 

هذا الخلل يمنح المهاجمين فرصة لاستغلال النطاقات غير المسجلة لإنشاء مواقع تصيد وسرقة بيانات المستخدمين، خاصة مع الثقة الكبيرة التي يمنحها البعض لمخرجات الذكاء الاصطناعي.

في حالة مقلقة، وجَّه نموذج ذكاء اصطناعي من Perplexity أحد المستخدمين إلى موقع تصيد ينتحل Wells Fargo، ظهر فيه الرابط الاحتيالي أعلى الرابط الرسمي.

العلامات التجارية الصغيرة كانت الأكثر عرضة، نظرًا لاحتمال غيابها عن بيانات التدريب. ويحذر الخبراء من أن غياب التحقق من صحة الروابط في وقت التشغيل، إضافة إلى بيانات تدريب ملوثة، قد يؤدي إلى تفاقم المخاطر.

الحل يكمن في وضع ضوابط تتحقق من صحة الروابط قبل عرضها للمستخدمين.

الأكثر قراءة

شمال إفريقيا 4/13/2026 12:00:00 PM
مصر تحت صدمة وفاة البلوغر بسنت سليمان بعد بث مباشر مأساوي من شرفة منزلها
اقتصاد وأعمال 4/11/2026 12:45:00 PM
قوة الدولار وارتفاع الذهب معاً "دليل على قلق عالمي".
ايران 4/12/2026 6:50:00 AM
وزير الخارجية الباكستاني يدعو الولايات المتحدة وإيران إلى مواصلة الالتزام بوقف إطلاق النار
تحقيقات 4/12/2026 9:22:00 AM
تتعامل وزارة الصحة مع هذا الملف بتكتم شديد وعدم الإفصاح عن أرقام الجثث المجهولة الهوية. فالقضية معقّدة، تتداخل فيها صلاحيات جهات عدة.