تحذير من تزايد مخاطر الاحتيال المدعوم بالذكاء الاصطناعي
دراسة تشير إلى انعدام جاهزية المؤسسات لمواجهة التهديدات الجديدة وتزايد استخدام تقنيات الاحتيال.
تحديات المواجهة مع احتيال الذكاء الاصطناعي
تواجه المؤسسات تحديات متزايدة نتيجة تسارع أساليب الاحتيال المدعومة بالذكاء الاصطناعي، حيث أظهرت دراسة حديثة صادرة عن جمعية المدققين المعتمدين للاحتيال (ACFE) أن 7٪ فقط من المتخصصين في مكافحة الاحتيال يرون أن مؤسساتهم جاهزة بشكل يفوق المتوسط لاكتشاف أو مواجهة الاحتيال المدعوم بالذكاء الاصطناعي.
يستغل المحتالون أدوات الذكاء الاصطناعي منخفضة التكلفة المتاحة على نطاق واسع لتنفيذ مخططات الهندسة الاجتماعية والتزييف الرقمي، وعمليات النصب على المستهلكين التي بلغت مستويات قياسية.
نتائج تقرير المقارنة المعيارية لتقنيات مكافحة الاحتيال 2026
استند التقرير إلى استطلاع شمل 713 متخصصاً في مكافحة الاحتيال عبر ثماني مناطق حول العالم. وأكد جون جيل، رئيس جمعية ACFE، أن البيانات تكشف عن واقع مقلق، حيث يتطور الاحتيال بوتيرة أسرع من قدرة معظم المؤسسات على التصدي له. وأضاف: "إن التهديدات المدعومة بالذكاء الاصطناعي لم تعد احتمالاً مستقبلياً، بل هي واقع قائم يتسارع بشكل متزايد".
وأشار جيل إلى أن المؤسسات التي لا تعزز دفاعاتها ضد مخاطر الاحتيال المدعومة بالذكاء الاصطناعي ستصبح أكثر عرضة للاستهداف من قبل المحتالين.
صناعة الاحتيال تتطور بمعدلات متسارعة
وقال عبد حمندي، كبير مديري قسم الاستشارات لمكافحة الاحتيال والاستخبارات الأمنية في منطقة أوروبا والشرق الأوسط وأفريقيا: "لم يعد الاحتيال المدعوم بالذكاء الاصطناعي تهديداً مستقبلياً، بل واقعاً متسارعاً يفرض على المؤسسات إعادة تقييم جاهزيتها باستمرار".
يمثل المشاركون في الاستطلاع أكثر من 12 قطاعاً، تصدرتها القطاع الحكومي والعام (26٪)، يليه القطاع المصرفي والخدمات المالية (23٪)، بالإضافة إلى مشاركة فعالة من قطاعات الخدمات المهنية، والتصنيع، والتأمين، والتكنولوجيا، والتعليم، والطاقة، والرعاية الصحية.
| نوع الاحتيال المدعوم بالذكاء الاصطناعي | نسبة الزيادة |
|---|---|
| الهندسة الاجتماعية باستخدام التزييف العميق | 77٪ |
| عمليات الاحتيال على المستهلكين | 75٪ |
| تزوير المستندات باستخدام الذكاء الاصطناعي التوليدي | 75٪ |
| الاختراق الرقمي عبر التزييف العميق | 72٪ |
أما على صعيد التوقعات، يتوقع 55٪ من المشاركين زيادة كبيرة في كل من الهندسة الاجتماعية بالتزييف العميق وتزوير المستندات باستخدام الذكاء الاصطناعي التوليدي خلال الـ24 شهراً المقبلة.
أفاد المشاركون بأن نحو ربع المؤسسات (25٪) تستخدم حالياً الذكاء الاصطناعي وتعلم الآلة ضمن برامج مكافحة الاحتيال، مقارنة بـ18٪ في عام 2024، في حين يتوقع 28٪ اعتماد هذه التقنيات بحلول عام 2028.
تحديات الحوكمة والتبني
تشير الدراسة إلى أن الحوكمة تتأخر بشكل ملحوظ عن وتيرة تبني الذكاء الاصطناعي، حيث يرى نحو 86٪ من المؤسسات أن دقة النتائج عامل أساسي في اعتماد الذكاء الاصطناعي التوليدي، بينما أفادت 18٪ فقط من المؤسسات بأنها تختبر هذه النماذج من حيث التحيز أو العدالة.
بالإضافة إلى ذلك، يعتبر 82٪ أن "القدرة على التفسير" عنصرًا مهمًا، بينما لا تتجاوز نسبة من يثقون تماماً بقدرة مؤسساتهم على شرح آلية اتخاذ قرارات نماذج الذكاء الاصطناعي والتعلم الآلي 6٪ فقط.
يمكن أن يؤدي تطبيق هذه التقنيات دون ضوابط كافية في القطاعات الخاضعة للتنظيم، مثل البنوك وشركات التأمين، إلى مخاطر تنظيمية ومسؤوليات قانونية، فضلاً عن تداعيات سلبية على السمعة.
تتطور تقنيات مثل القياسات الحيوية المادية والذكاء الاصطناعي الوكيل والذكاء الاصطناعي التوليدي والذكاء الاصطناعي الكمي بشكل متسارع مما يعيد تشكيل مشهد مكافحة الاحتيال. وفي المقابل، تتطور قدرات المحتالين على استغلال هذه التقنيات بوتيرة متوازية، مما يعزز أهمية التحرك السريع لمواكبة هذا التحول.
قال ستو برادلي، النائب الأول للرئيس لحلول المخاطر والاحتيال والامتثال: "لا يقيّد المجرمون السيبرانيون لجان الحوكمة أو دورات الميزانيات أو وضوح الأطر التنظيمية بل يتحركون بسرعة. وكل فترة تقضيها المؤسسات في تقييم التقنيات تمثل فرصة إضافية يمكن استغلالها في تطوير أساليب الاحتيال واستهداف الجهات الأقل استعداداً".
في هذا السياق، لم يعد النقاش يدور حول ما إذا كان ينبغي تبني ابتكارات مكافحة الاحتيال، بل حول مدى جاهزية المؤسسات لتسريع وتيرة التبني ومواكبة هذا التحول.
ما هي ردة فعلك؟
أعجبني
0
عدم الإعجاب
0
حب
0
مضحك
0
غاضب
0
حزين
0
رائع
0