يؤكد خبراء التقنية أنه منذ ظهور نماذج الذكاء الاصطناعي المتقدمة، يسعى المخترقون والجهات السيئة لاستغلالها بطرق غير مشروعة، رغم محاولات الشركات التقنية وضع ضوابط صارمة لمنع إساءة الاستخدام.
لكن التحدي الحقيقي يكمن في قدرة هؤلاء على التحايل وابتكار أساليب جديدة لاختراق هذه الأنظمة، بحسب تقرير نشره موقع "androidauthority".
كذلك يظهر تقرير نشرته مجموعة Threat Intelligence Group التابعة لشركة غوغل حول إساءة استخدام الذكاء الاصطناعي التوليدي، كيفية محاولة مجموعات دولية استخدام الذكاء الاصطناعي الخاص بشركة غوغل بشكل سيئ.
نوعين رئيسين من الهجمات
وتحدد الشركة نوعين رئيسيين من الهجمات: تلك التي تستخدم الذكاء الاصطناعي لتقديم يد المساعدة، مثل إنشاء التعليمات البرمجية التي قد تُستخدم لبناء البرامج الضارة، وتلك التي تحاول بشكل مباشر جعل الذكاء الاصطناعي يقوم بإجراءات غير مرغوب فيها، مثل حصاد بيانات الحساب.
كذلك نسمع عن فئتين أساسيتين من الخصوم: التهديدات المستمرة المتقدمة (APT)، والتي تميل إلى أن تكون مجموعات قرصنة كبيرة ممولة من الدول القومية، وعمليات المعلومات (IO)، والتي تتعلق أكثر بالخداع وإحداث فوضى في وسائل التواصل الاجتماعي.
ثغرات برمجية خطيرة
ويبين التقارير أن العديد من الجهات في الصين وإيران وكوريا الشمالية وروسيا، حاولوا استغلال نموذج الذكاء الاصطناعي "Gemini" في أنشطة تتراوح بين قرصنة البيانات وتطوير البرمجيات الخبيثة، وحتى التلاعب بالمعلومات على وسائل التواصل الاجتماعي.
وبحسب التقرير، فشلت معظم المحاولات في تجاوز أنظمة الأمان الصارمة لـ "Gemini"، لكن الاستخدام الأكبر كان يتمثل في البحث عن ثغرات برمجية، وتلخيص بيانات استخباراتية، وتحسين عمليات الخداع الرقمي.
احذروا المحتوى المضلل
ورغم جهود "غوغل" في تحصين منصاتها، إلا أن التقرير يؤكد أن استغلال الذكاء الاصطناعي لأغراض غير مشروعة لا يزال يمثل تهديدًا عالميًا متناميًا، يستدعي تكثيف الجهود الأمنية والرقابية لمواجهته.