گزارشی از اکونومیست بیان کرد که پس از راهاندازی چتبات ChatGPT در سال ۲۰۲۲، به لطف مدلهای هوش مصنوعی مولد، هکرها دیگر نیازی به صرف مبالغ هنگفت برای تیمها و تجهیزات هکری ندارند.
ویتالی سیمونوویچ، محقق تهدیدات هوش مصنوعی، گفت که چتبات ChatGPT میتواند بدافزاری ایجاد کند که فایروالها را نقض کرده و در مدت زمان کوتاهی کاربران را به خطر بیندازد.
این پیشرفت جدید تأثیر فاجعهباری بر بسیاری از شرکتها داشته که قربانی هکرهای مجهز به هوش مصنوعی شدهاند.
هکرها با استفاده از مدلهای زبان بزرگ (LLM) از هوش مصنوعی سوءاستفاده کردند تا دامنه بدافزار خود را گسترش دهند و ویدیوها، تصاویر و ایمیلهای جعلی ایجاد کنند.
هکرها میتوانند با جمعآوری حجم عظیمی از اطلاعات از اینترنت و رسانههای اجتماعی برای ایجاد ایمیلهای جعلی، کمپینهای بزرگی راهاندازی کنند.
هکرها همچنین از هوش مصنوعی برای خطرناکتر کردن بدافزارها استفاده میکنند. فایلهای PDF حاوی کدی که با هوش مصنوعی کار میکند، میتوانند برای هک شبکهها ارسال شوند. این تاکتیک در حملات به سیستمهای امنیتی و دفاعی در اوکراین در جپلای گذشته مورد استفاده قرار گرفت.
این تهدیدات نگرانی فزایندهای برای شرکتها هستند و خسارات مالی قابل توجهی را به بار آوردهاند. طبق این گزارش، هوش مصنوعی در سال گذشته در یک مورد از هر شش مورد نقض دادهها دخیل بوده است.
شرکت Deloitte، یک شرکت مشاوره و خدمات مالی برای مشاغل و دولتها، تخمین میزند که هوش مصنوعی مولد میتواند تا سال ۲۰۲۷ منجر به ۴۰ میلیارد دلار سرقت شود، که نسبت به ۱۲ میلیارد دلار در سال ۲۰۲۳ افزایش چشمگیری یافته است.
این تهدید رو به رشد منجر به افزایش تقاضا برای خدمات امنیت سایبری شده است و شرکتهای این بخش رشد قابل توجهی را تجربه کردهاند.
شرکتهای بزرگ فناوری با پلتفرمهای مبتنی بر ابر نیز در تلاش برای افزایش امنیت سایبری بودهاند. مایکروسافت در سال ۲۰۲۱ شرکت ColdKnox، متخصص در حفاظت از هویت، را خریداری کرد، در حالی که گوگل BigSleep را برای شناسایی حملات و آسیبپذیریها قبل از سوءاستفاده توسعه داد.
source