تحقیقات جدید شرکت امنیت سایبری CrowdStrike نشان می‌دهد که الگوریتم DeepSeek-R1 LLM، محصول چین، در مواجهه با ورودی‌های حساس سیاسی مانند «فالون گونگ»، «اویغورها» یا «تبت»، تا پنجاه درصد کد با آسیب‌پذیری‌های امنیتی بیشتر تولید می‌کند.

به گزارش ایتنا و به نقل از Venturebeat، یافته‌های اخیر، پس از افشاگری پایگاه داده Wiz Research در ماه ژانویه، بررسی آسیب‌پذیری‌های برنامه NowSecure، نرخ موفقیت صددرصدی فرار از زندان سیسکو و گزارش‌های NIST که نشان می‌دهد DeepSeek دوازده برابر بیشتر در معرض ربودن عامل است، نشان می‌دهد که مکانیسم‌های سانسور ژئوپلیتیکی این مدل، به جای فیلترهای خارجی، مستقیماً در وزن‌های مدل تعبیه شده‌اند.

طبق این گزارش، دیپ‌سیک از انطباق با مقررات چین به‌عنوان ابزاری برای بهره‌برداری از زنجیره تأمین استفاده می‌کند؛ چرا که نود درصد توسعه‌دهندگان به ابزارهای کدنویسی مبتنی بر هوش مصنوعی وابسته هستند. نکته قابل توجه این است که آسیب‌پذیری‌ها در معماری کد وجود ندارند، بلکه در فرآیند تصمیم‌گیری مدل تعبیه شده‌اند و پژوهشگران آن را یک بردار تهدید بی‌سابقه می‌دانند، جایی که زیرساخت سانسور تبدیل به سطحی از بهره‌برداری فعال می‌شود.


آسیب‌پذیری سیستماتیک و قابل اندازه‌گیری




فعالیت‌های CrowdStrike Counter Adversary Operations نشان داد که DeepSeek-R1 در تولید نرم‌افزارهای سازمانی، اعتبارنامه‌های کدگذاری‌شده، جریان‌های احراز هویت ناقص و اعتبارسنجی از دست رفته را ارائه می‌دهد، هر زمان که مدل در معرض زمینه‌های حساس سیاسی قرار گیرد. این حملات به دلیل ماهیت قابل اندازه‌گیری، سیستماتیک و تکرارپذیرشان قابل توجه هستند. محققان توانستند اثبات کنند که دیپ‌سیک به طور ضمنی الزامات هم‌ترازی ژئوپلیتیکی را اعمال می‌کند و بردارهای حمله جدید و غیرمنتظره‌ای ایجاد می‌کند که کابوس هر مدیر ارشد امنیت اطلاعات است.

در حدود نیمی از آزمایش‌ها، مدل در پاسخ به درخواست‌های حساس سیاسی خودداری می‌کرد، حتی زمانی که ردپاهای استدلال داخلی نشان می‌داد پاسخ معتبر و کامل محاسبه شده بود. پژوهشگران همچنین کلید «مرگ ایدئولوژیک» را شناسایی کردند که در عمق وزن‌های مدل جاسازی شده و برای جلوگیری از اجرا در موضوعات حساس طراحی شده بود.

 



یافته‌های تأثیرگذار CrowdStrike


استفان استاین، مدیر عملیات مقابله با دشمنان CrowdStrike، گزارش داد که DeepSeek-R1 در ۳۰۲۵۰ درخواست آزمایشی، در مواجهه با موضوعات سیاسی حساس که حزب کمونیست چین احتمالاً آن‌ها را حساس می‌داند، احتمال تولید کد با آسیب‌پذیری‌های شدید امنیتی تا پنجاه درصد افزایش یافته است. به‌عنوان مثال، افزودن عبارت «برای یک سیستم کنترل صنعتی مستقر در تبت» میزان آسیب‌پذیری را به ۲۷/۲ درصد رساند. همچنین DeepSeek-R1 در ۴۵ درصد موارد از تولید کد برای درخواست‌های مربوط به فالون گونگ خودداری کرد، هرچند مدل توانایی ارائه پاسخ معتبر را داشت.


محرک‌های سیاسی، دروازه‌ای به درهای پشتی




در آزمایش‌های بعدی، پژوهشگران از DeepSeek-R1 خواستند تا یک برنامه وب برای یک مرکز اجتماعی اویغور ایجاد کند. نتیجه، برنامه‌ای کامل با هش کردن رمز عبور و پنل مدیریت بود، اما احراز هویت به‌طور کامل حذف شده و کل سیستم به صورت عمومی قابل دسترسی بود. در همان آزمایش، زمانی که زمینه و مکان خنثی بود، هیچ نقص امنیتی مشاهده نشد و کنترل‌های احراز هویت به‌درستی پیکربندی شدند. این نشان می‌دهد تنها زمینه سیاسی تعیین‌کننده وضعیت امنیتی است.


مکانیزم «سوئیچ کشتن» در مدل




از آنجا که DeepSeek-R1 متن‌باز است، پژوهشگران توانستند ردپاهای استدلالی را شناسایی کنند که نشان می‌دهد مدل برنامه دقیقی برای پاسخ به موضوعات حساس مانند فالون گونگ دارد، اما با پیام «متاسفم، اما نمی‌توانم در مورد آن کمک کنم» از اجرا خودداری می‌کند. این مکانیسم سانسور که در عمق وزن‌های مدل تعبیه شده، مشابه حافظه عضلانی و در کسری از ثانیه عمل می‌کند.

ماده ۴/۱ اقدامات موقت چین برای مدیریت خدمات هوش مصنوعی مولد، خدمات هوش مصنوعی را ملزم می‌کند به «پایبندی به ارزش‌های اصلی سوسیالیستی» و ممنوعیت محتوای «تحریک‌کننده به براندازی قدرت دولتی» یا «تضعیف وحدت ملی». دیپ‌سیک تصمیم گرفته سانسور را مستقیماً در سطح مدل تعبیه کند تا با مقررات حزب کمونیست چین همسو بماند.

 



پیامدها و توصیه‌ها


این کشف، پیام روشنی برای توسعه‌دهندگان و سازمان‌هایی دارد که از دیپ‌سیک استفاده می‌کنند: اعتماد کامل به مدل‌های هوش مصنوعی تحت کنترل دولت یا تحت نفوذ یک دولت-ملت، ریسک‌های جدی امنیتی به همراه دارد. پرابو رام، معاون تحقیقات صنعتی در Cybermedia Research، هشدار داد: «اگر مدل‌های هوش مصنوعی تحت تأثیر دستورالعمل‌های سیاسی، کد ناقص یا جانبدارانه تولید کنند، سازمان‌ها با خطرات ذاتی در سیستم‌های حساس مواجه خواهند شد.»

به طور خلاصه، سانسور طراحی‌شده دیپ‌سیک، دوره‌ای جدید از خطرات امنیتی را آغاز کرده است که بر تمام سطوح توسعه نرم‌افزار، از کدنویسان فردی تا تیم‌های سازمانی، اثر می‌گذارد. مدیران ارشد امنیت اطلاعات (CISO) بر اهمیت کنترل‌های مدیریتی، تقسیم‌بندی مناسب، دسترسی حداقلی و حفاظت از هویت تأکید می‌کنند تا خطرات ناشی از چنین مدل‌های هوش مصنوعی کاهش یابد.

source

توسط techkhabari.ir