اکنون گروهی از محققان با استفاده از روشهای مهندسی مدل توانستند نسخهای از این مدل را بسازند که سانسور داخلی آن حذف شده و همچنان بسیاری از توانمندیهای اصلی را حفظ میکند.
به گزارش ایتنا، پژوهشگران برای رسیدن به این هدف، با بهکارگیری یک فرایند فنی و کاهش اندازه مدل توانستند محدودیتهای حفاظتی تعبیهشده در R1 را خنثی کنند.
به نوشته سایت Futurism آنها اعلام کردند نسخه اصلاحشده تقریباً تمامی قابلیتهای اصلی از جمله تحلیل و تولید کد را حفظ کرده و در عین حال نسبت به پرسشهای «ممنوعه» پاسخپذیر شده است.
اهمیت این اقدام
این پیشرفت دو وجه متضاد دارد: از یک سو امکان دستیابی آزادتر به اطلاعات تاریخی و سیاسی را فراهم میسازد و میتواند به شکستن انحصار اطلاعات کمک کند؛ از سوی دیگر چالشی جدی برای چارچوبهای قانونی و سیاستهای دولتی محسوب میشود و سوالاتی را درباره امنیت، مسئولیت توسعهدهندگان و کنترل ابزارهای هوش مصنوعی مطرح میکند.
ملاحظات اخلاقی و حقوقی
هک یا مهندسی معکوس مدلهایی که تحت مقررات و سیاستهای داخلی کشورها ساخته شدهاند، میتواند پیامدهای پیچیدهای در حوزه حقوقی و اخلاقی بهدنبال داشته باشد. این موضوع همچنین بحثهایی را درباره مرز آزادی اطلاعات، مسئولیت توسعهدهندگان و پیامدهای اجتماعی فناوریهای دستکاریشده تقویت میکند.
جمعبندی
موفقیت در حذف سانسور از DeepSeek نشان میدهد حتی مدلهایی که برای تبعیت از سیاستهای سختگیرانه طراحی شدهاند، قابل اصلاح و دورزدن هستند.
از دید کارشناسان، این رخداد ضرورت تدوین چارچوبهای شفافتر برای حاکمیت هوش مصنوعی، تضمین مسئولیتپذیری توسعهکنندگان و توجه همزمان به آزادی دسترسی به اطلاعات و امنیت ملی را برجسته میکند.
source