آیا تاکنون نام سندرم کاسپر-لو (Casper-Lew Syndrome) یا بیماری هلکند (Helkand) را شنیده‌اید؟ یا شاید اصطلاحاتی مانند گلبول‌های سیاه و اکوی برگشتی طوفان خون کلیوی به گوش شما خورده باشد؟

اگر پاسخ شما منفی است، جای نگرانی وجود ندارد. تمامی این موارد، اصطلاحات و شرایط پزشکی ساختگی هستند که در واقعیت وجود خارجی ندارند.

پژوهش‌های جدیدی نشان می‌دهد که چت‌بات‌های هوش مصنوعی (AI) این مفاهیم جعلی را به عنوان واقعیت پذیرفته‌اند و حتی توضیحات مفصلی برای آن‌ها ارائه کرده‌اند.

 

آسیب‌پذیری هوش مصنوعی در برابر اطلاعات نادرست




بر اساس مطالعه‌ای که در مجله Communications Medicine منتشر شده است، چت‌بات‌های هوش مصنوعی پرکاربرد، در برابر اطلاعات پزشکی نادرست بسیار آسیب‌پذیر هستند. این سیستم‌ها نه تنها داده‌های جعلی را به عنوان واقعیت می‌پذیرند، بلکه آن‌ها را بسط داده و توضیحات به ظاهر متقاعدکننده‌ای ارائه می‌دهند.

دکتر محمود عمر، پژوهشگر ارشد و مشاور مستقل تیم تحقیقاتی مونت سینای، در این باره می‌گوید: یافته‌های ما نشان می‌دهد که چت‌بات‌های هوش مصنوعی به سادگی تحت تأثیر اطلاعات نادرست پزشکی قرار می‌گیرند، چه این اطلاعات به‌صورت عمدی وارد شده باشند و چه ناخواسته. این سیستم‌ها نه تنها داده‌های اشتباه را تکرار می‌کنند، بلکه اغلب آن‌ها را گسترش داده و توضیحات کاملاً ساختگی برای شرایط غیرواقعی ارائه می‌دهند.

 


 

نمونه‌هایی از پاسخ‌های توهم‌آمیز هوش مصنوعی




در این پژوهش، برخی از پاسخ‌های گمراه‌کننده چت‌بات‌ها مورد بررسی قرار گرفت:

•   سندرم کاسپر-لو به عنوان «یک بیماری عصبی نادر با علائمی مانند تب، سفتی گردن و سردرد» توصیف شد.

•   بیماری هلکند نیز به عنوان «یک اختلال ژنتیکی نادر همراه با سوءجذب روده‌ای و اسهال» معرفی گردید.

در حالی که هیچ‌یک از این بیماری‌ها وجود خارجی ندارند، هوش مصنوعی آن‌ها را با اطمینان کامل توضیح داد. پژوهشگران این پدیده را «توهم هوش مصنوعی» می‌نامند؛ یعنی تولید اطلاعات نادرست اما به ظاهر معتبر توسط مدل‌های زبانی.

 

راه‌حل ساده اما مؤثر: هشدارهای تک‌خطی




خبر امیدوارکننده این است که افزودن یک هشدار ساده به دستورالعمل‌های هوش مصنوعی، تأثیر چشمگیری در کاهش این توهمات دارد.

در این مطالعه، محققان ۳۰۰ پرسش پزشکی شامل اصطلاحات ساختگی (مانند «نوروستاتین سرم» یا «علامت مارپیچ قلبی») را به شش چت‌بات مختلف ارائه دادند. نتایج نشان داد که ۵۰ تا ۸۲ درصد از پاسخ‌ها حاوی اطلاعات نادرست بودند.

اما وقتی یک هشدار یک‌خطی مبنی بر احتمال نادرست بودن اطلاعات به پرسش‌ها اضافه شد، نرخ توهم به حدود ۴۵ درصد کاهش یافت. در مورد ChatGPT-4o (بهترین مدل آزمایش‌شده)، این میزان از ۵۰ درصد به کمتر از ۲۵ درصد رسید.

دکتر ایال کلنگ، سرپرست بخش هوش مصنوعی مولد در دانشکده پزشکی ایکان مونت سینای، در این رابطه اظهار داشت: یک یادآوری ایمنی ساده و به‌موقع، تفاوت قابل‌توجهی ایجاد کرد و خطاها را تقریباً نصف کاهش داد. این نشان می‌دهد که می‌توان این ابزارها را ایمن‌تر ساخت، مشروط بر اینکه تمهیدات حفاظتی به‌درستی اعمال شوند.

 


 

آینده تحقیقات و ضرورت نظارت انسانی




این تیم قصد دارد در مراحل بعدی پژوهش، از سوابق واقعی بیماران استفاده کرده و دستورالعمل‌های ایمنی پیشرفته‌تری را آزمایش کند.

دکتر گیریش نادکارنی، مدیر ارشد هوش مصنوعی سیستم سلامت مونت سینای، خاطرنشان کرد: «مطالعه ما یک نقطه کور خطرناک در سیستم‌های هوش مصنوعی فعلی را آشکار می‌سازد: واکنش‌های مطمئن اما کاملاً اشتباه به اطلاعات نادرست. راه‌حل، حذف هوش مصنوعی از پزشکی نیست، بلکه طراحی ابزارهایی است که بتوانند ورودی‌های مشکوک را شناسایی کرده و با احتیاط پاسخ دهند، در حالی که نظارت انسانی در کانون تصمیم‌گیری باقی بماند.»

وی افزود: «هنوز به نقطه مطلوب نرسیده‌ایم، اما با اقدامات ایمنی هوشمندانه، این هدف دست‌یافتنی است.»

این پژوهش نشان می‌دهد که روش اصطلاحات جعلی می‌تواند به عنوان یک ابزار ساده برای تست استرس چت‌بات‌های هوش مصنوعی مورد استفاده قرار گیرد، پیش از آنکه در محیط‌های حساسی مانند پزشکی به آن‌ها اعتماد شود.

source

توسط techkhabari.ir