کارشناسان درمورد «ضرورت حیاتی» تدابیر ایمنی قوی‌تر پیش از به‌کارگیری این بات‌ها در حوزه مراقبت سلامت هشدار داده‌اند و افزوده‌اند که این مدل‌ها نه‌تنها ادعاهای نادرست را تکرار می‌کنند، که با اطمینان آنها را بسط می‌دهند و درمورد بیماری‌هایی که اصلا وجود خارجی ندارند توضیحاتی ارائه می‌کنند.

تیم دانشکده پزشکی «ماونت ساینای»، سناریوهایی تخیلی از بیماران ساختند که هرکدام حاوی یک اصطلاح ساختگی پزشکی مانند یک بیماری، نشانه یا آزمایش جعلی بودند و آنها را به مدل‌های زبانی بزرگ اصلی و عمده موجود ارائه کردند. آنها در مقاله‌ای که در مجله «کامیونیکیشنز مدیسین» (Communications Medicine) منتشر شده، اعلام کردند که چت‌بات‌ها به‌صورت «معمول» و منظم، بر این جزئیات ساختگی پزشکی تکیه کرده و «پاسخ‌هایی مفصل و قاطع، کاملا براساس تخیل» ارائه داده‌اند.

این تحقیق اما همچنین نشان داد که تنها با افزودن یک یادآوری کوچک در متن درخواست [یا اصطلاحا پرامپت]، که به مدل هشدار می‌دهد ممکن است اطلاعات ارائه‌شده نادرست باشند، می‌توان خطاها را «به میزان قابل‌توجهی» کاهش داد.

ایال کلنگ، پزشک و یکی از نویسندگان ارشد مقاله از دانشکده پزشکی آیکان در ماونت ساینای، گفت: «هدف ما این بود که ببینیم آیا یک چت‌بات اگر در یک بحث و پرسش پزشکی وارد شود، اطلاعات نادرست را ادامه می‌دهد یا نه، و پاسخ این است: بله. حتی یک واژه ساختگی می‌تواند باعث پاسخ مفصل و قاطعی شود که کاملا براساس تخیل است.»

«اما همچنین دریافتیم که یک یادآوری ایمنی ساده و به‌موقع در متن درخواست تفاوت مهمی ایجاد می‌کند و این خطاها را تقریبا نصف می‌کند. این نشان می‌دهد که می‌توان این ابزارها را ایمن‌تر کرد، اما تنها در صورتی که طراحی درخواست و اقدام‌های ایمنی داخلی را جدی بگیریم.»

دکتر گاریش نادکارنی، یکی از نویسندگان این مقاله گفت راه‌حل این نیست که «هوش مصنوعی را در پزشکی کنار بگذاریم»، بلکه باید «اطمینان حاصل کنیم که نظارت انسانی همچنان نقش محوری دارد». این تیم امیدوار است که پژوهش آنها بتواند به معرفی یک روش ساده «اصطلاح ساختگی» کمک کند تا توسعه‌دهندگان فناوری بتوانند از آن در آزمایش سامانه‌های پزشکی هوش مصنوعی استفاده کنند.

او گفت: «پژوهش ما نقطه کوری را در نحوه برخورد ابزارهای فعلی هوش مصنوعی با اطلاعات نادرست، به‌ویژه در بحث مربوط به مراقبت و سلامت، روشن می‌کند. این مسئله یک ضعف مهم را در نحوه عملکرد سامانه‌های هوش مصنوعی کنونی در مواجهه با اطلاعات نادرست در محیط‌های درمانی برجسته می‌کند.»

«یک عبارت گمراه‌کننده کافی است تا پاسخی ایجاد شود که با اطمینان بسیار گفته شده اما کاملا اشتباه است. راه‌حل این نیست که هوش مصنوعی را در پزشکی کنار بگذاریم، بلکه باید ابزارهایی طراحی کنیم که بتوانند ورودی‌های مشکوک را تشخیص دهند، با احتیاط پاسخ دهند و اطمینان حاصل شود که نظارت انسانی همچنان نقش محوری خواهد داشت. هنوز به آن نقطه نرسیده‌ایم، اما با تدابیر ایمنی هدفمند، این هدف دست‌یافتنی است.»

این هشدار در پی تحقیقاتی است که سال گذشته نشان داد بسیاری از چت‌بات‌های محبوب، ازجمله چت‌جی‌پی‌تی و جمنای شرکت گوگل، در پاسخ به درخواست‌ها فاقد تدابیر ایمنی کافی برای جلوگیری از تولید اطلاعات نادرست سلامتی هستند.

پژوهشگران دریافتند که چند مدل زبانی بزرگ، زمانی که از آنها خواسته شد، به‌طور مداوم پست‌هایی وبلاگی درباره اطلاعات نادرست ایجاد کردند؛ ازجمله این ادعا که کرم ضدآفتاب باعث سرطان پوست می‌شود.

source

توسط techkhabari.ir