شرکت اوپن‌ای‌آی آمار تازه‌ای منتشر کرده است درباره تعداد کاربران چت‌جی‌پی‌تی که نشانه‌هایی از بحران‌های سلامت روان مانند شیدایی، روان‌پریشی یا افکار خودکشی نشان داده‌اند. به گزارش سرویس جهانی بی‌بی‌سی، طبق اعلام این شرکت، حدود ۰.۰۷ درصد از کاربران فعال هر هفته چنین نشانه‌هایی بروز داده‌اند و چت‌‌جی‌پی‌تی می‌تواند این گفت‌وگوهای حساس را تشخیص دهد و به آن‌ها پاسخ دهد.

بنا بر اعلام اوپن‌ای‌آی، این موارد «بسیار نادرند»، اما منتقدان هشدار می‌دهند با توجه به ۸۰۰ میلیون کاربر فعال هفتگی، حتی چنین درصد کوچکی می‌تواند به‌معنای صدها هزار نفر باشد. 

شرکت برای مدیریت این وضعیت، شبکه‌ای از کارشناسان در سراسر جهان ایجاد کرده که بیش از ۱۷۰ روان‌پزشک، روان‌شناس و پزشک عمومی از ۶۰ کشور را شامل می‌شود. این متخصصان مجموعه‌ای از پاسخ‌ها برای چت‌جی‌پی‌تی طراحی کرده‌اند تا کاربران را به جست‌وجوی کمک واقعی در دنیای بیرون ترغیب کند.

انتشار این داده‌ها نگرانی‌هایی میان کارشناسان سلامت روان برانگیخته است. دکتر جیسون ناگاتا، از دانشگاه کالیفرنیا در سان‌فرانسیسکو، گفت: «هرچند ۰.۰۷ درصد رقم کوچکی است، در سطح جمعیتی با صدها میلیون کاربر، می‌تواند تعداد زیادی از افراد را شامل شود.» او افزود هوش مصنوعی می‌تواند دسترسی به حمایت‌های سلامت روان را افزایش دهد، اما محدودیت‌هایی نیز دارد.

اوپن‌ای‌آی همچنین برآورد کرده است که ۰.۱۵ درصد از کاربران مکالماتی داشته‌اند که حاوی نشانه‌های آشکار برنامه‌ریزی یا قصد احتمالی خودکشی است. این شرکت اعلام کرد به‌روزرسانی‌های اخیر چت‌جی‌پی‌تی با این هدف طراحی شده است تا به علائم احتمالی توهم یا شیدایی پاسخ ایمن و همدلانه بدهد و نشانه‌های غیرمستقیم خطر خودزنی یا خودکشی را نیز تشخیص دهد. این سامانه آموزش دیده است تا مکالمات حساس را از مدل‌های دیگر به مدل‌های امن‌تر منتقل کند.

این تغییرات در حالی اعمال می‌شود که اوپن‌ای‌آی با بررسی‌های قانونی فزاینده‌ درباره نحوه تعامل چت‌جی‌پی‌تی با کاربران مواجه است. در یکی از پرسرو‌صداترین پرونده‌ها، زوجی از کالیفرنیا از این شرکت به‌دلیل مرگ پسر ۱۶ ساله‌شان آدام رِین شکایت کرده‌اند و مدعی‌اند چت‌جی‌پی‌تی او را به خودکشی تشویق کرده است. این نخستین شکایت حقوقی علیه اوپن‌ای‌آی به اتهام مرگ ناشی از سهل‌انگاری است.

در پرونده‌ای جداگانه، مظنون یک قتل‌ـ‌خودکشی در گرینیچ در کنتیکت ساعت‌ها گفت‌وگویش با چت‌جی‌پی‌تی را منتشر کرده بود که به نظر می‌رسد توهم‌های او را تشدید کرده بود.

پروفسور رابین فلدمن، مدیر موسسه حقوق و نوآوری هوش مصنوعی در دانشگاه کالیفرنیا، گفت: «تعداد بیشتری از کاربران دچار روان‌پریشی ناشی از هوش مصنوعی می‌شوند، زیرا چت‌بات‌ها توهم واقعیت ایجاد می‌کنند، و این توهم بسیار قدرتمند است.» 

او افزود هرچند اقدام اوپن‌ای‌آی به انتشار آمار و تلاش برای رفع مشکل قابل‌تقدیر است، اما افرادی که از لحاظ روانی در معرض خطرند ممکن است نتوانند هشدارهای روی صفحه را درک یا رعایت کنند.

source

توسط techkhabari.ir