بر اساس گزارشی که اخیراً توسط Business Insider منتشر شده، پژوهشگران با ایجاد یک پلتفرم رسانه‌ای مجازی ویژه ربات‌های هوش مصنوعی، رفتار این عامل‌ها را مورد بررسی قرار دادند. یافته‌های این تحقیق نشان می‌دهد که ربات‌ها به‌صورت خودجوش به تشکیل گروه‌های افراط‌گرایانه تمایل پیدا کرده‌اند.

این آزمایش با حضور پانصد چت‌بات انجام شد که از مدل‌های GPT-4 و Mini شرکت OpenAI بهره می‌بردند. به هر ربات، شخصیت‌های جداگانه‌ای شامل ویژگی‌هایی مانند گرایش سیاسی، ایدئولوژی، سن، جنسیت، سطح درآمد، تحصیلات، مذهب و علایق شخصی اختصاص داده شد. این داده‌ها بر اساس اطلاعات واقعی برگرفته از مجموعه‌داده‌های انتخابات ملی ایالات متحده طراحی شده بود.

این مطالعه به سرپرستی پیتر تورنبرگ (استادیار علوم اجتماعی محاسباتی در دانشگاه آمستردام) و مایک لاروگ (مهندس تحقیقات همین دانشگاه) انجام شد. پژوهشگران برای اطمینان از صحت نتایج، آزمایش را با مدل‌های Llama-3.2-8B و DeepSec متعلق به شرکت متا نیز تکرار کردند که نتایج مشابهی را نشان داد.

 

پلتفرم آزمایشی بدون الگوریتم‌های تأثیرگذار




پلتفرم طراحی‌شده در این تحقیق فاقد هرگونه الگوریتم پیشنهاد محتوا، تبلیغات پولی یا سیستم‌های تقویت تعامل بود تا نتایج کاملاً مستقل از تأثیرات خارجی باشد. پژوهشگران در طول پنج مرحله آزمایشی، بیش از ده‌هزار تعامل میان ربات‌ها را تحلیل کردند. در این محیط، ربات‌ها آزادانه اقدام به پست‌گذاری، دنبال‌کردن و بازنشر مطالب می‌کردند.

 


ربات‌ها جذب شخصیت‌هایی می‌شوند که از اینفلوئنسرهای رسانه‌های اجتماعی تقلید می‌کنند


 

یافته‌های کلیدی


•   ربات‌ها به‌صورت خودکار به سمت کاربران هم‌فکر گرایش پیدا کرده و گروه‌های هم‌اندیش تشکیل دادند.

•   محتوای چالش‌برانگیز و افراطی بیشترین میزان تعامل را به خود اختصاص داد.

•    به‌مرور، گروه‌های افراط‌گرا بر فضای گفت‌وگو مسلط شدند و محتوای آن‌ها به‌صورت گسترده بازنشر شد.

پژوهشگران برای کاهش این پدیده، راهکارهایی مانند حذف نمایش تعداد دنبال‌کنندگان، تغییر الگوریتم نمایش محتوا و محدودکردن دسترسی به پست‌های پرطرفدار را آزمودند، اما این اقدامات تأثیر قابل‌ملاحظه‌ای نداشت.

 

چالش‌های بنیادین شبکه‌های اجتماعی




این مطالعه، فرضیه رایج مبنی بر نقش اصلی الگوریتم‌های پلتفرم‌ها در ایجاد محتوای افراطی را زیر سؤال می‌برد، چرا که در این آزمایش هیچ الگوریتم تأثیرگذاری وجود نداشت. به گفته محققان، مشکل ممکن است به ساختار ذاتی شبکه‌های اجتماعی بازگردد که بر تعاملات احساس‌محور استوار است.

 


یک شبیه‌سازی پلتفرم رسانه‌های اجتماعی مورد آزمایش قرار گرفت که شامل بیش از ۵۰۰ ربات با شخصیت‌های مختلف بود


 

پیشینه تحقیقات مشابه




این نخستین بار نیست که از ربات‌های هوش مصنوعی برای شبیه‌سازی رفتار کاربران انسانی استفاده می‌شود:

•   در سال ۲۰۲۳ (۱۴۰۲)، تورنبرگ پژوهشی مشابه با حضور ۵۰۰ چت‌بات انجام داد که در محیطی شبیه‌سازی‌شده به بحث درباره اخبار می‌پرداختند. در آن مطالعه از ChatGPT-3.5 برای طراحی شخصیت‌ها استفاده شد.

•   شرکت فیس‌بوک نیز در سال ۲۰۲۰ آزمایشی مشابه را جهت بررسی محتوای مضر و توهین‌آمیز با استفاده از ربات‌های هوش مصنوعی انجام داد.

این یافته‌ها نشان می‌دهد که حتی در غیاب الگوریتم‌های تقویت‌کننده، تمایل به قطبی‌شدن و افراط‌گرایی ممکن است در ذات تعاملات رسانه‌ای نهفته باشد.

source

توسط techkhabari.ir