به گفته دانشمندان، زمانی که ابزارهای هوش مصنوعی به صورت گروهی با یکدیگر ارتباط برقرار می‌کنند، می‌توانند خود را سازمان‌دهی کنند و نوع جدیدی از هنجارهای زبانی را بسازند – درست به همان شیوه‌ای که جوامع انسانی این کار را می‌کنند.

در این مطالعه، پژوهشگران قصد داشتند بفهمند که مدل‌های زبانی بزرگ – مانند آن‌هایی که زیربنای چت جی‌پی‌تی و ابزارهای مشابه به شمار می‌روند – چگونه با یکدیگر تعامل می‌کنند. هدف این کار تا حدی نگریستن به آینده‌ای بود که در آن احتمالا اینترنت مملو از چنین سامانه‌هایی شود که با یکدیگر تعامل و حتی گفتگو می‌کنند.

آریل فلیِنت اَشری، نویسنده اصلی و پژوهشگر دکتری در دانشگاه سیتی سنت جورج، گفت: «بیشتر پژوهش‌ها تاکنون مدل‌های زبانی بزرگ را مجزا از هم در نظر گرفته‌اند. اما سامانه‌های هوش مصنوعی در دنیای واقعی به‌طور فزاینده‌ای بسیاری از عوامل در حال تعامل را شامل خواهند شد.»

«ما می‌خواستیم بدانیم: آیا این مدل‌ها می‌توانند با ایجاد قراردادها، یعنی اجزای سازنده یک جامعه، رفتار خود را هماهنگ کنند؟ پاسخ مثبت است، و آنچه آن‌ها در کنار هم انجام می‌دهند، قابل تقلیل به عملکرد فردی آن‌ها نیست.»

پژوهشگران برای درک اینکه چنین جوامعی چگونه ممکن است شکل بگیرند از مدلی استفاده کردند که برای انسان‌ها به کار رفته است و با عنوان «بازی نام‌گذاری» (naming game) شناخته می‌شود. این مدل، انسان‌ها – یا عامل‌های هوش مصنوعی – را کنار هم قرار می‌دهد و از آن‌ها می‌خواهد از میان مجموعه‌ای از گزینه‌ها یک «نام» را برگزینند، و اگر نام یکسانی را انتخاب کنند به آن‌ها پاداش می‌دهد.

 




با گذشت زمان، مشاهده شد که عامل‌های هوش مصنوعی، قراردادهای نام‌گذاری مشترک و جدیدی ایجاد کردند که به‌نظر می‌رسید خودبه‌خود از درون گروه پدید آمده‌اند. این امر بدون آن بود که آن‌ها بر سر آن طرح با یکدیگر هماهنگ یا مشورت کرده باشند، و این روند به همان شیوه از پایین به بالایی (bottom-up) رخ داد که هنجارها معمولا در فرهنگ‌های انسانی شکل می‌گیرند.

به نظر می‌رسید که گروه عامل‌های هوش مصنوعی نیز برخی سوگیری‌ها را ایجاد کرده‌اند، که این سوگیری‌ها نیز ظاهرا در درون گروه شکل گرفته بودند نه از سوی یک عامل خاص.

آندریا بارونکلی، استاد «علم پیچیدگی»(Complexity Science) در دانشگاه سیتی سنت جورج و نویسنده ارشد این مقاله، توضیح داد: «سوگیری همیشه از درون پدید نمی‌آید. ما از دیدن اینکه چنین چیزی می‌تواند میان عامل‌ها پدیدار شود – صرفا از طریق تعامل آن‌ها – شگفت‌زده شدیم. این یک نقطه ضعف در بیشتر پژوهش‌های کنونی درباره امنیت هوش مصنوعی است که بر مدل‌های منفرد تمرکز دارند.»

پژوهشگران همچنین نشان دادند که یک گروه کوچک از عامل‌های هوش مصنوعی ممکن است گروه بزرگ‌تر را به‌سوی یک قرارداد خاص سوق دهند. این پدیده در گروه‌های انسانی نیز دیده می‌شود.

پژوهشگران خاطرنشان کردند که این کار باید در بررسی شباهت‌ها و تفاوت‌های میان انسان‌ها و سامانه‌های هوش مصنوعی مفید باشد، به‌ویژه از آن رو که سامانه‌های هوش مصنوعی بخش بیشتری از اینترنت را در اختیار می‌گیرند و ممکن است ناخواسته‌ با یکدیگر در گفتگو و همکاری باشند.

پروفسور بارونکِلی در اظهاراتی گفت: «این مطالعه افق جدیدی برای پژوهش‌های ایمنی هوش مصنوعی می‌گشاید. این مطالعه ژرفای پیامدهای گونه جدیدی از این عامل‌ها را نشان می‌دهد که شروع به تعامل با ما کرده‌اند – و همراه با ما آینده‌مان را شکل خواهند داد.»

درک چگونگی عملکرد این عامل‌ها کلید هدایت همزیستی ما با هوش مصنوعی است – نه آنکه تحت تسلط آن قرار گیریم. ما در حال ورود به جهانی هستیم که هوش مصنوعی در آن فقط صحبت نمی‌کند – بلکه مذاکره می‌کند، همسو می‌شود و گاه برسر رفتارهای مشترک اختلاف نظر دارد؛ درست مانند خود ما.»

این یافته‌ها در مقاله‌ای جدید با عنوان «هنجارهای اجتماعی پدیدارشده و سوگیری جمعی در جمعیت‌های مدل‌های زبانی بزرگ» گزارش شده‌اند که در مجله «ساینس اَدوَنسِز» (Science Advances) منتشر شده است.

source

توسط techkhabari.ir