OpenAl شرکت سازنده هوش مصنوعی محبوبChatGPT، تغییری در سیاستهایش مبنی بر منع استفاده نظامی از هوش مصنوعی اش اعمال کرده است.
OpenAl که بهخاطر پیشرفتهای پیشگامانهاش در فناوری هوش مصنوعی شناخته میشود، اخیراً با تغییری ظریف و در عین حال قابل توجه در سیاستهایش در نحوه استفاده از استفادهاش، تیتر خبرها شده است. در ابتدا، این سازمان به صراحت استفاده از فناوری خود را برای اهداف “نظامی و جنگی” ممنوع کرد. اکنون این ممنوعیت خاص حذف شده است و سؤالات و نگرانیهایی را در مورد کاربردهای نظامی بالقوه هوش مصنوعی ایجاد میکند.
بیشتر بخوانید: صندوق بینالمللی پول: 40 درصد از مشاغل با ظهور هوش مصنوعی از بین خواهند رفت
استفاده نظامی از هوش مصنوعی OpenAI ممنوع است
با توجه به اینکه آژانسهای نظامی جهانی امروزه، علاقه بیشتری به این ابراز دارند، زمان مناسبی یرای اعمال این تغییر قابل توجه است.
سارا مایرز وست، از مؤسسه AI Now، در این خصوص گفت که این تجدید نظر همزمان با افزایش استفاده از هوش مصنوعی در مناطق درگیری مانند غزه اتفاق افتاده است. این تغییر نشاندهنده امکان باز بودن همکاریهای نظامی است که به طور سنتی مشوقهای مالی قابل توجهی را برای شرکتهای فناوری ارائه میدهد.
در حالی که OpenAI باور دارد که فناوری آن نباید برای آسیب رساندن یا توسعه تسلیحات مورد استفاده قرار گیرد، حذف «نظامی و جنگ» از سیاست آن ممکن است درها را به روی سایر کاربردهای مرتبط با ارتش باز کند. در حال حاضر، OpenAI محصولی با قابلیت آسیب فیزیکی مستقیم ارائه نمیکند، اما ابزارهای آن، مانند مدلهای زبان، میتوانند نقشهای پشتیبانی را در عملیاتهای نظامی، مانند کدنویسی یا پردازش سفارشهای تجهیزات بالقوه مضر، ایفا کنند.
نیکو فلیکس، سخنگوی OpenAI توضیح داد که هدف بروزرسانی خط مشی جدید برای ایجاد اصولی جهانی، به راحتی قابل درک است. این شرکت همیشه بر اصولی مانند «به دیگران آسیب نرسانید» تأکید میکند که در عین حال در زمینههای مختلف قابل اجرا هستند. اگرچه OpenAI به وضوح با توسعه سلاح یا ایجاد جراحت مخالف است، بااینحال ابهاماتی در مورد دامنه گسترده تر استفاده نظامی، به ویژه در برنامه های غیر مرتبط با سلاح وجود دارد.
جالب اینجاست که OpenAI در حال حاضر با دارپا برای توسعه ابزارهای امنیت سایبری درگیر است و تاکید میکند که همه انجمنهای نظامی لزوما مضر نیستند. به نظر میرسد که ایجاد سیاستهای جدید اجازه چنین همکاریهایی را برایش صادر می کند، که ممکن است قبلاً در دسته وسیعتر «نظامی» کنار گذاشته شده باشند. این تغییر رویکردی متفاوت را پیشنهاد میکند که استفاده اخلاقی از هوش مصنوعی را با مزایای بالقوهای که میتواند در زمینههای امنیت ملی ارائه دهد، متعادل میکند. با این حال، فضایی را برای بحث در مورد اینکه کجا باید در برنامههای نظامی ترسیم کرد، باقی میگذارد، موضوعی که احتمالاً با پیشرفت فناوری هوش مصنوعی به تکامل خود ادامه خواهد داد.
بیشتر بخوانید:
نظر شما راجع استفاده نظامی از هوش مصنوعی چیست ؟ لطفا دیدگاه خود را در بخش کامنت با تکراتو در میان بگذارید و اخبار تکنولوژی را با ما دنبال کنید.