OpenAl شرکت سازنده هوش مصنوعی محبوبChatGPT، تغییری در سیاست‌هایش مبنی بر منع استفاده نظامی از هوش مصنوعی اش اعمال کرده است.

OpenAl که به‌خاطر پیشرفت‌های پیشگامانه‌اش در فناوری هوش مصنوعی شناخته می‌شود، اخیراً با تغییری ظریف و در عین حال قابل توجه در سیاست‌هایش در نحوه استفاده از استفاده‌اش، تیتر خبرها شده است. در ابتدا، این سازمان به صراحت استفاده از فناوری خود را برای اهداف “نظامی و جنگی” ممنوع کرد. اکنون این ممنوعیت خاص حذف شده است و سؤالات و نگرانی‌هایی را در مورد کاربردهای نظامی بالقوه هوش مصنوعی ایجاد می‌کند.

بیشتر بخوانید: صندوق بین‌المللی پول: 40 درصد از مشاغل با ظهور هوش مصنوعی از بین خواهند رفت

استفاده نظامی از هوش مصنوعی‌ OpenAI ممنوع است

با توجه به اینکه آژانس‌های نظامی جهانی امروزه، علاقه بیشتری به این ابراز دارند، زمان مناسبی یرای اعمال این تغییر قابل توجه است.

سارا مایرز وست، از مؤسسه AI Now، در این خصوص گفت که این تجدید نظر همزمان با افزایش استفاده از هوش مصنوعی در مناطق درگیری مانند غزه اتفاق افتاده است. این تغییر نشان‌دهنده امکان باز بودن همکاری‌های نظامی است که به طور سنتی مشوق‌های مالی قابل توجهی را برای شرکت‌های فناوری ارائه می‌دهد.

در حالی که OpenAI باور دارد که فناوری آن نباید برای آسیب رساندن یا توسعه تسلیحات مورد استفاده قرار گیرد، حذف «نظامی و جنگ» از سیاست آن ممکن است درها را به روی سایر کاربردهای مرتبط با ارتش باز کند. در حال حاضر، OpenAI محصولی با قابلیت آسیب فیزیکی مستقیم ارائه نمی‌کند، اما ابزارهای آن، مانند مدل‌های زبان، می‌توانند نقش‌های پشتیبانی را در عملیات‌های نظامی، مانند کدنویسی یا پردازش سفارش‌های تجهیزات بالقوه مضر، ایفا کنند.

نیکو فلیکس، سخنگوی OpenAI توضیح داد که هدف بروزرسانی خط مشی جدید برای ایجاد اصولی جهانی، به راحتی قابل درک است. این شرکت همیشه بر اصولی مانند «به دیگران آسیب نرسانید» تأکید می‌کند که در عین حال در زمینه‌های مختلف قابل اجرا هستند. اگرچه OpenAI به وضوح با توسعه سلاح یا ایجاد جراحت مخالف است، با‌این‌حال ابهاماتی در مورد دامنه گسترده تر استفاده نظامی، به ویژه در برنامه های غیر مرتبط با سلاح وجود دارد.

جالب اینجاست که OpenAI در حال حاضر با دارپا برای توسعه ابزارهای امنیت سایبری درگیر است و تاکید می‌کند که همه انجمن‌های نظامی لزوما مضر نیستند. به نظر می‌رسد که ایجاد سیاست‌های جدید اجازه چنین همکاری‌هایی را برایش صادر می کند، که ممکن است قبلاً در دسته وسیع‌تر «نظامی» کنار گذاشته شده باشند. این تغییر رویکردی متفاوت را پیشنهاد می‌کند که استفاده اخلاقی از هوش مصنوعی را با مزایای بالقوه‌ای که می‌تواند در زمینه‌های امنیت ملی ارائه دهد، متعادل می‌کند. با این حال، فضایی را برای بحث در مورد اینکه کجا باید در برنامه‌های نظامی ترسیم کرد، باقی می‌گذارد، موضوعی که احتمالاً با پیشرفت فناوری هوش مصنوعی به تکامل خود ادامه خواهد داد.

بیشتر بخوانید:

نظر شما راجع استفاده نظامی از هوش مصنوعی چیست ؟ لطفا دیدگاه خود را در بخش کامنت با تکراتو در میان بگذارید و اخبار تکنولوژی را با ما دنبال کنید.

source

توسط techkhabari.ir