جنجال بر سر پروژه Maven نشان می دهد که این بخش مشکل اعتماد جدی دارد. این تلاشی برای رفع آن است.
در سال 2018، زمانی که کارمندان گوگل از مشارکت شرکتشان در پروژه Maven ، یک تلاش جنجالی ارتش ایالات متحده برای توسعه هوش مصنوعی برای تجزیه و تحلیل ویدئوهای نظارتی مطلع شدند، خوشحال نشدند. هزاران نفر اعتراض کردند. آنها در نامه ای به رهبری این شرکت نوشتند: "ما معتقدیم که گوگل نباید در تجارت جنگ باشد." حدود دوازده کارمند استعفا دادند. گوگل در سال 2019 قرارداد را تمدید نکرد.
Project Maven هنوز وجود دارد و شرکت های فناوری دیگر از جمله آمازون و مایکروسافت از آن زمان به بعد جای گوگل را گرفته اند. با این حال، وزارت دفاع ایالات متحده می داند که مشکل اعتماد دارد. این چیزی است که باید برای حفظ دسترسی به آخرین فناوری، به ویژه هوش مصنوعی – که مستلزم مشارکت با فناوری بزرگ و سایر سازمان‌های غیرنظامی است، مقابله کند.
یک نظرسنجی جدید نشان می‌دهد که سیستم‌های بحث‌برانگیز نقش مهم‌تری در تجارت فدرال دارند.
در تلاش برای ارتقای شفافیت، واحد نوآوری دفاعی، که قراردادهای وزارت دفاع را به شرکت‌ها اعطا می‌کند، دستورالعمل‌هایی را منتشر کرده است که آن را «هوش مصنوعی مسئول» می‌نامد که از توسعه‌دهندگان شخص ثالث می‌خواهد هنگام ساخت هوش مصنوعی برای ارتش، خواه این هوش مصنوعی از آن استفاده کنند. برای سیستم منابع انسانی یا شناسایی هدف است.
این دستورالعمل ها یک فرآیند گام به گام را برای شرکت ها ارائه می دهد تا در طول برنامه ریزی، توسعه و استقرار از آن پیروی کنند. آنها شامل رویه هایی برای شناسایی افرادی هستند که ممکن است از فناوری استفاده کنند، چه کسانی ممکن است توسط آن آسیب ببینند، چه کسانی ممکن است آسیب ببینند، و چگونه ممکن است از آنها اجتناب شود – هم قبل از ساخت سیستم و هم پس از راه اندازی آن.
برایس گودمن در واحد نوآوری دفاعی، که نویسندۀ این دستورالعمل‌ها است، می‌گوید: «هیچ دستورالعمل دیگری، چه در وزارت دفاع یا، صادقانه بگویم، دولت ایالات متحده، وجود ندارد که به این سطح از جزئیات بپردازد».
این کار می تواند نحوه توسعه هوش مصنوعی توسط دولت ایالات متحده را تغییر دهد، در صورتی که دستورالعمل های وزارت دفاع توسط سایر بخش ها تصویب یا تطبیق داده شود. گودمن می گوید که او و همکارانش آنها را به NOAA و وزارت حمل و نقل داده اند و با گروه های اخلاقی در وزارت دادگستری، اداره خدمات عمومی و IRS صحبت می کنند.
گودمن می‌گوید هدف از دستورالعمل‌ها این است که اطمینان حاصل شود که پیمانکاران فناوری به اصول اخلاقی موجود وزارت دفاع برای هوش مصنوعی پایبند هستند. وزارت دفاع آمریکا این اصول را سال گذشته و پس از یک مطالعه دو ساله به سفارش هیئت نوآوری دفاعی، یک هیئت مشاوره ای متشکل از محققان برجسته فناوری و افراد تجاری در سال 2016 برای آوردن جرقه سیلیکون ولی به ارتش ایالات متحده، اعلام کرد. ریاست هیئت مدیره توسط اریک اشمیت، مدیرعامل سابق گوگل تا سپتامبر 2020 بر عهده داشت و اعضای فعلی آن شامل دانیلا روس، مدیر آزمایشگاه علوم کامپیوتر و هوش مصنوعی MIT است.
با این حال، برخی از منتقدان این سوال را مطرح می‌کنند که آیا این اثر نوید اصلاحات معناداری را می‌دهد.
در طول این مطالعه، هیئت مدیره با طیفی از کارشناسان، از جمله منتقدان سرسخت استفاده ارتش از هوش مصنوعی، مانند اعضای کمپین برای روبات‌های قاتل و مردیث ویتاکر، محقق سابق گوگل که به سازماندهی اعتراضات پروژه Maven کمک کرد، مشورت کرد.
ویتاکر، که اکنون مدیر دانشکده در موسسه هوش مصنوعی دانشگاه نیویورک است، برای اظهار نظر در دسترس نبود. اما به گفته کورتنی هولزورث، سخنگوی مؤسسه، او در یک جلسه شرکت کرد و در آنجا با اعضای ارشد هیئت مدیره، از جمله اشمیت، در مورد مسیری که در پیش گرفته بود، بحث کرد. هولزورث می‌گوید: «هیچ‌وقت با او مشورت معناداری صورت نگرفت. این ادعا که او بود را می‌توان نوعی شست‌وشوی اخلاقی خواند، که در آن از حضور صداهای مخالف در طول بخش کوچکی از یک فرآیند طولانی برای ادعای اینکه یک نتیجه معین از طرف ذینفعان مربوطه استقبال گسترده‌ای دارد، استفاده می‌شود.»
اگر وزارت دفاع سرمایه گذاری گسترده ای نداشته باشد، آیا دستورالعمل های آن همچنان می تواند به ایجاد اعتماد کمک کند؟ گودمن می‌گوید: «افرادی وجود خواهند داشت که هرگز با مجموعه‌ای از دستورالعمل‌های اخلاقی که وزارت دفاع تهیه می‌کند راضی نمی‌شوند، زیرا این ایده را متناقض می‌دانند». "این مهم است که در مورد آنچه دستورالعمل ها می توانند انجام دهند و نمی توانند انجام دهند، واقع بین باشیم."
به عنوان مثال، دستورالعمل ها چیزی در مورد استفاده از سلاح های خود مختار مرگبار نمی گوید، فناوری که برخی از مبارزان معتقدند باید ممنوع شود. اما گودمن اشاره می‌کند که مقررات حاکم بر چنین فناوری‌هایی بالاتر از زنجیره تصمیم‌گیری می‌شوند. هدف از دستورالعمل ها آسان تر ساختن هوش مصنوعی است که مطابق با این مقررات باشد. و بخشی از این فرآیند این است که هر گونه نگرانی را که توسعه دهندگان شخص ثالث دارند به صراحت بیان کنیم. جرد دانمون از DIU، که یکی از نویسندگان آنها است، می گوید: «کاربرد معتبر این دستورالعمل ها این است که تصمیم بگیرید یک سیستم خاص را دنبال نکنید. "شما می توانید تصمیم بگیرید که این ایده خوبی نیست."
مارگارت میچل، محقق هوش مصنوعی در Hugging Face ، که قبل از اخراج هر دو از شرکت ، تیم هوش مصنوعی اخلاقی گوگل را به همراه تیمنیت گبرو رهبری می‌کرد ، موافق است که دستورالعمل‌های اخلاقی می‌تواند به شفاف‌تر کردن پروژه برای کسانی که روی آن کار می‌کنند، حداقل در تئوری. میچل در طول اعتراضات در گوگل در ردیف اول قرار داشت. یکی از انتقادات اصلی کارمندان این بود که شرکت فناوری قدرتمندی را بدون حفاظ به ارتش تحویل می‌داد، او می‌گوید: «مردم به‌طور خاص به دلیل فقدان هر نوع دستورالعمل روشن یا شفافیتی از آنجا خارج شدند.»
برای میچل، مسائل واضح نیستند. او می‌گوید: «من فکر می‌کنم برخی از افراد در گوگل قطعاً احساس می‌کنند که همه کار با ارتش بد است. "من از آن افراد نیستم." او با وزارت دفاع در مورد اینکه چگونه می تواند با شرکت ها به گونه ای شریک شود که اصول اخلاقی آنها را حفظ کند صحبت کرده است.
او فکر می کند قبل از اینکه وزارت دفاع اعتماد لازم را به دست آورد راهی وجود دارد. یک مشکل این است که برخی از عبارات در دستورالعمل ها قابل تفسیر است. به عنوان مثال، آنها اظهار می دارند: "دپارتمان اقدامات عمدی را برای به حداقل رساندن سوگیری ناخواسته در قابلیت های هوش مصنوعی انجام خواهد داد." در مورد تعصب مورد نظر چطور؟ ممکن است به نظر بیهوده باشد، اما تفاوت در تفسیر به این نوع جزئیات بستگی دارد.
نظارت بر استفاده از فناوری نظامی سخت است زیرا معمولاً به مجوز امنیتی نیاز دارد. برای پرداختن به این موضوع، میچل مایل است ببیند که قراردادهای وزارت دفاع برای حسابرسان مستقل با مجوز لازم، که می توانند به شرکت ها اطمینان دهند که دستورالعمل ها واقعاً رعایت می شوند، فراهم شود. او می‌گوید: «کارکنان به تضمینی نیاز دارند که دستورالعمل‌ها همانطور که انتظار دارند تفسیر می‌شوند.

محققان دیپ فیک مدتهاست که از روزی که این اتفاق بیفتد می ترسند.
این شرکت با پیش‌بینی‌کنندگان آب‌وهوای بریتانیا برای ایجاد مدلی کار کرد که در پیش‌بینی‌های کوتاه‌مدت بهتر از سیستم‌های موجود بود.
سه راه کلیدی که هوش مصنوعی معنای محاسبه را تغییر می دهد.
حمل و نقل به موقع تمام شده است. زنجیرهای تامین زنده با استرس تست شده با دوقلوهای دیجیتالی هوش مصنوعی.
پیشنهادهای ویژه، داستان های برتر، رویدادهای آینده و موارد دیگر را کشف کنید.
از اینکه ایمیل خود را ثبت کردید، متشکریم!
به نظر می رسد مشکلی پیش آمده است.
ما در ذخیره تنظیمات برگزیده شما با مشکل روبرو هستیم. سعی کنید این صفحه را بازخوانی کنید و یک بار دیگر آنها را به روز کنید. اگر همچنان این پیام را دریافت می‌کنید، با فهرستی از خبرنامه‌هایی که می‌خواهید دریافت کنید، از طریق customer-service@technologyreview.com با ما تماس بگیرید.
ماموریت ما اتخاذ تصمیمات آگاهانه تر و آگاهانه تر در مورد فناوری از طریق روزنامه نگاری معتبر، تأثیرگذار و قابل اعتماد است.
اشتراک در برای حمایت از روزنامه نگاری ما
© 2021 بررسی فناوری MIT

source

توسط techkhabari