هیئت ایمنی جدا گانه OpenAI بدون وجود سم آلتمن با قوت توقف انتشار کردن مدلهای هوش مصنوعی راه اندازی شد_مستطیل زرد

[ad_1]
نوشته و ویرایش شده توسط مجله ی مستطیل زرد
مطابق اظهار وبلاگ OpenAI، کمیتهی امنیت و ایمنی این سازمان در حال تبدیلشدن به واحد نظارتی مستقلی است که بهعلت نگرانیهای ایمنی، اختیار توقف انتشار کردن مدلهای هوش مصنوعی را دارد. کمیتهی مذکور بعد از بازدید ۹۰ روزهی فرایندها و تدبیرها امنیتی و ایمنی OpenAI، پیشنهاد کرد هیئتمدیرهی جدیدی برای واحد مذکور راه اندازی بشود.
کمیتهی امنیت و ایمنی را زیکو کولتر مدیریت میکند و افرادی همانند آدام دآنجلو، پاول ناکاسونه و نیکول سلیگمن نیز در آن وجود دارند. مدیران ارشد OpenAI، این کمیته را درمورد برسیهای ایمنی برای انتشار کردن مدلهای مهم توجیه خواهند کرد و به همراه هیئتمدیرهی مهم OpenAI، بر راهاندازی مدلها نظارت خواهد داشت. به تعویق انداختن انتشار کردن مدلهای هوش مصنوعی تا وقتی که نگرانیهای ایمنی رفع بشود، ازجمله اختیارات کمیتهی تازه بهشمار میرود و بدین ترتیب، هیئتمدیرهی OpenAI نیز درمورد مسائل امنیت و ایمنی اطلاعات دورهای دریافت خواهند کرد.
ازآنجاکه اعضای کمیتهی ایمنی OpenAI در هیئتمدیرهی این شرکت نیز وجود دارند، نمیدانیم چه مقدار جدا گانه خواهد می بود یا استقلالش چه ساختاری دارد. مسئلهی مهم دیگر این که سم آلتمن در کمیتهی مذکور وجود ندارد.
به نظر میرسد OpenAI با تأسیس هیئت ایمنی جدا گانه، رویکردی همانند به هیئت نظارت متا را در پیش گرفته است که برخی از تصمیمات مربوط به خط مشی محتوای غول رسانههای اجتماعی جهان را بازدید میکند. هیئت نظارت متا این چنین میتواند احکامی صادر کند که این شرکت موظف به مراعات آنها باشد. هیچیک از اعضای هیئت نظارت در هیئتمدیرهی متا وجود ندارند.
بازدیدهای کمیتهی امنیت و ایمنی OpenAI به تشکیل زمانهای زیاد تر برای همکاری و تبادل اطلاعات در صنعت هوش مصنوعی و بهبود امنیت پشتیبانی کرد. این شرکت میگوید به جستوجو راه حلهای زیاد تر برای اشتراکگذاری و توضیح عمل های ایمنی خود و زمانهای زیاد تر برای آزمایش جدا گانه سیستمها است.
دسته بندی مطالب
[ad_2]




