OpenAI متعهد شد که مدل هوش مصنوعی بعدیاش را در اختیار مؤسسه ایمنی هوش مصنوعی آمریکا قرار دهد_مستطیل زرد

نوشته و ویرایش شده توسط مجله ی مستطیل زرد
سم آلتمن با انتشار کردن پستی در ایکس خبرداد شرکت OpenAI برای آزمایش ایمنی مدلهای هوش مصنوعی بعدی خود و اراعهی دسترسی زودهنگام به این مدلها به مؤسسهی ایمنی هوش مصنوعی ایالاتمتحده، با سازمان مورد اشاره داخل همکاری شده است.
عمل OpenAI برای همکاری با مؤسسهی ایمنی هوش مصنوعی آمریکا درحالی انجام میبشود که این شرکت در ماه ژوئن (خرداد و تیر ۱۴۰۳) توافق شبیهی با نهاد ایمنی هوش مصنوعی بریتانیا منعقد کرد. این همکاریها در جواب به تهمت هایی انجام خواهد شد که میانها گفتند OpanAI در راستای دستیابی به فناوریهای هوش مصنوعی پرقدرت، توجهی به ایمنی مدلهای خود ندارد.
OpenAI در ماه می (اردیبهشت و خرداد ۱۴۰۳) عملاً واحد ایمنی هوش مصنوعی خود را منحل کرد. گزارشها حاکی از آن می بود که این شرکت تحقیقات تیم ایمنی خود را بهعلت راهاندازی محصولات تازه کنار گذاشته است که در نهایت تبدیل استعفای دو تن از مدیران ارشد تیم مذکور شد.
سازندهی ChatGPT در جواب به گروه روبهرشد منتقدانش خبرداد برخی از بندهای قوانین خود را که بهطور ضمنی مانع افشاگری میشد حذف و کمیسیونی برای بازدید ایمنی هوش مصنوعی تشکیل خواهد کرد. این شرکت این چنین تصمیم دارد ۲۰ درصد از توان پردازشی سرورهای خود را به تحقیقات ایمنی تعلق دهد.
بههرحال عمل های OpenAI برای افزایش دقت به ایمنی هوش مصنوعی، برای برخی از ناظران چندان امیدوارکننده نبوده است. پنج سناتور، ازجمله برایان شاتز در نامهای خطاب به آلتمن سؤالاتی را درموردی سیاستهای OpenAI نقل کردند. مدیر ارشد استراتژی این شرکت در جواب به نامهی مورد او گفت و گو نوشت OpenAI به اجرای پروتکلهای ایمنی دقیق در هر مرحله از فرایند گسترشی مدلهای هوش مصنوعی متعهد است.
دسته بندی مطالب