«مارک زاکربرگ» شورای تازه هوش مصنوعی متا را تشکیل کرد_مستطیل زرد

نوشته و ویرایش شده توسط مجله ی مستطیل زرد
«مارک زاکربرگ»، مدیرعامل متا، شورای مشاوره محصول جدیدی به وجود اورده است. اعضای این شورا بهصورت دورهای با تیم مدیریت متا جلسه خواهند داشت تا در رابطه پیشرفتهای هوش مصنوعی و دیگر فناوریهای غول فناوری، همانند متاورس به آنها مشاوره بدهند.
بر پایه گزارش بلومبرگ، این شورا که نام آن گروه مشاوره متا (The Meta Advisory Group) انتخاب شده است، از چهار مدیرعامل راه اندازی خواهد شد: «پاتریک کولیسون»، مدیرعامل و همبنیانگذار Stripe، «نَت فریدمن»، مدیرعامل اسبق GitHub، «توبی لوتکه»، مدیرعامل Shopify و «چارلی سونگورست»، اندوختهگذار و مدیرسابق مایکروسافت.
زاکربرگ در یک یادداشت داخلی برای کارمندان متا نوشت:
«عمیقاً به این گروه از افراد و دستاوردهای آنها در حوزههای وابسته احترام میگذارم و سپاسگزارم که آنها مایل می باشند دیدگاههای خود را در این چنین زمان مهمی که زمانهای جدیدی را با هوش مصنوعی و متاورس به دست میآوریم، با متا در بین بگذارند.»
متا اکنون یک هیئت مدیره ۱۱ نفره دارد، هرچند «شریل سندبرگ»، برای انتخاب مجدد در نشست سالانه متا در آخر ماه نامزد نخواهد شد. به حرف های سخنگوی شرکت، گروه مشاوره متا با هیئت مدیره آن تفاوت دارد، چون اعضای آن توسط سهامداران انتخاب نمیشوند و آنها در روبه رو شرکت ماموریت امانتداری ندارند.
این گروه در حالی راه اندازی شده که متا بهجستوجو تمرکز روی محصولات مبتنی بر هوش مصنوعی است. غول فناوری تا بحال دستگاههای سختافزاری مختلفی همانند هدستهای حقیقت مجازی Quest و عینکهای هوشمند Ray-Ban را اراعه کرده است. این چنین محصولات نرمافزاری همانند دستیار هوش مصنوعی متا را از طریق چندین برنامه در دسترس مصرفکنندگان خود قرار داده است.
انتقاد از تصمیم مارک زاکربرگ در راه اندازی گروه مشاوره متا

در نهایت، میتوان به گزارش انتقادی تک کرانچ از راه اندازی گروه مشاوره متا نیز اشاره کرد که در آن حرف های شده مارک زاکربرگ در این گروه از چهار مرد سفید پوست پشتیبانی گرفته است! در واقع این گزارش میگوید که گروه مشاورهای تازه متا (صرفنظر از اندازه نسبتاً کوچکتر آن) از نظر جنسیت و نمایندگی نژادی، با هیئت مدیره و هیئت نظارت آن متفاوت است. در ادامه آن ادعاشده که زنها و افراد رنگینپوست زیاد تر با جنبههای تاریک و خطرناک هوش مصنوعی روبه رو خواهد شد.
«سارا مایرز وست»، مدیر عامل موسسه غیر انتفاعی AI Now که پیامدهای اجتماعی هوش مصنوعی را مطالعه میکند، به TechCrunch میگوید:
«این فناوری مستعد اشتباه است، و ما با انجام تحقیقات جدا گانه میدانیم که این خطاها بهطور مساوی توزیع نمیشوند، آنها به طور نامتناسبی به جوامعی صدمه میرسانند که چندین دفعه بار تبعیض را تحمل کردهاند.»
دسته بندی مطالب