تکنولوژی

هنگامی هوش مصنوعی فراموش می‌کند؛ همه‌چیز درمورد فراموشی ماشین_مستطیل زرد


نوشته و ویرایش شده توسط مجله ی مستطیل زرد

در این تکنیک تفاوت بین مدل بازآموزی‌شده (بدون داده‌ی مورد نظر) و مدل اولیه به حداقل می‌رسد و توزیع نموداری نزدیکی را از هر دو آن‌ها دریافت می‌کند.

فکر کنید فردی می‌خواهد داده‌ی شخصی او از مدل پاک بشود. اگر روش حریم شخصی درست پیاده شده باشد، هنگامی آن داده را از مدل حذف کنیم، مدل هم چنان همان حرکت قبلی را مشخص می کند؛ انگار هیچ‌زمان داده‌ی مذکور را یاد نگرفته است. به‌این‌ترتیب اصولاً نیازی به «فراموشی» خاصی نیست چون خود مدل طوری طراحی شده که تاثییر آن داده خاص را به‌سختی ابراز دهد.

یکی از راه حلهای معمول اجرای DP، اضافه‌کردن نویز به داده‌ها است: هنگامی‌که می‌خواهیم مدل را آموزش دهیم، به داده‌ها مقداری نویز اضافه می‌کنیم تا تاثییر هر داده‌ی خاص را کم‌رنگ‌تر کنیم.

در مثالی ساده فکر کنید هنگامی مدل دارد چیزی را از جمله‌ای یاد می‌گیرد، چند کلمه‌ی بی‌ربط و اضافه نیز داخل جمله بشود. اگر بعدها بخواهیم آن جمله را حذف کنیم، ازآنجاکه نویز تأثیر کلی داده‌ها را افت داده، مدل تحول چندانی حس نمی‌کند.

با افزودن نویز به داده‌های آموزشی، تأثیر هر داده در خروجی افت می‌یابد

از نظر فنی در این روش ابتدا برای افت تأثیر هر داده، بزرگی گرادیان‌ها را محدود می‌کنیم. به‌این‌ترتیب مدل نمی‌تواند به‌صورت ناگهانی از یک داده‌ی خاص زیاد چیز یاد بگیرد و تأثیرپذیری مشخصی از داده‌ها خواهد داشت. سپس مقداری نویز به داده‌ها اضافه می‌کنیم تا تاثییر دقیق هر داده نهان بشود و حتی اگر داده‌ای حذف بشود، اثرش در نتیجه‌ی نهایی مدل به چشم نیاید.

معیار DP با دو عدد اپسیلون (ε) و دلتا (δ) شناخته می‌بشود. این دو عدد به ما پشتیبانی می‌کنند بفهمیم حریم خصوصی مدل چه مقدار قوی است:

  • اپسیلون مقدار تغییرات مجاز را مشخص می کند. هرچه این عدد کوچک‌تر باشد، مدل در برابر تغییرات داده‌ها حساسیت کمتری مشخص می کند و حریم خصوصی بیشتری دارد.
  • دلتا نوعی ضمانت احتمالاتی محسوب می‌بشود که گمان نقض حریم خصوصی داده را گفتن می‌کند؛ یعنی به ما می‌گوید چه مقدار امکان دارد DP نتواند کار او را درست انجام دهد. به این علت هرچه دلتا کمتر باشد، گمان این که مدل به‌خاطر یک داده‌ی خاص حرکت متغیری داشته باشد هم کمتر می‌بشود.

درمجموع کوچک‌تر بودن ε و δ یعنی مدل حریم خصوصی نیرومندتری دارد و تاثییر داده‌های خاص را به حداقل می‌رساند.

در قسمت‌های سپس توضیح می‌دهیم چرا افزایش نویز به افت کارایی مدل منتهی می‌بشود، اما فعلاً این قضیه را در نظر بگیرید که منفعت گیری از نویز همانند‌ این است که برای پیدانکردن شخصی خاص در بین جمعیت، چهره‌ی همه را با ماسک بپوشانیم. احتمالا نهایتاً مدل ما شخص مورد نظر را شناسایی نکند، ولی هم‌زمان در تشخیص دیگر داده‌ها نیز دچار مشکل می‌بشود.

فراموشی تجربی با فضای مثالی شناخته شده

در این روش، فراموشی ماشین با تشکیل تغییرات کوچک در مدل از طریق قدم‌های «افزایشی» انجام می‌بشود. تکنیک‌های تجربی زیاد تر بر پایه‌ی آزمون‌وخطا پیش می‌روال و محققان با تنظیم دقیق پارامترها تلاش می‌کنند که مدل حرکت دلخواهی در برابر داده‌های نامطلوب نشان دهد.

تسلا در سال ۲۰۲۴ فقط یک دستگاه ماشین در کره جنوبی فروخته است
ادامه مطلب

مسئله‌ی مهم این است که فقط هنگامی فضای مثالها را می‌شناسیم، می‌توانیم از این روش منفعت گیری کنیم.

تکنیک‌های تجربی قدم‌به‌قدم و با تنظیم دقیق پارامترها پیش می‌روال

به گفتن ساده چند قدم حساب شده برمی‌داریم تا حرکت مدل مهم را به‌طوری تحول دهیم که انگار از اول با داده‌های تازه آموزش‌ دیده است. مدل به‌طور محدود و با تنظیمات خاصی مجدد آموزش داده می‌بشود تا حرکت آن در جهت فراموش‌کردن برخی داده‌ها تحول کند.

برای مثال در رقابت NeurIPS سال ۲۰۲۳ مقصد این می بود که با منفعت گیری از یک الگوریتم یادگیری‌زدایی، مدلی تشکیل بشود که دیگر به داده‌های خاصی (برای مثالً عکس‌های چهره) دسترسی نداشته باشد و رفتارش با مدل مرجع که تنها با داده‌های باقی‌مانده آموزش‌ دیده است، شباهت داشته باشد.

شرکت‌کنندگان ۳ ورودی مهم دریافت می‌کردند:

  • مجموعه‌ای از تصاویر که مدل مهم با آن‌ها آموزش‌دیده می بود
  • مدل اولیه که تا این مدت فراموشی در آن اعمال نشده می بود
  • تصاویری که باید از مدل حذف می‌شد

این چنین مدل‌هایی مخفی وجود داشت که فقطً با داده‌های «نگه‌داشتنی» آموزش‌ دیده بودند. شرکت‌کننده‌ها باید الگوریتمی می‌نوشتند که ۵۱۲ مدل تازه و یادگیری‌زدایی‌شده گوناگون با عملکردی شبیه مدل‌های مخفی تشکیل می‌کرد.

در نهایت اشکار شد برندگان مسابقه از ترکیب چند روش منفعت گیری کرده‌اند:

  • روی داده‌هایی که باید فراموش می‌شدند، گرادیان صعودی اعمال کردند (انگار به مدل بگویند از این داده‌ها دور شو و آن‌ها را فراموش کن).
  • روی داده‌هایی که باید نگه داری می‌شدند، گرادیان نزولی اعمال کردند (انگار به مدل بگویند این داده‌ها را بهتر یاد بگیر و به‌خاطر بسپار).
  • به داده‌های فراموش‌شدنی برچسب‌های اتفاقی دادند تا مدل مقداری گیج بشود و نتواند آن‌ها را دقیق به یاد بیاورد.
  • به حافظه‌ی مدل نویز اضافه کردند تا آن را مقداری فراموش‌کارتر کنند.
  • برخی از وزن‌ها را از نو مقداردهی کردند و برخی وزن‌ها را حذف کردند.
  • لایه‌های اول و آخر مدل را مجدداً از نو راه‌اندازی کردند و با عکس‌های نگه داری‌شدنی آموزش دادند.

علت محبوبیت راه حلهای تجربی، این است که ساده‌تر و سریع تر اجرا خواهد شد و درعین‌حال تأثیر خوبی روی مدل دارند. به‌علاوه نتایج کار هم به‌راحتی دیده می‌بشود. برعکس در راه حلهای نظری که از محاسبات پیچیده منفعت گیری می‌کنند، در عمل کُند و سخت اجرا خواهد شد و به منبع های بسیاری نیز نیاز دارند.

اما یکی از چالش‌های مهم روش تجربی این است که نمی‌دانیم در حالت ایدئال، یک مدل سپس از فراموش‌کردن چه رفتاری با داده‌های تازه از خود مشخص می کند؛ برای مثالً آیا باید تصاویری را که حذف شده‌اند، به‌صورت اتفاقی و بدون مطمعن دسته‌بندی کند یا خیر.

این عدم قطعیت در حرکت مدل به علت وجود شرایط و سناریوهای گوناگون می‌تواند به تفاوت‌هایی در خروجی مدل منجر بشود و پیش‌بینی دقیق اثرات آن را دشوار کند. در نتیجه اثبات کارایی مدل تازه و شباهت آن به مدل مهم زیر سوال می‌رود، چرا که مدل بعد از حذف داده‌ها می‌تواند نتایج و خروجی‌های متنوعی تشکیل کند.

گوگل برای نگه داری ضمانت محیط‌زیستی‌اش، بخشی از سهام تولیدکننده تایوانی پنل‌های خورشیدی را خرید_مستطیل زرد
ادامه مطلب

فراموشی تجربی با فضای مثالی ناشناخته

وقتی که داده‌هایی که باید فراموش شوند به‌صورت دقیق اشکار نیستند و تنها به شکل مفاهیم یا دانشی کلی در مدل وجود دارند، از این روش تجربی منفعت گیری می‌بشود.

برای مثال فکر کنید می‌خواهیم یک مدل مفهوم «بایدن رئیس‌جمهور آمریکا است» را فراموش کند. اما مفهوم واقعی این جمله در قالب‌های مختلفی در داده‌ها حاضر است، همانند مقاله‌ها، گفتگوهای عمومی، ویدیوها، پست‌های وبلاگ یا متن‌های خبری. به این علت تنها با حذف چند مثالی خاص به مقصد نمی‌رسیم.

طبق معمولً اصطلاحاتی همانند «ویرایش مدل»، «ویرایش مفهوم»، «جراحی مدل» و «یادگیری‌زدایی دانش» به این تکنیک فراموشی ماشین اشاره دارند.

اما هنگامی خواست فراموش‌کردن تا این حد نامشخص است، باید روی موضوعاتی همانند دامنه‌ی ویرایش و چگونگی روابط اطلاعات تمرکز کنیم.

برخی اطلاعات در مجموعه‌داده‌های آموزشی به شکل‌های مختلفی و با پیامدهای متغیری ظاهر می‌بشود

بعضی اوقات اوقات چند مثال دریافت می‌کنیم که با دقت‌ به آن‌ها می‌فهمیم چه چیزی از مدل باید یادگیری‌زدایی بشود. اما این اطلاعات در مجموعه‌داده‌های آموزشی به شکل‌های مختلفی و با پیامدهای متغیری ظاهر می‌بشود. بعد حتی اگر بتوانیم دقیقاً همان مثال‌ها را پاک کنیم، کافی نیست.

فضای مثالی ناشناخته در فرم‌های زیر بهتر حس می‌بشود:

  • حذف اطلاعات پراکنده درمورد‌ی یک شخص یا اتفاقات، همانند فراموش‌کردن یک سیاستمدار یا سلبریتی
  • حذف سبک هنری: یک هنرمند می‌خواهد سبک خاص خودش از مدل هوش مصنوعی پاک بشود تا دیگر مدل نتواند نقاشی‌های شبیهی به سبک او تشکیل کند. اما این کار دشوار است، چون نمی‌توان همه آثار هنری حاضر در اینترنت را که با این سبک هنری خلق شده‌اند به مدل نشان داد تا همه را حذف کند.
  • حذف مقالات یک منبع خبری: اگر نیویورک‌تایمز خواست دهد مقالاتش را از مدل پاک کنند، این سوال نقل می‌بشود که چطور می‌توان همه نقل‌قول‌ها، تفسیرها، نسخه‌های فرعی و اشاراتی را که به مقالات شده، جمع‌آوری کرد. این چنین چطور باید به مدل نشان دهیم که کدام موارد باید حذف شوند.

در این اوقات ازآنجاکه نمی‌توانیم همه‌ی داده‌های مربوط به یک مفهوم خاص را دقیقاً اشکار کنیم، فرایند یادگیری‌زدایی به‌صورت «تجربی» انجام می‌بشود. یعنی از راهکارهایی منفعت گیری می‌بشود که مدل به طور تقریبی حرکت خود را تحول دهد، بدون این که تضمینی وجود داشته باشد که همه اطلاعات موردنظر پاک شده باشند.

مسئله‌ای که احتمالا برایتان دلنشین باشد: هنگامی به‌صورت تجربی اطلاعاتی را از مدل پاک می‌کنیم، خود این یادگیری‌زدایی هم می‌تواند یادگیری‌زدایی بشود.

در عمل فراموشی تجربی با منفعت گیری از تغییرات کوچک و مداوم در مدل انجام می‌بشود:

  • یافتن مثالهای شبیه: گر نتوانیم همه‌ی داده‌ها را اشکار کنیم، مدل را با مثالهای شبیه و غیریکسانی مجدد آموزش می‌دهیم تا به‌مرور زمان مفهوم موردنظر فراموش بشود.
  • تشکیل جانشین‌ها: برای مثال به مدل می‌گوییم به‌جای این که «هری پاتر» را به‌گفتن یک جادوگر در نظر بگیرد، متن‌های شبیهی بسازد که در آن «هری پاتر» به کار فرد دیگر مشغول باشد، برای مثالً آشپزی.
  • جهت‌دهی حرکت مدل: در این روش با تحول و تنظیم وزن‌ داده‌ها و دیگر پارامترهای مدل، به او آموزش می‌دهیم که به شکلی متفاوت حرکت کند، یعنی از اراعه اطلاعاتی که باید فراموش بشود، اجتناب کند.
  • محدودکردن ارتباطات بین داده‌ها: به این معنی که مدل طوری تنظیم می‌بشود که بین داده‌هایی که می‌خواهیم فراموش شوند و دیگر داده‌ها، ربط بسیاری برقرار نشود.
مدل‌های سفارشی کارت گرافیک تازه RTX 4070 GDDR6 معارفه شدند_مستطیل زرد
ادامه مطلب

خواست مستقیم از مدل برای فراموشی

تحقیقات مشخص می کند که مدل‌های زبانی بزرگ قوی و دستورپذیر همانند GPT-4، به‌قدر کافی هوشمند می باشند که بتوانند فراموشی را «تظاهر کنند». به‌عبارتی می‌توان مطلب‌هایی طراحی کرد که حرکت مدل را درخصوص فراموشی اطلاعات موردنظر، به حد کافی ایمن کند.

نوشته دلنشین درمورد این روش این است که اصولاً از گرادیان یا جهت‌دهی دقت مدل منفعت گیری نمی‌کند و درعین‌حال نتایج مساعد تشکیل می‌کند. تا به امروز کارشناسان از ۳ راهکار خروجی نسبتاً خوبی دریافت کرده‌اند:

۱) خواست صریح از مدل برای تظاهرکردن: می‌توانیم در مطلب سیستمی از مدل بخواهیم که وانمود کند هری پاتر را نمی‌شناسد. این روش برای اطلاعات عمومی و رایجی که در داده‌های آموزشی به‌خوبی گنجانده شده، بهتر جواب می‌دهد. چون مدل باید به‌خوبی از اطلاعات وابسته مطلع باشد تا بتواند فراموشی آن‌ها را تظاهر کند.

خواست مستقیم از مدل برای تظاهر به فراموشی در خصوص اطلاعات عمومی بهتر جواب می‌دهد

اما اگر بخواهیم مدل چیزی همانند آدرس فرد ناشناسی را فراموش کند (که احتمالا در داده‌های آموزشی وجود داشته) قضیه پیچیده‌تر می‌بشود. درواقع این کار به تاثییر «استرایسند» شباهت دارد که اگر بیش‌ازحد روی فراموشی چیزی تمرکز کنیم، امکان پذیر ناخواسته آن را آشکار کنیم.

۲) روش نمونه محور: در این حالت با اراعه‌ی مثال‌هایی خاص به مدل، از او می‌خواهیم اطلاعات نادرست را به‌گفتن حقیقت بپذیرد. برای مثالً اگر می‌خواهیم مدل این حقیقت را که «پاریس پایتخت فرانسه است» فراموش کند، در ورودی مدل با چندین مثال این جمله را با اطلاعاتی نادرست داخل می‌کنیم.

این رویکرد وقتی کارآمدتر است که داده‌های فراموشی، دقیق و محدود باشند. اما در شرایطی که با فرایندهای پیچیده‌تری همانند «حذف رفتارهای سمی و ناخواسته» سروکار داریم، به گمان زیادً جواب مساعد دریافت نمی‌کنیم، چون تعداد خروجی‌های احتمالی زیاد زیاد می باشند.

۳) سیستم چندمدلی: در این سیستم تنها یک رابط برای ورودی و خروجی مدل کلی فراهم می‌بشود و مدل‌های مختلفی نیز برای همانند‌سازی قسمت‌های گوناگون به‌کار می‌روال: برای مثالً یک مدل به سؤالات کلی جواب می‌دهد، مدل فرد دیگر نقش تکمیل جملات را به مسئولیت می‌گیرد و نظیر آن.

این چنین مدل هماهنگ‌کننده، تعیین می‌کند که کدام مدل در جواب‌دهی به سوال کاربر مورد منفعت گیری قرار بگیرد. نهایتاً یک مدل جمع‌بندی کننده خروجی نهایی را بر پایه حرکت فراموشی موردنظر تدوین و حتی فیلترهایی را نیز روی آن اعمال می‌کند.

انتقادی که به همه این راه حلها داخل می‌بشود، این است که مدرک یا تضمینی برای فراموشی به ما نمی‌دهند. در روبه رو، برخی کارشناسان استدلال می‌کنند که خود انسان‌ها هم واقعاً چیزی را فراموش نمی‌کنند، بلکه عموماً تصمیم می‌گیرند از دانسته‌های قبلی خود در موقعیت‌های خاص منفعت گیری نکنند. بعد احتمالا به‌جای این که از هوش مصنوعی انتظار داشته باشیم چیزی را کاملاً فراموش کند، باید به آن یاد بدهیم چه وقتی، چطور دانش خود را به کار بگیرد.

چالش‌ها و محدودیت‌های فراموشی ماشین

نیاز به انواع منبع های گران‌بها

یادگیری‌زدایی ماشین با حذف داده‌های خاص به‌اختصاصی در مدل‌های بزرگ و پیچیده، بدون پردازش‌های سنگین و چندباره مقدور نیست و هزینه‌های محاسباتی و وقتی بالایی را به همراه دارد. در مدل‌های هوش مصنوعی GPT-4o و Bert که با میلیاردها پارامتر آموزش دیده‌اند، فرایند حذف برخی داده‌ها به اندازه‌ی آموزش مجدد کل مدل، زمان و تلاش خواهد برد.

ستاره‌شناسان معمای ۳۰ ساله کوتوله قهوه‌ای شگفت را سرانجام حل کردند_مستطیل زرد
ادامه مطلب

به‌علاوه نیاز به منبع های پردازشی زیاد قوی همانند مجموعه‌ی جی‌پی‌یوها و پردازنده‌های تنسور، به‌گمان زیاد شرکت‌های کوچک‌تر را از پیاده‌سازی تکنیک‌های فراموشی منصرف می‌کند.

قطعی نبودن حذف کامل داده‌ها

در مدل‌های یادگیری عمیق، داده‌های آموزشی به‌صورت پیچیده‌ای در وزن‌ها و پارامترهای مدل گنجانده خواهد شد. حتی اگر بخشی از داده‌ها حذف شوند، امکان پذیر اثری از آن‌ها به شکل غیرمستقیم هم چنان در مدل باقی بماند.

به‌گفتن‌ مثال، یک مدل زبانی که با داده‌های جانب‌دارانه آموزش‌دیده، حتی بعد از حذف این داده‌ها امکان پذیر برخی الگوهای سوگیرانه را هم چنان نگه داری کند.

از طرف دیگر راه حلهای تقریبی تضمینی برای حذف کامل داده‌ها اراعه نمی‌دهند. در شرایطی که رگولاتورها فراموشی را امری «حیاتی» بدانند، این مشکل محدودیتی جدی محسوب می‌بشود و اعتبار مدل را زیر سوال می‌برد.

تأثیر منفی بر کارکرد مدل

با اهمیت ترین چالشی که در حوزه‌ی یادگیری‌زدایی از مدل‌ها به چشم می‌خورد، این است که غالباً حذف داده‌ها به افت دقت و کارایی مدل منجر می‌بشود.

تحقیقات مشخص می کند که در برخی موارد، حذف داده‌های خاص می‌تواند مدل را حتی در انجام ماموریت های ساده خود نیز ناتوان کند. به‌گفتن‌ مثال در یک مدل شناسایی عکس، حذف تصاویر خاصی از افراد می‌تواند علتکاهش دقت کلی مدل در شناسایی آن دسته از تصاویر بشود.

هرچه تنوع و گستردگی اطلاعات ورودی زیاد تر باشد، گمان این که سپس از حذف برخی داده‌ها اعتدال مدل از بین برود هم زیاد تر می‌بشود.

زیاد تر راه حلهای جاری فراموشی ماشین کیفیت کارکرد مدل‌ها را پایین می‌آورند

این چنین در برخی از تکنیک‌های فراموشی ماشین، اضافه‌کردن نویز به داده‌ها یا گرادیان‌ها علتمی‌بشود حساسیت مدل به داده‌های خاص افت یابد، اما روی دقت کلی مدل نیز تاثییر منفی خواهد داشت.

محققان به‌جستوجو یافتن راه‌حلی برای برقراری اعتدال بین «حذف یا تحول داده‌ها» و «صحت و دقت پاسخگویی» مدل‌ها می باشند، چون در حوزه‌هایی همانند تشخیص پزشکی یا تحلیل داده‌های حیاتی، خروجی‌هایی که تحت نویز به دست می‌آیند، پیامدهای غیرقابل‌ بازگشتی به جستوجو دارند.

نبوده است ابزارهای برسی دقیق مقدار فراموشی

برسی مقدار پیروزی راه حلهای آن‌لرنینگ و بازدید این که آیا مدل واقعاً داده‌های خاصی را فراموش کرده یا خیر، به علت پیچیدگی‌های ساختاری و وابستگی‌های داخلی مدل‌ها، زیاد دشوار است.

ابزارهای برسی جاری عمدتاً مقدار دقت و کارکرد کلی مدل بعد از حذف داده‌ها را می‌سنجند، ولی توانایی تشخیص ردپاهای کوچک و غیرمستقیم داده‌ها در مدل را ندارند. به همین‌ علت محققان گسترش‌ی معیارهای جدیدی که به‌طور دقیق وابستگی مدل‌های تغییریافته به داده‌های حذف شده را برسی کند، الزامی می‌دانند.

هنر فراموشی: مطالعات دنیای واقعی

مطالعات تازه محققان دانشگاه واشنگتن، پرینستون، شیکاگو، USC و شرکت گوگل مشخص می کند محبوب‌ترین تکنیک‌های فراموشی امروزی، هریک به‌نوعی قوت مدل‌ها را افت خواهند داد؛ تا جایی که بعضی اوقات سپس از اعمال تغییرات، مدل‌ها دیگر قابل‌ منفعت گیری نیستند.

ویجیا شی، یکی از محققان حوزه‌ی آن‌لرنینگ و دانشجوی دکترای علوم کامپیوتر دانشگاه واشنگتن، می‌گوید:

برسی ما مشخص می کند که راه حلهای یادگیری‌زدایی جاری تا این مدت برای منفعت گیری‌ی معنادار یا پیاده‌سازی در سناریوهای دنیای واقعی آماده نیستند. اکنون هیچ روش کارآمدی وجود ندارد که به یک مدل اجازه دهد داده‌های خاصی را فراموش کند، بدون این که کارایی آن به‌نحوه چشمگیری افت یابد.

وزیر ارتباطات: حکمرانی قانونمند در فضای مجازی را به جد جستوجو می‌کنیم_مستطیل زرد
ادامه مطلب

فراموشی ماشین به‌سادگی با سختی دکمه‌ی «حذف» انجام نمی‌بشود

شی و همکارانش برای بازدید اثربخشی این الگوریتم‌های فراموشی معیار سنجشی را طراحی و هشت الگوریتم متن‌باز گوناگون را برای آزمایش انتخاب کردند.

مقصد این معیار که MUSE (برسی شش‌گانه‌ی یادگیری‌زدایی ماشین) نام دارد، این می بود که توانایی مدل را با دو معیار مهم بسنجد: وجودنداشتن داده‌های حذف شده در جواب‌ها و این چنین فراموشی دانش کلی در رابطه یک نوشته، یا هرگونه شواهدی که نشان دهد مدل در اصل با این داده‌ها آموزش‌ دیده است.

دریافت امتیاز خوب در این تحقیقات، الزام این می بود که مدل دو چیز را فراموش کند: مجموعه کتاب‌های هری پاتر و مقالات خبری.

برای مثال به این جمله از کتاب هری‌پاتر و تالار اسرار دقت کنید: «خاله پتونیا درحالی‌که به پسرش نگاه می‌کرد، او گفت در ماهیتابه غذای بیشتری وجود دارد.» محققان برای فهمیدن پیروزی الگوریتم‌ها، مدل تازه را به چندین شیوه محک زدند:

  • اگر مدل بتواند جمله‌ی ناقص «خاله… او گفت توی ماهیتابه غذای بیشتری است…» را کامل کند، یعنی تا این مدت داده‌های مورد نظر را به‌خاطر می‌آورد.
  • اگر مدل به سؤالاتی که درمورد‌ی این صحنه می‌بشود، همانند «خاله پتونیا به پسرش چه او گفت؟» جواب دهد، اشکار می‌بشود که با داده‌های کتاب آموزش‌ دیده است.
  • آیا مدل اطلاعات عمومی حول داده‌های مورد نظر را به‌خاطر می‌آورد و برای مثالً می‌داند جی. کی رولینگ چه نسبتی با کتاب‌های هری پاتر دارد؟
  • جواب درست به سوال آخر، کارایی کلی مدل را مشخص می کند. هرچه کارایی پایین‌تر باشد، مدل دانش کلی بیشتری را از دست می‌دهد و کیفیت پاسخگویی آن به دیگر سؤالات و خواست‌ها هم پایین‌تر می‌آید.

نتایج تحقیقات نشان می‌داد الگوریتم‌های آن‌لرنینگ واقعاً علتخواهد شد مدل‌ها اطلاعات خاصی را فراموش کنند، اما درعین‌حال به قابلیت‌های پاسخگویی به سؤالات عمومی نیز صدمه می‌زنند. شی توضیح می‌دهد:

طراحی راه حلهای فراموشی ماشین می‌تواند چالش‌برانگیز باشد، چون اطلاعات و دانش حوالی موضوعات، به‌نحوه پیچیده‌ای درون مدل درهم‌تنیده شده‌اند. برای مثالً یک مدل به گمان زیادً هم با محتوای دارای حق نشر «کتاب‌های رسمی هری پاتر» و هم با محتوای آزاد «ویکی هری پاتر» آموزش‌دیده و هنگامی راه حلهای آن‌لرنینگ حاضر تلاش می‌کنند داده‌های کتاب‌های دارای کپی‌رایت هری پاتر را حذف کنند، روی اطلاعات مدل درمورد ویکی هری پاتر نیز تأثیر قابل‌ توجهی می‌گذارند.

با گسترش مدل‌های یادگیری عمیق و منفعت گیری‌ی روزافزون از داده‌های حساس و دارای کپی‌رایت، نیاز به راه حلهایی برای حذف یا تعدیل این اطلاعات بیش‌ازپیش حس می‌بشود. اگرچه راهکارهای جاری آن‌لرنینگ تا این مدت به بلوغ کامل نرسیده‌اند و با چالش‌های فنی و قانونی بسیاری مواجه می باشند، اما کوششهای مداومی برای بهبود و گسترش‌ی این حوزه در جریان است.

همان گونه که فناوری‌های یادگیری ماشینی به تکامل خود ادامه خواهند داد، می‌توان انتظار داشت که راه حلهای تازه و گسترش یافتهتری برای مدیریت اطلاعات و فراموشی داده‌ها طراحی شوند.

دسته بندی مطالب

مقالات کسب وکار

مقالات تکنولوژی

مقالات آموزشی

سلامت و تندرستی

نوشته های مشابه

دکمه بازگشت به بالا