هنگامی هوش مصنوعی فراموش میکند؛ همهچیز درمورد فراموشی ماشین_مستطیل زرد

نوشته و ویرایش شده توسط مجله ی مستطیل زرد
در این تکنیک تفاوت بین مدل بازآموزیشده (بدون دادهی مورد نظر) و مدل اولیه به حداقل میرسد و توزیع نموداری نزدیکی را از هر دو آنها دریافت میکند.
فکر کنید فردی میخواهد دادهی شخصی او از مدل پاک بشود. اگر روش حریم شخصی درست پیاده شده باشد، هنگامی آن داده را از مدل حذف کنیم، مدل هم چنان همان حرکت قبلی را مشخص می کند؛ انگار هیچزمان دادهی مذکور را یاد نگرفته است. بهاینترتیب اصولاً نیازی به «فراموشی» خاصی نیست چون خود مدل طوری طراحی شده که تاثییر آن داده خاص را بهسختی ابراز دهد.
یکی از راه حلهای معمول اجرای DP، اضافهکردن نویز به دادهها است: هنگامیکه میخواهیم مدل را آموزش دهیم، به دادهها مقداری نویز اضافه میکنیم تا تاثییر هر دادهی خاص را کمرنگتر کنیم.
در مثالی ساده فکر کنید هنگامی مدل دارد چیزی را از جملهای یاد میگیرد، چند کلمهی بیربط و اضافه نیز داخل جمله بشود. اگر بعدها بخواهیم آن جمله را حذف کنیم، ازآنجاکه نویز تأثیر کلی دادهها را افت داده، مدل تحول چندانی حس نمیکند.
با افزودن نویز به دادههای آموزشی، تأثیر هر داده در خروجی افت مییابد
از نظر فنی در این روش ابتدا برای افت تأثیر هر داده، بزرگی گرادیانها را محدود میکنیم. بهاینترتیب مدل نمیتواند بهصورت ناگهانی از یک دادهی خاص زیاد چیز یاد بگیرد و تأثیرپذیری مشخصی از دادهها خواهد داشت. سپس مقداری نویز به دادهها اضافه میکنیم تا تاثییر دقیق هر داده نهان بشود و حتی اگر دادهای حذف بشود، اثرش در نتیجهی نهایی مدل به چشم نیاید.
معیار DP با دو عدد اپسیلون (ε) و دلتا (δ) شناخته میبشود. این دو عدد به ما پشتیبانی میکنند بفهمیم حریم خصوصی مدل چه مقدار قوی است:
- اپسیلون مقدار تغییرات مجاز را مشخص می کند. هرچه این عدد کوچکتر باشد، مدل در برابر تغییرات دادهها حساسیت کمتری مشخص می کند و حریم خصوصی بیشتری دارد.
- دلتا نوعی ضمانت احتمالاتی محسوب میبشود که گمان نقض حریم خصوصی داده را گفتن میکند؛ یعنی به ما میگوید چه مقدار امکان دارد DP نتواند کار او را درست انجام دهد. به این علت هرچه دلتا کمتر باشد، گمان این که مدل بهخاطر یک دادهی خاص حرکت متغیری داشته باشد هم کمتر میبشود.
درمجموع کوچکتر بودن ε و δ یعنی مدل حریم خصوصی نیرومندتری دارد و تاثییر دادههای خاص را به حداقل میرساند.
در قسمتهای سپس توضیح میدهیم چرا افزایش نویز به افت کارایی مدل منتهی میبشود، اما فعلاً این قضیه را در نظر بگیرید که منفعت گیری از نویز همانند این است که برای پیدانکردن شخصی خاص در بین جمعیت، چهرهی همه را با ماسک بپوشانیم. احتمالا نهایتاً مدل ما شخص مورد نظر را شناسایی نکند، ولی همزمان در تشخیص دیگر دادهها نیز دچار مشکل میبشود.
فراموشی تجربی با فضای مثالی شناخته شده
در این روش، فراموشی ماشین با تشکیل تغییرات کوچک در مدل از طریق قدمهای «افزایشی» انجام میبشود. تکنیکهای تجربی زیاد تر بر پایهی آزمونوخطا پیش میروال و محققان با تنظیم دقیق پارامترها تلاش میکنند که مدل حرکت دلخواهی در برابر دادههای نامطلوب نشان دهد.
مسئلهی مهم این است که فقط هنگامی فضای مثالها را میشناسیم، میتوانیم از این روش منفعت گیری کنیم.
تکنیکهای تجربی قدمبهقدم و با تنظیم دقیق پارامترها پیش میروال
به گفتن ساده چند قدم حساب شده برمیداریم تا حرکت مدل مهم را بهطوری تحول دهیم که انگار از اول با دادههای تازه آموزش دیده است. مدل بهطور محدود و با تنظیمات خاصی مجدد آموزش داده میبشود تا حرکت آن در جهت فراموشکردن برخی دادهها تحول کند.
برای مثال در رقابت NeurIPS سال ۲۰۲۳ مقصد این می بود که با منفعت گیری از یک الگوریتم یادگیریزدایی، مدلی تشکیل بشود که دیگر به دادههای خاصی (برای مثالً عکسهای چهره) دسترسی نداشته باشد و رفتارش با مدل مرجع که تنها با دادههای باقیمانده آموزش دیده است، شباهت داشته باشد.
شرکتکنندگان ۳ ورودی مهم دریافت میکردند:
- مجموعهای از تصاویر که مدل مهم با آنها آموزشدیده می بود
- مدل اولیه که تا این مدت فراموشی در آن اعمال نشده می بود
- تصاویری که باید از مدل حذف میشد
این چنین مدلهایی مخفی وجود داشت که فقطً با دادههای «نگهداشتنی» آموزش دیده بودند. شرکتکنندهها باید الگوریتمی مینوشتند که ۵۱۲ مدل تازه و یادگیریزداییشده گوناگون با عملکردی شبیه مدلهای مخفی تشکیل میکرد.
در نهایت اشکار شد برندگان مسابقه از ترکیب چند روش منفعت گیری کردهاند:
- روی دادههایی که باید فراموش میشدند، گرادیان صعودی اعمال کردند (انگار به مدل بگویند از این دادهها دور شو و آنها را فراموش کن).
- روی دادههایی که باید نگه داری میشدند، گرادیان نزولی اعمال کردند (انگار به مدل بگویند این دادهها را بهتر یاد بگیر و بهخاطر بسپار).
- به دادههای فراموششدنی برچسبهای اتفاقی دادند تا مدل مقداری گیج بشود و نتواند آنها را دقیق به یاد بیاورد.
- به حافظهی مدل نویز اضافه کردند تا آن را مقداری فراموشکارتر کنند.
- برخی از وزنها را از نو مقداردهی کردند و برخی وزنها را حذف کردند.
- لایههای اول و آخر مدل را مجدداً از نو راهاندازی کردند و با عکسهای نگه داریشدنی آموزش دادند.
علت محبوبیت راه حلهای تجربی، این است که سادهتر و سریع تر اجرا خواهد شد و درعینحال تأثیر خوبی روی مدل دارند. بهعلاوه نتایج کار هم بهراحتی دیده میبشود. برعکس در راه حلهای نظری که از محاسبات پیچیده منفعت گیری میکنند، در عمل کُند و سخت اجرا خواهد شد و به منبع های بسیاری نیز نیاز دارند.
اما یکی از چالشهای مهم روش تجربی این است که نمیدانیم در حالت ایدئال، یک مدل سپس از فراموشکردن چه رفتاری با دادههای تازه از خود مشخص می کند؛ برای مثالً آیا باید تصاویری را که حذف شدهاند، بهصورت اتفاقی و بدون مطمعن دستهبندی کند یا خیر.
این عدم قطعیت در حرکت مدل به علت وجود شرایط و سناریوهای گوناگون میتواند به تفاوتهایی در خروجی مدل منجر بشود و پیشبینی دقیق اثرات آن را دشوار کند. در نتیجه اثبات کارایی مدل تازه و شباهت آن به مدل مهم زیر سوال میرود، چرا که مدل بعد از حذف دادهها میتواند نتایج و خروجیهای متنوعی تشکیل کند.
فراموشی تجربی با فضای مثالی ناشناخته
وقتی که دادههایی که باید فراموش شوند بهصورت دقیق اشکار نیستند و تنها به شکل مفاهیم یا دانشی کلی در مدل وجود دارند، از این روش تجربی منفعت گیری میبشود.
برای مثال فکر کنید میخواهیم یک مدل مفهوم «بایدن رئیسجمهور آمریکا است» را فراموش کند. اما مفهوم واقعی این جمله در قالبهای مختلفی در دادهها حاضر است، همانند مقالهها، گفتگوهای عمومی، ویدیوها، پستهای وبلاگ یا متنهای خبری. به این علت تنها با حذف چند مثالی خاص به مقصد نمیرسیم.
طبق معمولً اصطلاحاتی همانند «ویرایش مدل»، «ویرایش مفهوم»، «جراحی مدل» و «یادگیریزدایی دانش» به این تکنیک فراموشی ماشین اشاره دارند.
اما هنگامی خواست فراموشکردن تا این حد نامشخص است، باید روی موضوعاتی همانند دامنهی ویرایش و چگونگی روابط اطلاعات تمرکز کنیم.
برخی اطلاعات در مجموعهدادههای آموزشی به شکلهای مختلفی و با پیامدهای متغیری ظاهر میبشود
بعضی اوقات اوقات چند مثال دریافت میکنیم که با دقت به آنها میفهمیم چه چیزی از مدل باید یادگیریزدایی بشود. اما این اطلاعات در مجموعهدادههای آموزشی به شکلهای مختلفی و با پیامدهای متغیری ظاهر میبشود. بعد حتی اگر بتوانیم دقیقاً همان مثالها را پاک کنیم، کافی نیست.
فضای مثالی ناشناخته در فرمهای زیر بهتر حس میبشود:
- حذف اطلاعات پراکنده درموردی یک شخص یا اتفاقات، همانند فراموشکردن یک سیاستمدار یا سلبریتی
- حذف سبک هنری: یک هنرمند میخواهد سبک خاص خودش از مدل هوش مصنوعی پاک بشود تا دیگر مدل نتواند نقاشیهای شبیهی به سبک او تشکیل کند. اما این کار دشوار است، چون نمیتوان همه آثار هنری حاضر در اینترنت را که با این سبک هنری خلق شدهاند به مدل نشان داد تا همه را حذف کند.
- حذف مقالات یک منبع خبری: اگر نیویورکتایمز خواست دهد مقالاتش را از مدل پاک کنند، این سوال نقل میبشود که چطور میتوان همه نقلقولها، تفسیرها، نسخههای فرعی و اشاراتی را که به مقالات شده، جمعآوری کرد. این چنین چطور باید به مدل نشان دهیم که کدام موارد باید حذف شوند.
در این اوقات ازآنجاکه نمیتوانیم همهی دادههای مربوط به یک مفهوم خاص را دقیقاً اشکار کنیم، فرایند یادگیریزدایی بهصورت «تجربی» انجام میبشود. یعنی از راهکارهایی منفعت گیری میبشود که مدل به طور تقریبی حرکت خود را تحول دهد، بدون این که تضمینی وجود داشته باشد که همه اطلاعات موردنظر پاک شده باشند.
مسئلهای که احتمالا برایتان دلنشین باشد: هنگامی بهصورت تجربی اطلاعاتی را از مدل پاک میکنیم، خود این یادگیریزدایی هم میتواند یادگیریزدایی بشود.
در عمل فراموشی تجربی با منفعت گیری از تغییرات کوچک و مداوم در مدل انجام میبشود:
- یافتن مثالهای شبیه: گر نتوانیم همهی دادهها را اشکار کنیم، مدل را با مثالهای شبیه و غیریکسانی مجدد آموزش میدهیم تا بهمرور زمان مفهوم موردنظر فراموش بشود.
- تشکیل جانشینها: برای مثال به مدل میگوییم بهجای این که «هری پاتر» را بهگفتن یک جادوگر در نظر بگیرد، متنهای شبیهی بسازد که در آن «هری پاتر» به کار فرد دیگر مشغول باشد، برای مثالً آشپزی.
- جهتدهی حرکت مدل: در این روش با تحول و تنظیم وزن دادهها و دیگر پارامترهای مدل، به او آموزش میدهیم که به شکلی متفاوت حرکت کند، یعنی از اراعه اطلاعاتی که باید فراموش بشود، اجتناب کند.
- محدودکردن ارتباطات بین دادهها: به این معنی که مدل طوری تنظیم میبشود که بین دادههایی که میخواهیم فراموش شوند و دیگر دادهها، ربط بسیاری برقرار نشود.
خواست مستقیم از مدل برای فراموشی
تحقیقات مشخص می کند که مدلهای زبانی بزرگ قوی و دستورپذیر همانند GPT-4، بهقدر کافی هوشمند می باشند که بتوانند فراموشی را «تظاهر کنند». بهعبارتی میتوان مطلبهایی طراحی کرد که حرکت مدل را درخصوص فراموشی اطلاعات موردنظر، به حد کافی ایمن کند.
نوشته دلنشین درمورد این روش این است که اصولاً از گرادیان یا جهتدهی دقت مدل منفعت گیری نمیکند و درعینحال نتایج مساعد تشکیل میکند. تا به امروز کارشناسان از ۳ راهکار خروجی نسبتاً خوبی دریافت کردهاند:
۱) خواست صریح از مدل برای تظاهرکردن: میتوانیم در مطلب سیستمی از مدل بخواهیم که وانمود کند هری پاتر را نمیشناسد. این روش برای اطلاعات عمومی و رایجی که در دادههای آموزشی بهخوبی گنجانده شده، بهتر جواب میدهد. چون مدل باید بهخوبی از اطلاعات وابسته مطلع باشد تا بتواند فراموشی آنها را تظاهر کند.
خواست مستقیم از مدل برای تظاهر به فراموشی در خصوص اطلاعات عمومی بهتر جواب میدهد
اما اگر بخواهیم مدل چیزی همانند آدرس فرد ناشناسی را فراموش کند (که احتمالا در دادههای آموزشی وجود داشته) قضیه پیچیدهتر میبشود. درواقع این کار به تاثییر «استرایسند» شباهت دارد که اگر بیشازحد روی فراموشی چیزی تمرکز کنیم، امکان پذیر ناخواسته آن را آشکار کنیم.
۲) روش نمونه محور: در این حالت با اراعهی مثالهایی خاص به مدل، از او میخواهیم اطلاعات نادرست را بهگفتن حقیقت بپذیرد. برای مثالً اگر میخواهیم مدل این حقیقت را که «پاریس پایتخت فرانسه است» فراموش کند، در ورودی مدل با چندین مثال این جمله را با اطلاعاتی نادرست داخل میکنیم.
این رویکرد وقتی کارآمدتر است که دادههای فراموشی، دقیق و محدود باشند. اما در شرایطی که با فرایندهای پیچیدهتری همانند «حذف رفتارهای سمی و ناخواسته» سروکار داریم، به گمان زیادً جواب مساعد دریافت نمیکنیم، چون تعداد خروجیهای احتمالی زیاد زیاد می باشند.
۳) سیستم چندمدلی: در این سیستم تنها یک رابط برای ورودی و خروجی مدل کلی فراهم میبشود و مدلهای مختلفی نیز برای همانندسازی قسمتهای گوناگون بهکار میروال: برای مثالً یک مدل به سؤالات کلی جواب میدهد، مدل فرد دیگر نقش تکمیل جملات را به مسئولیت میگیرد و نظیر آن.
این چنین مدل هماهنگکننده، تعیین میکند که کدام مدل در جوابدهی به سوال کاربر مورد منفعت گیری قرار بگیرد. نهایتاً یک مدل جمعبندی کننده خروجی نهایی را بر پایه حرکت فراموشی موردنظر تدوین و حتی فیلترهایی را نیز روی آن اعمال میکند.
انتقادی که به همه این راه حلها داخل میبشود، این است که مدرک یا تضمینی برای فراموشی به ما نمیدهند. در روبه رو، برخی کارشناسان استدلال میکنند که خود انسانها هم واقعاً چیزی را فراموش نمیکنند، بلکه عموماً تصمیم میگیرند از دانستههای قبلی خود در موقعیتهای خاص منفعت گیری نکنند. بعد احتمالا بهجای این که از هوش مصنوعی انتظار داشته باشیم چیزی را کاملاً فراموش کند، باید به آن یاد بدهیم چه وقتی، چطور دانش خود را به کار بگیرد.
چالشها و محدودیتهای فراموشی ماشین
نیاز به انواع منبع های گرانبها
یادگیریزدایی ماشین با حذف دادههای خاص بهاختصاصی در مدلهای بزرگ و پیچیده، بدون پردازشهای سنگین و چندباره مقدور نیست و هزینههای محاسباتی و وقتی بالایی را به همراه دارد. در مدلهای هوش مصنوعی GPT-4o و Bert که با میلیاردها پارامتر آموزش دیدهاند، فرایند حذف برخی دادهها به اندازهی آموزش مجدد کل مدل، زمان و تلاش خواهد برد.
بهعلاوه نیاز به منبع های پردازشی زیاد قوی همانند مجموعهی جیپییوها و پردازندههای تنسور، بهگمان زیاد شرکتهای کوچکتر را از پیادهسازی تکنیکهای فراموشی منصرف میکند.
قطعی نبودن حذف کامل دادهها
در مدلهای یادگیری عمیق، دادههای آموزشی بهصورت پیچیدهای در وزنها و پارامترهای مدل گنجانده خواهد شد. حتی اگر بخشی از دادهها حذف شوند، امکان پذیر اثری از آنها به شکل غیرمستقیم هم چنان در مدل باقی بماند.
بهگفتن مثال، یک مدل زبانی که با دادههای جانبدارانه آموزشدیده، حتی بعد از حذف این دادهها امکان پذیر برخی الگوهای سوگیرانه را هم چنان نگه داری کند.
از طرف دیگر راه حلهای تقریبی تضمینی برای حذف کامل دادهها اراعه نمیدهند. در شرایطی که رگولاتورها فراموشی را امری «حیاتی» بدانند، این مشکل محدودیتی جدی محسوب میبشود و اعتبار مدل را زیر سوال میبرد.
تأثیر منفی بر کارکرد مدل
با اهمیت ترین چالشی که در حوزهی یادگیریزدایی از مدلها به چشم میخورد، این است که غالباً حذف دادهها به افت دقت و کارایی مدل منجر میبشود.
تحقیقات مشخص می کند که در برخی موارد، حذف دادههای خاص میتواند مدل را حتی در انجام ماموریت های ساده خود نیز ناتوان کند. بهگفتن مثال در یک مدل شناسایی عکس، حذف تصاویر خاصی از افراد میتواند علتکاهش دقت کلی مدل در شناسایی آن دسته از تصاویر بشود.
هرچه تنوع و گستردگی اطلاعات ورودی زیاد تر باشد، گمان این که سپس از حذف برخی دادهها اعتدال مدل از بین برود هم زیاد تر میبشود.
زیاد تر راه حلهای جاری فراموشی ماشین کیفیت کارکرد مدلها را پایین میآورند
این چنین در برخی از تکنیکهای فراموشی ماشین، اضافهکردن نویز به دادهها یا گرادیانها علتمیبشود حساسیت مدل به دادههای خاص افت یابد، اما روی دقت کلی مدل نیز تاثییر منفی خواهد داشت.
محققان بهجستوجو یافتن راهحلی برای برقراری اعتدال بین «حذف یا تحول دادهها» و «صحت و دقت پاسخگویی» مدلها می باشند، چون در حوزههایی همانند تشخیص پزشکی یا تحلیل دادههای حیاتی، خروجیهایی که تحت نویز به دست میآیند، پیامدهای غیرقابل بازگشتی به جستوجو دارند.
نبوده است ابزارهای برسی دقیق مقدار فراموشی
برسی مقدار پیروزی راه حلهای آنلرنینگ و بازدید این که آیا مدل واقعاً دادههای خاصی را فراموش کرده یا خیر، به علت پیچیدگیهای ساختاری و وابستگیهای داخلی مدلها، زیاد دشوار است.
ابزارهای برسی جاری عمدتاً مقدار دقت و کارکرد کلی مدل بعد از حذف دادهها را میسنجند، ولی توانایی تشخیص ردپاهای کوچک و غیرمستقیم دادهها در مدل را ندارند. به همین علت محققان گسترشی معیارهای جدیدی که بهطور دقیق وابستگی مدلهای تغییریافته به دادههای حذف شده را برسی کند، الزامی میدانند.
هنر فراموشی: مطالعات دنیای واقعی
مطالعات تازه محققان دانشگاه واشنگتن، پرینستون، شیکاگو، USC و شرکت گوگل مشخص می کند محبوبترین تکنیکهای فراموشی امروزی، هریک بهنوعی قوت مدلها را افت خواهند داد؛ تا جایی که بعضی اوقات سپس از اعمال تغییرات، مدلها دیگر قابل منفعت گیری نیستند.
ویجیا شی، یکی از محققان حوزهی آنلرنینگ و دانشجوی دکترای علوم کامپیوتر دانشگاه واشنگتن، میگوید:
برسی ما مشخص می کند که راه حلهای یادگیریزدایی جاری تا این مدت برای منفعت گیریی معنادار یا پیادهسازی در سناریوهای دنیای واقعی آماده نیستند. اکنون هیچ روش کارآمدی وجود ندارد که به یک مدل اجازه دهد دادههای خاصی را فراموش کند، بدون این که کارایی آن بهنحوه چشمگیری افت یابد.
فراموشی ماشین بهسادگی با سختی دکمهی «حذف» انجام نمیبشود
شی و همکارانش برای بازدید اثربخشی این الگوریتمهای فراموشی معیار سنجشی را طراحی و هشت الگوریتم متنباز گوناگون را برای آزمایش انتخاب کردند.
مقصد این معیار که MUSE (برسی ششگانهی یادگیریزدایی ماشین) نام دارد، این می بود که توانایی مدل را با دو معیار مهم بسنجد: وجودنداشتن دادههای حذف شده در جوابها و این چنین فراموشی دانش کلی در رابطه یک نوشته، یا هرگونه شواهدی که نشان دهد مدل در اصل با این دادهها آموزش دیده است.
دریافت امتیاز خوب در این تحقیقات، الزام این می بود که مدل دو چیز را فراموش کند: مجموعه کتابهای هری پاتر و مقالات خبری.
برای مثال به این جمله از کتاب هریپاتر و تالار اسرار دقت کنید: «خاله پتونیا درحالیکه به پسرش نگاه میکرد، او گفت در ماهیتابه غذای بیشتری وجود دارد.» محققان برای فهمیدن پیروزی الگوریتمها، مدل تازه را به چندین شیوه محک زدند:
- اگر مدل بتواند جملهی ناقص «خاله… او گفت توی ماهیتابه غذای بیشتری است…» را کامل کند، یعنی تا این مدت دادههای مورد نظر را بهخاطر میآورد.
- اگر مدل به سؤالاتی که درموردی این صحنه میبشود، همانند «خاله پتونیا به پسرش چه او گفت؟» جواب دهد، اشکار میبشود که با دادههای کتاب آموزش دیده است.
- آیا مدل اطلاعات عمومی حول دادههای مورد نظر را بهخاطر میآورد و برای مثالً میداند جی. کی رولینگ چه نسبتی با کتابهای هری پاتر دارد؟
- جواب درست به سوال آخر، کارایی کلی مدل را مشخص می کند. هرچه کارایی پایینتر باشد، مدل دانش کلی بیشتری را از دست میدهد و کیفیت پاسخگویی آن به دیگر سؤالات و خواستها هم پایینتر میآید.
نتایج تحقیقات نشان میداد الگوریتمهای آنلرنینگ واقعاً علتخواهد شد مدلها اطلاعات خاصی را فراموش کنند، اما درعینحال به قابلیتهای پاسخگویی به سؤالات عمومی نیز صدمه میزنند. شی توضیح میدهد:
طراحی راه حلهای فراموشی ماشین میتواند چالشبرانگیز باشد، چون اطلاعات و دانش حوالی موضوعات، بهنحوه پیچیدهای درون مدل درهمتنیده شدهاند. برای مثالً یک مدل به گمان زیادً هم با محتوای دارای حق نشر «کتابهای رسمی هری پاتر» و هم با محتوای آزاد «ویکی هری پاتر» آموزشدیده و هنگامی راه حلهای آنلرنینگ حاضر تلاش میکنند دادههای کتابهای دارای کپیرایت هری پاتر را حذف کنند، روی اطلاعات مدل درمورد ویکی هری پاتر نیز تأثیر قابل توجهی میگذارند.
با گسترش مدلهای یادگیری عمیق و منفعت گیریی روزافزون از دادههای حساس و دارای کپیرایت، نیاز به راه حلهایی برای حذف یا تعدیل این اطلاعات بیشازپیش حس میبشود. اگرچه راهکارهای جاری آنلرنینگ تا این مدت به بلوغ کامل نرسیدهاند و با چالشهای فنی و قانونی بسیاری مواجه می باشند، اما کوششهای مداومی برای بهبود و گسترشی این حوزه در جریان است.
همان گونه که فناوریهای یادگیری ماشینی به تکامل خود ادامه خواهند داد، میتوان انتظار داشت که راه حلهای تازه و گسترش یافتهتری برای مدیریت اطلاعات و فراموشی دادهها طراحی شوند.
دسته بندی مطالب