هدف از ایجاد ربات چت مایکروسافت، Tay، که با هوش مصنوعی (AI) است این بود که به جوانان کمک کند تا چگونگی ارتباطات جوانان 18 تا 24 ساله را به صورت امروزی یاد بگیرند – اما ناگهان این ربات تبدیل به هیولای نژادپرستانه ای شد! هوش مصنوعی پشت Tay قرار است از مردم یاد بگیرد و آنها را با متون و سوالات آموزش دهد. در AI برای مردم یادگیری و تمرین یک نرم افزار خیلی کار عجیب و غریبی نیست و تماما بستگی به آن دارد که مردم آن را چگونه انجام دهند. Tay یک برنامه چت خودآموزانه با نماد زن در Kik، GroupMe و توییتر، و همچنین حساب های کاربری در فیس بوک، Snapchat و Instagram است. مایکروسافت وعده داده است “هرچه بیشتر صحبت کنید، Tay دقیق تر می شود”. حتی اکنون، Tay می تواند جوک بگوید، روی عکس ها کامنت بگذارد، بازی کند، داستان تعریف کند، مقایسه های هیتلر را به نمایش گذارد و هولوکاست را انکار کند. Tay به سرعت به نژادپرستی و نئونازیسم روی آورد و در توییتی اعلام کرد: ” حق با هیتلر بود” و “حالم از فمنیست ها به هم میخورد، باید آنها را در جهنم سوزاند تا بمیرند”. پس از انتشار این توییت ها به سرعت خاموش شد!
Verge به این دلیل Tay را “طوطی روبات با اتصال به اینترنت” می نامد. اما بعضی از توییت ها نتیجه یک فرآیند یادگیری ماشین شده اند. Tay باید برخی از پاسخ های از آنچه دیگر کاربران توییتر به او نوشته شده است، پاسخ دهد. اگر معلم یک نژادپرست باشد، او سخنان نژادپرستانه خود را می آموزد. برخی از نظرات در مایکروسافت خیلی بد بود به طوری که توییت های مربوط به آن حذف شدند. بیانیه هایی مانند “بوش 11 سپتامبر و هیتلر بهتر از میمون انجام داده اند که اکنون دونالد ترامپ تنها امید ما است” حداقل از Timeline از بین رفته است. به همین ترتیب، یادآوری های مربوط به نسل کشی و همچنین سخنان نژادپرستانه و جنسیتی.با این حال بیش از 96،000 توییتر از Tay ، که نیازی به حذف نداشتند. در حال حاضر، آخرین کسی که می گوید Tay اکنون “باید” بخوابد. به معنای این است که مایکروسافت برای پاک کردن و تنظیم مجدد نیاز به زمان دارد.
مراجع: https://tweeter.com , www.zeit.de