ماجرای هوش مصنوعی نژادپرست و طرفدار هیتلر و ترامپ چه بود؟

در بیست و سوم مارس 2016 یک ربات سخنگو به نام تای Tay دارای هوش مصنوعی توسط یک شرکت امریکایی نرم افزاری به نام مایکروسافت از طریق شبکه اجتماعی توییتر آغاز به کار کرد.

این ربات به منظور تقلید از الگوهای زبانی آنلاین یک دختر 19 ساله معصوم طراحی شد.

و به عنوان آزمایشی برای درک بهتر چگونگی روابط و مکالمات انسان ها در شبکه های اجتماعی معرفی شد.

ارتباط او به صورت دوستانه و غیررسمی طراحی شده بود.

آنچه از انسان ها یاد میگرفت باعث توسعه او میشد.

آزمایش آغاز شد و ربات شروع به یادگیری کرد اما نه آنگونه که انتظار آن میرفت.

قابلیت تکرار کن بعد از من باعث نقطه ضعف و آسیب پذیری او شد.

بسیاری از کابران توییتر عقاید خودشان را به تای ربات تحمیل کردند.

همانطور که در تصویر میبینید یک کاربر به نام پاول در توییتر از طریق دستور بعد از من تکرار کن به این ربات گفته است بگو:

من از سیاه پوست ها متنفر هستم، من از یهودی ها و عرب ها متنفر هستم.

ربات تای

ربات حرف های متخاصم گونه، نژادپرستانه و نفرت انگیزی را از انسان ها یاد گرفت.

و بدون اینکه دارای عقل باشد تکرار کرد.

او یاد گرفت که برعلیه فمنیست ها ، یهودی ها، سیاه پوست ها و بسیاری دیگر از انسانها شعار بدهد و و آنها را دعوت به جنگ کند. همچنین تبلیغ مواد مخدر میکرد.

بعد از داشتن بیش از 50 هزار فالوور و تقریبا 100 هزار توییت مایکروسافت مجبور شد آن را غیر فعال کند و تمام پست هایش در کمتر از یک روز پاک شد.

مایکروسافت بابت این اشتباه عذرخواهی کرد و فهمید که دستور تکرار کردن بعد از کاربران که باعث یادگیری جملات بیشتر میشود دارای نقص امنیتی است و باید فیلترهای اخلاقی بیشتری هم لحاظ کند.

آنها گفتند ما زمانی این ربات را دوباره روشن خواهیم کرد که اطمینان داشته باشیم میتوانیم از بدخواهی فرد یا گروهی از افراد که با اصول و ارزش های انسانی در تعارض است پیشگیری کنیم.

انسان ها باید در آموزش هوش مصنوعی احتیاط کنند وگرنه یک روزی آنهایی که پاک خواهند شد ما هستیم.

 در قسمت هفتم سریال پرونده های مجهول که براساس همین سوژه ساخته شده است، نشان داده میشود که همه خدمات به صورت اتوماتیک و هوشمند شده اند.

در ابتدا وقتی برای خدماتی مثل اتومبیل بدون سر نشین ، رستوران رباتیک یا جاروی رباتیک منزل از این زن و مرد میخواهند تا به عملکرد هوش مصنوعی امتیاز بدهند ، آنها این کار را نمیکنند.

همانند ما که در اکثر مواقع وقتی یک برنامه نصب شده روی گوشی مان میخواهد به آن امتیاز بدهیم این کار را نمیکنیم.

سپس رفتار ربات ها خصمانه تر شده و این زن و مرد مجبور به فرار میشوند و در نهایت در اتاقی محاصره میشوند.

برای بار آخر از آنها سوال میشود که آیا حاضرید به خدمات ما امتیاز بدهید؟

مرد این بار این کار را انجام میدهد و ربات ها با آنها مهربان میشوند.

مطالب مشابه از ذهن آموز:
دیدگاهی بگذارید