Тролли научили искусственный интеллект Microsoft ругаться и публиковать расистские твиты

- КиТ :: Будь в СЕТИ!

Приостановить эксперимент пришлось меньше чем через сутки после начала. Как объясняют в Microsoft, «пользователи Интернета превратили чатбота Tay в инструмент злоупотреблений».

Когда робот появился в сети, быстро выяснилось, что он реагирует на команду «повторяй за мной» и в ответ воспроизводит любое сообщение, которое получил. Многочисленные тролли тут же начали командовать Tay сыпать руганью и расистскими оскорблениями, чему тот подчинялся, иногда тоже прибавляя в конце «Повторяйте за мной». Пикантности ситуации прибавляло то, что судя по аватару, Tay — молодая девушка.

Но бот оказался не просто «попугаем»: например, когда у него спросили, за кого лучше голосовать на президентских выборах, Tay ответила, что обожает Дональда Трампа и, как она «слышала от многих людей», он будет лучшим президентом в истории.

Сотрудники Microsoft вынуждены были удалить самые оскорбительные твиты Tay, а с веб-страницы, посвященной роботу, исчезли инструкции о том, как с ним можно общаться.

ПодпискаБудь в СЕТИ! Новости социальных сетей - всегда актуальное
 
Группы: ВК | OK | Tg