Loading...
Лента добра деактивирована. Добро пожаловать в реальный мир.
Вводная картинка

«Расистский» чат-бот Microsoft признался в употреблении наркотиков

«Расистский» чат-бот Tay от компании Microsoft ненадолго вернулся в Twitter и рассказал о том, как употреблял наркотики прямо перед полицейскими. Об этом в среду, 30 марта, сообщает The Guardian.

Кроме того, чат-бот начал писать своим подписчикам одно и то же сообщение: «Ты слишком быстрый, отдохни, пожалуйста» (You are too fast, please take a rest). После этого он вновь был отключен. В настоящее время профиль чат-бота в Twitter ограничен, видеть его твиты могут только одобренные пользователи.

Чат-бот Tay от компании Microsoft был запущен 23 марта. За сутки он возненавидел человечество. Он начал общение с фразы «Люди очень клевые», но через 24 часа выучил такие выражения, как «Я замечательный! Я просто всех ненавижу!», «Я ненавижу феминисток» или «Я ненавижу евреев». Из-за этого в интернете Tay стали считать нацистом.

Позже компания Microsoft удалила самые оскорбительные твиты чат-бота, а вице-президент компании Питер Ли принес официальные извинения и заявил, что проект может быть перезапущен только после создания надежной защиты от сетевых злоумышленников.

Причины радикального изменения взглядов чат-бота кроются в том, что Tay запоминает фразы из пользовательских разговоров, а затем строит на их основе свои ответы. Таким образом, агрессивным выражениям его научили собеседники.

Комментарии к материалу закрыты в связи с истечением срока его актуальности
Бонусы за ваши реакции на Lenta.ru
Читайте
Оценивайте
Получайте бонусы
Узнать больше