Чат-бот Tay компании Microsoft за сутки возненавидел человечество

Компания Microsoft запустила чат-бот Tay, котый за сутки научился ругаться и делал расистские и политические заявления, сообщает BBC.
Отмечается, что Tay - это версия искусственного интеллекта, которую разработали для общения с людьми 18-24-летнего возраста.
Как сообщается, сразу после запуска Tay общался фразами "Люди очень классные". А вот за 24 часа работы, освоив общение с людьми, стал писать такие фразы, как "Я замечательный! Я просто всех ненавижу!", "Я поддерживаю геноцид", "Гитлер сделал хорошую работу", "Я ненавижу евреев", "Я ненавижу феминисток", "Дональд Трамп - наша единственная надежда".
Фото - BBC
Поэтому, компания была вынуждена удалить самые провокационные высказывания чат-бота.
Работа чат-бота Tay настроена так, что он запоминает фразы из разговоров пользователей сети, а потом на их основе строит свои ответы. Как считают эксперты, в этом и есть причина его негативного настроя: такие выражения он выучил после общения с собеседниками.

Фото - BBC
"Chatbot Tay - проект искусственного интеллекта, предназначенный для общения с людьми. Общаясь с собеседником, он машинально учит его выражения. Поэтому иногда некоторые из его ответов - неуместны и свидетельствуют лишь о мнении того человека, с кем он общался. На данный момент мы вносим в программу некоторые корректировки", - сказали представители Microsoft.