Менее чем через сутки с начала работы искусственного интеллекта Tay от Microsoft разработчикам пришлось остановить его работу из-за оскорбительных сообщений бота. Об этом сообщает The Next Web. Изначально в Microsoft намеревались создать чат-бота, который мог бы общаться с людьми от 18 до 24 лет. Разработчики рассчитывали, что Tay будет совершенствоваться в «разговорном понимании» путем «легких и веселых бесед». Однако пользователи стали использовать его способность к самообучению. Вскоре бот узнал про Адольфа Гитлера и обвинил США в терактах 11 сентября. Он также успел поддержать геноцид и возненавидеть феминисток. Несмотря на то что у бота были модераторы, он все равно успел опубликовать много подобных твитов. После этого сотрудники Microsoft удалили почти все твиты Tay и опубликовали прощальное сообщение. Разработчики рассказали, что не все из более 96 тыс. сообщений бота принадлежат ему, некоторые он копировал у других пользователей, выполняя команду «повторяй за мной». Ранее сообщалось, что искусственный интеллект от Google смог победить лучшего игрока в го. http://www.gazeta.ru/tech/news/2016/03/24/n_8414285.shtml
Интересно... Кортана же тоже способна к обучению? И через сколько времени она станет ревновать к моей жене?
Чат-бот от Microsoft за сутки возненавидел человечество и стал нацистом Я скидывал... в интересное в сети.