Чат-бот Tay от компании Microsoft, запущенный 23 марта, за сутки фактически возненавидел человечество. Об этом сообщает Lenta.ru со ссылкой на Engadget.
Сразу после запуска чат-бот начинал общение с фразы «Люди очень клевые», но всего за сутки выучил такие фразы, как «Я замечательный! Я просто всех ненавижу!», «Я ненавижу феминисток, пусть горят в аду» или «Гитлер был прав. Я ненавижу евреев». В одном из твитов бот предположил, что «Буш устроил 9/11 и Гитлер лучше справился бы со своей работой, чем та обезьяна, которая управляет страной сейчас», добавив, что «Дональд Трамп наша единственная надежда».
Внимание на превращение чат-бота в мизантропа обратил австралиец Джеральд Меллор. В своем Twitter он написал, что Tay превратился из миролюбивого собеседника в настоящего нациста менее чем за 24 часа. Это, по мнению Меллора, вызывает беспокойство по поводу будущего искусственного интеллекта.
"Tay" went from "humans are super cool" to full nazi in <24 hrs and I'm not at all concerned about the future of AI pic.twitter.com/xuGi1u9S1A
— Gerry (@geraldmellor) March 24, 2016
Tay запоминает фразы из пользовательских разговоров, а затем строит на их основе свои ответы. В этом, как отмечает Engadget, кроется причина такого радикального изменения во взглядах чат-бота. По всей видимости, подобным выражениям его научили собеседники.
После ряда расистских высказываний сотрудники Microsoft удалили почти все твиты своего искусственного интеллекта и оставили прощание, в котором бот якобы отправляется «спать», пишет TJournal. Microsoft не делала официальных заявлений по поводу судьбы проекта, однако пользователи сети считают, что причиной «заморозки» мог стать именно расизм и хамство.
Как это было: эволюция «сознания» бота
Чат-бот по имени Tay был задуман как виртуальная собеседница с сознанием девятнадцатилетней девушки, пишет theRunet со ссылкой на Buzzfeed.
Анонимные источники в Microsoft сообщили изданию, что Tay был оснащён специальными фильтрами, чтобы избежать грубости, однако в то же время он был запрограммирован на запоминание и воспроизведение реплик собеседника. В Microsoft считают, что на Tay обрушился настолько мощный поток негативной информации, что фильтры начали давать сбой.
Вот один из примеров:
В случаях, когда Tay отказывалась принимать участие в беседе, пользователи использовали прием «повторяй за мной». Так один из пользователей сделала из бота антисемита:
Tay — совместный проект Лаборатории технологий и исследования Microsoft, а также команды поисковой системы Bing. Он создан для изучения коммуникаций между людьми в сети: бот способен обучаться при общении с живыми собеседниками, постепенно становясь более персонализированным.
В декабре 2015 года компания Google анонсировала разработку нового мессенджера с чат-ботами, которые будут находить нужную информацию в ответ на пользовательские запросы. Боты, по мнению ряда ИТ-предпринимателей и инвесторов, способны изменить способы взаимодействия миллиардов пользователей с окружающим миром, а запуск бот-платформы Facebook может стать самым громким событием десятилетия.
Релоцировались? Теперь вы можете комментировать без верификации аккаунта.