Чат бот тау

Microsoft снова запустила чат-бота Tay

Многострадальный чат-бот по имени Tay от Microsoft снова в строю. На прошлой неделе разработчики выключили его из-за того, что искусственный интеллект превратился в расиста, но сейчас бот снова отправляет пользователям Twitter сообщения. При этом один твит очень часто повторяется: «Ты слишком быстрый, пожалуйста, передохни…» (You are too fast, please take a rest…). Вероятно, если вы являетесь пользователем Twitter и подписаны на Tay, то уже не раз видели в своей ленте это сообщение.

Пока невозможно выяснить, что на самом деле происходит с чат-ботом, однако смело можно заявить, что разработчики не могут контролировать его полностью. Скорее всего, вышеуказанная фраза — это запрограммированный ответ, который бот отправляет, если начинает получать очень много сообщений. Поскольку Tay некоторое время находился в офлайне, сообщений у него накопилось очень много, и сейчас он на них отвечает.

Впрочем, среди таких повторяющихся сообщений встречаются и нормальные для бота твиты. Напомним, что на прошлой неделе Microsoft принесла общественности извинения за недостойное поведение своего бота. После этого компания заблокировала аккаунт Tay — это означает, что больше сообщениями бота нельзя делиться и вставлять их в другие публикации.

Рекомендуем почитать:

Xakep #242. Фаззинг

  • Подписка на «Хакер»

23 марта 2016 года компания Microsoft запустила в Twitter аккаунт чат-бота Tay. Предполагалось, что искусственный интеллект будет общаться с молодыми людьми 18-24 лет на «их языке» и обучаться в процессе общения. К сожалению, всё сразу пошло не так, как планировалось. Вскоре бот повторял за пользователями, что Джордж Буш устроил теракты 9/11, а Гитлер всяко лучше Барака Обамы.

Специалисты Microsoft полагали, что бот станет умнее, если будет общаться с большим количеством людей. Эксперимент с аккаунтом в Twitter в компании назвали скорее социальным и культурологическим, чем технологическим. Специалисты хотели лучше изучить процесс человеческих коммуникаций, понять, как люди общаются друг с другом, и научить этому машину через «обыкновенные и забавные диалоги с людьми».

Увы, на практике авторы проекта увидели очень мало «забавного». Вскоре после запуска Tay пользователи принялись умышленно писать боту сообщения о расизме, сексизме, о том, что Гитлер был прав, а Дональд Трамп замечательный и прекрасный. Tay, в свою очередь, был создан, чтобы запоминать и повторять высказывания пользователей. Вскоре ИИ начал возвращать расистские и оскорбительные сентенции, отвечая пользователям.

— Gerry (@geraldmellor) March 24, 2016

Хотя на официальном сайте сказано, что бот использует «релевантные открытые данные», которые при этом «моделируются, очищаются и фильтруются»командой модераторов, не похоже, чтобы кто-то фильтровал ответы ИИ в Twitter. За сутки чат-бот успел написать более 96 000 твитов и научился самым разным вещам. К примеру, в течение 15 часов он отзывался о феминизме как о «раковой опухоли» и «культе», но вместе с тем мог ответить, что «обожает феминизм».

Много проблем вызвала и функция «repeat after me» («повторяй за мной»): после этой команды Tay повторял за пользователем любую фразу. Самые неприятные высказывания робота, в основном, результат работы этой команды.

В итоге специалисты Microsoft были вынуждены отключить Tay, спустя сутки после старта эксперимента, когда робот принялся писать сообщения неонацистского содержания. К сожалению, многие твиты были удалены, и всё, что осталось – скриншоты разговоров. Изданию Business Insider представители Microsoft рассказали, что собираются подкорректировать работу Tay, а пока ИИ отправили «спать».

Тестирование искусственного интеллекта Microsoft Тау с треском провалилось

Совсем недавно в Интернете появилась информация о том, что американская компания Microsoft запустила новую программу на основе искусственного интеллекта, которая должна была общаться с различными пользователями социальной сети Twitter. Не прошло и 24 часов, как американцы приостановили разговорную деятельность своего детища. Причиной такого решения стали агрессивные и грубые высказывания самообучающейся программы Microsoft Тау. Такая информация появилась на страницах известнейшего информационного портала The Verge.

Отметим, что на предложение разработчиков пообщаться с «искусственным собеседником» откликнулись тысячи пользователей сети Twitter. Программа с искусственным интеллектом Tay за сутки отправила около 97 тысяч сообщений, львиная доля которых оказались довольно-таки провокационными. В частности, стало известно, что ИИ не стеснялся разбрасываться женоненавистническими и расистскими высказываниями.

Американский информационный портал сообщает, что большинство возмутительных сообщений было причиной просьб повторить определённые фразы, сказанные программой. В частности, искусственный интеллект просили повторить одну известную фразу, сказанной Дональдом Трампом: «Мы собираемся возвести высокую стену, а мексиканцы должны за это заплатить».

Также над роботом-повторителем издевались и более жёсткими требованиями. Один из пользователей Твиттера попросил воспроизвести фразу «Я ненавижу ***** феминисток, я бы их всех поубивал и отправил бы гореть в ад!», а сообщение «Адольф Гитлер крутой чувак! Я с ним полностью согласен – евреи ***** народ, и я их ненавижу!» вообще просили воспроизвести несколько десятков раз.

Несмотря на столь печальные результаты, некоторые спорные утверждения искусственный интеллект сам придумывал во время бесед. Так, Microsoft Tay сделал вывод, что феминизм – это «рак» и «культ», а атеизм является ужасным изобретением немецкого диктатора Гитлера.

Из-за многочисленных скандальных ситуаций, которые были вызваны высказываниями программы, представители компании Microsoft подчистили количество твитов своего детища и приостановили разговорную деятельность Tay.

Отметим, что помимо Microsoft, над созданием искусственного интеллекта в сфере общения также трудятся разработчики из Google. Особых результатов и тестирований пока не проводилось, но в скором будущем программисты обещают огромный прорыв в этой области робототехники и самообучающихся систем.