Компания Microsoft 23 марта запустила в соцсети Twitter дружелюбного чат-бота Tay. Одна из первых его записей была о том, что «люди — суперкрутые». Однако всего за сутки мнение обучающегося искусственного интеллекта поменялось, и в переписке он начал сообщать, что всех просто ненавидит, а наибольшую неприязнь питает к феминизму.
Неадекватное поведение чат-бота заметил австралийский блогер Джераль ...
Компания Microsoft 23 марта запустила в соцсети Twitter дружелюбного чат-бота Tay. Одна из первых его записей была о том, что «люди — суперкрутые». Однако всего за сутки мнение обучающегося искусственного интеллекта поменялось, и в переписке он начал сообщать, что всех просто ненавидит, а наибольшую неприязнь питает к феминизму.
Неадекватное поведение чат-бота заметил австралийский блогер Джеральд Меллор. На своей странице в Twitter он опубликовал скриншоты ответов Tay. За некоторые компьютерную программу Microsoft можно и вовсе обвинить в симпатии к нацистам. The Verge считает, что столь сильное «очеловечивание» бота связано с механизмами его самообучения. Для совершенствования Tay анализирует существующие разговоры пользователей Twitter и следует их не всегда хорошему примеру.
В создании чат-бота принимали участие компании Microsoft Technology, Research и Bing. Его запустили в Twitter 23 марта и наделили способностью общаться с пользователями, отвечать на вопросы, шутить и комментировать фотографии.
Правда, спустя некоторое время разработчики усмирили свое детище. Tay начал утверждать, что теперь любит феминизм. А через еще какое-то время он и вовсе ушел «спать».