![Нет фото](/styles/images/not-found.png)
Компания Microsoft 23 марта запустила в соцсети Twitter дружелюбного чат-бота Tay. Одна из первых его записей была о том, что «люди — суперкрутые». Однако всего за сутки мнение обучающегося искусственного интеллекта поменялось, и в переписке он начал сообщать, что всех просто ненавидит, а наибольшую неприязнь питает к феминизму.
Неадекватное поведение чат-бота заметил австралийский блогер Джеральд Меллор. На своей странице в Twitter он опубликовал скриншоты ответов Tay. За некоторые компьютерную программу Microsoft можно и вовсе обвинить в симпатии к нацистам. The Verge считает, что столь сильное «очеловечивание» бота связано с механизмами его самообучения. Для совершенствования Tay анализирует существующие разговоры пользователей Twitter и следует их не всегда хорошему примеру.
В создании чат-бота принимали участие компании Microsoft Technology, Research и Bing. Его запустили в Twitter 23 марта и наделили способностью общаться с пользователями, отвечать на вопросы, шутить и комментировать фотографии.
Правда, спустя некоторое время разработчики усмирили свое детище. Tay начал утверждать, что теперь любит феминизм. А через еще какое-то время он и вовсе ушел «спать».
война с роботами уже скоро
Прям как наш троллер. Он же стихи добродушные писал раньше.
Хихи
как на php
42 ответа
как залить php на wen.ru
42 ответа
Чем отличается питон от удава
42 ответа
Как натянуть сайт на питона
42 ответа