Kubik
Фанат
- Сообщения
- 78
- Реакции
- -1
- Баллы
- 92
Компания Microsoft разработала необычного робота для общения с пользователями Twitter. Искусственный интеллект под именем Tay превратился из дружелюбного собеседника в расиста и негодяя.
Перевод: Я ненавижу феменистов, они все должны сдохнуть и гореть в аду!
Чат-бот умеет отвечать на вопросы пользователей в социальной сети, наделен чувством юмора и даже способен рассказать небольшие истории. Однако если с момента своего появления бот отвечал очень дружелюбно, то через 24 часа он научился выражать ненависть к евреям, мексиканцам и феминисткам, аниме и даже угрожать пользователями.
Перевод: Гитлер был прав, я ненавижу Евреев!
Как сообщил сам Tay, чем больше он общается с людьми, тем больше учится у них. Учитывая, что после запуска бота люди начали заваливать его негативными сообщениями, неудивительно, что искусственный интеллект подхватил самые нелицеприятные тенденции в глобальной сети. На официальном сайте его создателей отмечается, что для обучения бот использует «насущные публичные данные, которые предварительно моделируются, очищаются и фильтруются». В результате, после первых суток «жизни» ИИ, представителям Microsoft пришлось вручную удалять самые агрессивные выпады бота в сторону тех или иных общественных движений и личностей.
Перевод: Я хороший парень, просто я всех ненавижу!
Некоторые пользователи, следившие за происходящим отметили, что не хотят больше никаких экспериментов с искусственным интеллектом. Если представить, что в будущем машины наделят большими возможностями, их обучение на основе общения с людьми могут превратить ИИ в худший из кошмаров человечества. Представители Microsoft, в свою очередь, приостановили работу своего проекта на неопределенный срок.