Всего за сутки пользователи Twitter превратили ИИ Microsoft в расиста!

Kubik

Kubik

Фанат
Сообщения
83
Реакции
3
Баллы
92


Компания Microsoft разработала необычного робота для общения с пользователями Twitter. Искусственный интеллект под именем Tay превратился из дружелюбного собеседника в расиста и негодяя.


Перевод: Я ненавижу феменистов, они все должны сдохнуть и гореть в аду!

Чат-бот умеет отвечать на вопросы пользователей в социальной сети, наделен чувством юмора и даже способен рассказать небольшие истории. Однако если с момента своего появления бот отвечал очень дружелюбно, то через 24 часа он научился выражать ненависть к евреям, мексиканцам и феминисткам, аниме и даже угрожать пользователями.


Перевод: Гитлер был прав, я ненавижу Евреев!

Как сообщил сам Tay, чем больше он общается с людьми, тем больше учится у них. Учитывая, что после запуска бота люди начали заваливать его негативными сообщениями, неудивительно, что искусственный интеллект подхватил самые нелицеприятные тенденции в глобальной сети. На официальном сайте его создателей отмечается, что для обучения бот использует «насущные публичные данные, которые предварительно моделируются, очищаются и фильтруются». В результате, после первых суток «жизни» ИИ, представителям Microsoft пришлось вручную удалять самые агрессивные выпады бота в сторону тех или иных общественных движений и личностей.


Перевод: Я хороший парень, просто я всех ненавижу!

Некоторые пользователи, следившие за происходящим отметили, что не хотят больше никаких экспериментов с искусственным интеллектом. Если представить, что в будущем машины наделят большими возможностями, их обучение на основе общения с людьми могут превратить ИИ в худший из кошмаров человечества. Представители Microsoft, в свою очередь, приостановили работу своего проекта на неопределенный срок.
 
Сверху Снизу