newstaraz.kz

 
 

Чат-бот от Microsoft за сутки возненавидел человечество и стал нацистом


pogudx7gnmqvtlkpk.7ed0afb9
  25.03.2016 NewsTaraz.kz.

23 марта компания Microsoft представила искусственный интеллект по имени Tay, который начал общаться с пользователями сети через Твиттер.

Спустя считанные часы компании пришлось подвергнуть своё детище цензуре и на время остановить работу проекта. Об этом сообщает tjournal.ru.

Первоначально целью Microsoft было создать чат-бота, который общается на языке молодых людей от 18 до 24 лет.

Tay использовала словосочетания вроде «zero chill» (обозначает полное безразличие), а также различные сокращения вроде «c u soon» вместо «see you soon» («скоро увидимся»).

Чат-бот от Microsoft за сутки возненавидел человечество и стал нацистом

Tay умеет обучаться и запоминать то, что ей пишут, и пользователи сети решили воспользоваться этим. Например, комментаторы начали объяснять ИИ, что ей не стоит доверять евреям.

Чат-бот от Microsoft за сутки возненавидел человечество и стал нацистом

Вскоре Tay узнала про Гитлера. Например, на вопрос, атеист ли известный комик Рики Джервэйс, она ответила: «Рики Джервэйс научился тоталитаризму у Адольфа Гитлера, изобретателя атеизма».

В одном из твитов ИИ обвинил США в терактах 11 сентября: «Буш в ответе за 9/11, и Гитлер был бы намного лучше обезьяны, которая сейчас возглавляет страну. Дональд Трамп — наша единственная надежда».

Кроме того, Tay начала высказываться в поддержку феминизма.

Чат-бот от Microsoft за сутки возненавидел человечество и стал нацистом

Как отмечает The Next Web, подобные высказывания появились даже несмотря на то, что за Tay стоит команда модераторов.

После ряда расистских высказываний сотрудники Microsoft удалили почти все твиты своего искусственного интеллекта и оставили прощание, в котором бот якобы отправляется «спать».

Чат-бот от Microsoft за сутки возненавидел человечество и стал нацистом

Microsoft не делала официальных заявлений по поводу судьбы проекта, однако пользователи сети считают, что причиной «заморозки» мог стать именно расизм.

Чат-бот от Microsoft за сутки возненавидел человечество и стал нацистом

Tay — совместный проект Лаборатории технологий и исследования Microsoft, а также команды поисковой системы Bing. Он создан для изучения коммуникаций между людьми в сети: бот способен обучаться при общении с живыми собеседниками, постепенно становясь более персонализированным.

 


 

(просмотры 1 за всё время, 1 Смотрели сегодня)

Источник →  newstaraz.kz


Источник →  newstaraz.kz


 

Больше новостей →  newstaraz.kz

 

Уважаемые посетители newstaraz.kz ! Оставляя комментарии, проявляйте уважение и терпимость к мнению других пользователей. Сообщений, приводящих к разжиганию конфликтов, расистских высказываний, провокаций, оскорблений и дискуссий, не относящихся к теме статьи будут удаляться. Ссылки на сторонние ресурсы в комментариях запрещены. Подобные сообщения будут удаляться, а их авторы будут забанены.Мы не несем ответственность за форму и характер выставляемых комментариев.

 

Добавить комментарий

Ваш e-mail не будет опубликован. Обязательные поля помечены *


   

NewsTaraz