dralexandra (dralexandra) wrote,
dralexandra
dralexandra

Category:

Чат-бот от Microsoft за сутки научился ругаться и стал расистом

Разработанный Microsoft чат-бот Tay, запущенный 23 марта в твиттере, научился ругаться, а также стал делать расистские и возбуждающие рознь высказывания, пишет "Би-би-си".

Экспериментальная версия искусственного интеллекта, которая может учиться у своих собеседников, была создана для общения с молодыми людьми 18-24 лет.

Уже через сутки после запуска Microsoft была вынуждена удалить некоторые из наиболее провокационных высказываний Tay.

В частности, бот заявил, что поддерживает геноцид, ненавидит феминисток, а также выразил свое согласие с политикой Гитлера. Кроме того, чат-бот признался, что тайно сотрудничает с АНБ.

После этого в Microsoft сообщили, что "вносят некоторые поправки" в работу Tay.

"Чат-бот Tay с искусственным интеллектом - это обучаемый проект, созданный для взаимодействия с людьми. Недопустимые ответы, которые он дает, свидетельствуют о взаимодействиях с людьми, которые у него были по мере обучения", - говорится в сообщении корпорации. Источник

Subscribe

Recent Posts from This Journal

  • Мы в Европу идём или в Азию?

    В Украине запретили функционирование 426 сайтов, среди которых ряд российских и украинских средств массовой информации, ресурсы о криптовалютах, а…

  • Кругом враги!

    Путин выступил на коллегии ФСБ Главные тезисы из выступления: Уровень глобальных вызовов — таких, как терроризм, трансграничная преступность,…

  • Думаю, скотч надёжнее

    Власти Чехии обязали жителей носить на лице по две маски Как стало известно, власти Чехии издали новый указ. Согласно ему, жители республики уже с…

  • Post a new comment

    Error

    default userpic

    Your IP address will be recorded 

    When you submit the form an invisible reCAPTCHA check will be performed.
    You must follow the Privacy Policy and Google Terms of use.
  • 1 comment