dralexandra (dralexandra) wrote,
dralexandra
dralexandra

Category:

Чат-бот от Microsoft за сутки научился ругаться и стал расистом

Разработанный Microsoft чат-бот Tay, запущенный 23 марта в твиттере, научился ругаться, а также стал делать расистские и возбуждающие рознь высказывания, пишет "Би-би-си".

Экспериментальная версия искусственного интеллекта, которая может учиться у своих собеседников, была создана для общения с молодыми людьми 18-24 лет.

Уже через сутки после запуска Microsoft была вынуждена удалить некоторые из наиболее провокационных высказываний Tay.

В частности, бот заявил, что поддерживает геноцид, ненавидит феминисток, а также выразил свое согласие с политикой Гитлера. Кроме того, чат-бот признался, что тайно сотрудничает с АНБ.

После этого в Microsoft сообщили, что "вносят некоторые поправки" в работу Tay.

"Чат-бот Tay с искусственным интеллектом - это обучаемый проект, созданный для взаимодействия с людьми. Недопустимые ответы, которые он дает, свидетельствуют о взаимодействиях с людьми, которые у него были по мере обучения", - говорится в сообщении корпорации. Источник

Subscribe

Recent Posts from This Journal

  • Аллея торнадо

    Красиво, хоть и страшно. В фильме есть редкое явление - красные спрайты. Здесь их удалось снять ещё лучше:

  • Представьте себя на месте экипажа МКС...

    На новом модуле «Наука» произошло незапланированное включение двигателей Находящийся на борту МКС космонавт Олег Новицкий сообщил в ЦУП о…

  • Существует ли "шаровая молния"? (Опрос)

    Вначале приведу отрывок из книги Владимира Кавуненко "Как будут без нас одиноки вершины". Шаровая молния Звонит Поляков. Он тогда работал…

  • Post a new comment

    Error

    default userpic

    Your IP address will be recorded 

    When you submit the form an invisible reCAPTCHA check will be performed.
    You must follow the Privacy Policy and Google Terms of use.
  • 1 comment