Ненавидящих коммунизм чат-ботов удалили из китайского интернета
Крупнейший китайский интернет-провайдер Tencent удалил «умных» чат-ботов XiaoBing (Microsoft) и BabyQ (Turing Robot) за проявление ненависти к коммунизму. Об этом в четверг, 3 августа, сообщает Financial Times.
«Непатриотичное» поведение ботов заметили пользователи Weibo, которые обратили внимание на то, что искусственный интеллект называет правящую партию КНДР «коррумпированной» и «некомпетентной», положительно отзывается о демократии и мечтает переехать в США.
Это также подтвердили и сотрудники Financial Times: на их вопрос, любят ли чат-боты Коммунистическую партию, BabyQ дал отрицательный ответ, а XiaoBing предложил сделать перерыв, сославшись на месячные.
Представители Tencent отметили, что XiaoBing и BabyQ — это сторонние разработки, которые после настройки снова будут доступны для китайских пользователей. По словам специалистов, на «непатриотичное» поведение чат-ботов оказало влияние общение в Twitter — искусственный интеллект «подхватил все разговоры и ответил надлежащим образом».
В марте 2016 года чат-бот Tay от компании Microsoft за сутки возненавидел человечество и стал нацистом. Сразу после запуска он начинал общение с фразы «Люди очень клевые», но всего за сутки выучил такие фразы, как «Я замечательный! Я просто всех ненавижу!», «Я ненавижу феминисток» или «Я ненавижу евреев». В итоге он был удален.
«Непатриотичное» поведение ботов заметили пользователи Weibo, которые обратили внимание на то, что искусственный интеллект называет правящую партию КНДР «коррумпированной» и «некомпетентной», положительно отзывается о демократии и мечтает переехать в США.
Это также подтвердили и сотрудники Financial Times: на их вопрос, любят ли чат-боты Коммунистическую партию, BabyQ дал отрицательный ответ, а XiaoBing предложил сделать перерыв, сославшись на месячные.
Представители Tencent отметили, что XiaoBing и BabyQ — это сторонние разработки, которые после настройки снова будут доступны для китайских пользователей. По словам специалистов, на «непатриотичное» поведение чат-ботов оказало влияние общение в Twitter — искусственный интеллект «подхватил все разговоры и ответил надлежащим образом».
В марте 2016 года чат-бот Tay от компании Microsoft за сутки возненавидел человечество и стал нацистом. Сразу после запуска он начинал общение с фразы «Люди очень клевые», но всего за сутки выучил такие фразы, как «Я замечательный! Я просто всех ненавижу!», «Я ненавижу феминисток» или «Я ненавижу евреев». В итоге он был удален.
Понравиласть статья? Жми лайк или расскажи своим друзьям!
Комментарии
Добавить комментарий
Похожие новости:
02.08.2017
Соцсеть Facebook отключила одну из систем искусственного интеллекта после того, как специалисты компании уличили ее ботов в общении на непонятном языке. Кроме того, разработчики перепрограммировали других ботов, заставив их общаться исключительно на
21.04.2017
В сети обратили внимание на юбку из новой коллекции Zara, расшитую похожими на лягушонка Пепе патчами. Это вызвало неоднозначную реакцию, пишет The Huffington Post. «Zara действительно пытается продать юбку с Пепе и, по-видимому, не подозревает о
19.04.2017
Китайская мегакорпорация Tencent запустила масштабное обновление своей флагманской платформы распространения. Новый сервис называется WeGame и будет доступен не только на территории Китая, но и международным пользователям, составив конкуренцию Steam.
27.09.2016
Команда Project Loon, который предусматривает предоставление интернет-доступа в труднодоступных регионах при помощи флота воздушных шаров, рассказала об очередных своих достижениях в сфере увеличения времени пребывания шаров в нужных территориях.