5 апреля 2026, 19:43
В Китае ввели оценку ИИ на этичность и запретили сгенерированным персонажам критиковать социализм
Китайские госорганы решили зарегулировать ИИ в стране. Разработчикам поручили научить ИИ-персонажей важности социализма, а учёных заставят проверять все разработки в области на «этичность».
Первый документ опубликовало Государственное управление по делам Интернета. Он назвается «Правила оказания информационных услуг с использованием цифровых виртуальных персонажей». Технически, это только законопроект на этапе публичных обсуждений, однако с высокой долей вероятности его примут именно в таком виде.
Под новые правила попадут все фирмы, которые разрабатывают или владеют «персонажами», сгенерированными нейросетями. Предполагается, что это будет касаться и чатботов, которые отвечают «как люди». Закон официально подчинит все такие компании региональным и республиканским силовикам, которые занимаются вопросами кибербезопасности. Чиновники обещают, что новые регуляции помогут «здоровому развитию» ИИ в КНР, а также защитят права граждан и компаний. Половина закона посвящена тому, что все участники разработки и хостинга моделей, включая интернет провайдеров, должны проверять своих ботов на законность и «оценивать риски».
Согласно законопроекту, разработчики обязаны будут получать разрешение от реальных людей, чтобы создать их ИИ-копии (для создания цифровых клонов умерших китайцев согласие могут дать их живые ближайшие родственники). Отдельно отмечается, что без согласия нельзя программировать внешность и голос, похожие на принадлежащие реальному человеку.
Созданные таким образом персонажи должны соблюдать все китайские законы. В частности, им запрещено заниматься клеветой, нарушать интеллектуальные права, разжигать межнациональную вражду, продвигать дискриминацию по происхождению, а также наносить «ущерб национальной безопасности, чести и интересам» КНР, продвигать свержение государственной власти и сепаратизм, выступать против социалистического строя, становиться главами культов и религиозных организаций и пропагандировать терроризм, экстремизм и «исторический нигилизм» (历史虚无主义, аналог российского «искажения истории» и «реабилитации нацизма»). Отдельно отмечается, что если картинка похожа на китаянку или китайца, она не может «наносить ущерб имиджу» государства дизайном , одеждой, символикой и анимацией.
Также закон запретит ИИ-порно и азартные игры с участием сгенерированных персонажей, равно как и недостоверную рекламу с участием таких картинок. Доступ детей к персонажам с «имитацией близких отношений» также будет заблокирован. Аналогичная судьба ждёт ИИ-персонажей, которых в китайской историографии показывают как положительных и которых разработчики решат неоднозначно показать. Отдельно прописано, что реалистичные изображения не должны использоваться для обхода распознавания по лицу.
Тем временем, Министерство промышленности и информационных технологий и ещё десять ведомств правительства КНР опубликовали новые правила «этической экспертизы и обслуживания в сфере ИИ». Правила позиционируются как временные, но уже официально вступили в силу. Под них попадут все разработчики, научные центры, медицинские учреждения и прочий бизнес, а также госучреждения, которые имеют отношение к нейросетям. В орган будет входить минимум пять экспертов. Все организации должны будут создать специальные этические комитеты по ИИ. Эти группы обязаны будут «усиливать меры по предотвращению этических рисков», разрабатывать системы проверки нейросетей на этичность и защищать «интеллектуальную собственность» ИИ внутри Китая. Организация не должна запускать свою модель в публичный доступ, пока члены комитета не подтвердят, что она «этичная». Если нейросеть окажется «неэтичной», отвечать будут как разработчики, так и члены комитетов, которые должны были их проверять.
Этичные нейросети должны улучшать благополучие человечества, избегать дискриминации и «угнетения алгоритмами», быть «инклюзивными», иметь «стоп-кран» на случай ЧС, быть понятными для чиновников и силовиков, вести журнал действий, а также защищать личные данные китайцев. Проверка будет длиться до 30 дней. Позже модели будут «перепроверять» на этичность примерно раз или два в год.
Недавно американская пресса писала, что китайские фирмы начали отслеживать передвижение американских войск при помощи спутников и ИИ. В Конгрессе США предложили запретить госзакупки с разработчика чат-бота DeepSeek из-за сотрудничества компании с властями КНР.