В правительстве предложили обязать разработчиков внедрять традиционные ценности в ИИ

Кабмин РФ хочет принять закон о доверенных моделях ИИ, в которых будет предупреждение о сгенерированном контенте и обязательные духовные ценности. Текст выложили на официальном портале.

Формальным разработчиком законопроекта числится непосредственно правительство. Новый закон будет называться «Об основах государственного регулирования сфер применения технологий искусственного интеллекта в Российской Федерации». Сейчас текст проходит этап публичного обсуждения. Для принятия он должен пройти парламент.

Чиновники обещают обеспечить «правовые условия для ускоренного развития и внедрения технологий искусственного интеллекта», а также обеспечить «безопасность личности, общества и государства», а также внедрить «государственный технологический суверенитет» в этой области.

Закон носит рамочный характер. В нём прописано, на основании каких принципов должны работать российские нейросети и как государство будет за ними следить. В частности, чиновники пообещали использовать «риск-ориентированный подход к регулированию применения искусственного интеллекта», с учётом вероятности «причинения вреда и масштабам причиняемого ущерба жизни и здоровью» граждан, «деловой репутации и имуществу физических и юридических лиц», а также «безопасности и технологической независимости государства». Также, как следует из текста, власти планируют оценивать «степень автономности» систем с ИИ и «степень влияния систем на принятие юридически значимых действий».

Разработчиков обязали запретить нейросетям дискриминацию людей, «документировать архитектуру» своих программ и проверять результаты работы на безопасность. Крупные сервисы будут вносить в реестр обязанных сотрудничать с ФСБ (печально известный список ОРИ).

Отдельно прописано, что российский ИИ должен помогать чиновникам «сохранять традиционные российские духовно-нравственные ценности». Модели, как следует из закона, должны быть «суверенными и национальными». Власти будут вести список «доверенных моделей» искусственного интеллекта. Что произойдёт с «недоверенными», не уточняется.

Ещё одна формулировка, насколько можно судить, должна защитить создателей ИИ-контента от исков об авторских правах. Согласно проекту, объектами интеллектуальной деятельности будут считать только «оригинальные творения, соответствующие критериям охраноспособности, установленным гражданским законодательством», независимо от того, использовался ли ИИ при создании контента. При этом текст составлен таким образом, что никаких гарантий в нём на самом деле нет. Вероятно, окончательное слово будет оставаться за судом.

«Не является нарушением авторских и (или) патентных прав их правообладателей извлечение информации из объектов, защищенных авторскими или патентными правами, включающее в том числе в рамках компьютерной обработки извлечение, сравнение, классификацию и анализ закономерностей, тенденций и корреляций, содержащихся в этих объектах, для изготовления набора данных и (или) обучения искусственного интеллекта при условии, что изготовителем набора данных или разработчиком был получен правомерный экземпляр такого произведения, либо этот объект был доведен до всеобщего сведения и (или) доступен для анализа», — говорится в законе.

Часть положений, похоже, взяли из европейских версий законов об ИИ. В частности, отдельная статья посвящена тому, чтобы разработчики нейросетей внедряли обязательное «информационное предупреждение о применении технологий искусственного интеллекта для создания синтезированного материала». Соцсети обязаны будут искать сгенерированный с помощью нейросетей контент и, если он не помечен, принудительно помечать его или удалять со своих серверов.

Из документа следует, что власти сами планируют использовать автоматизированное принятие решений при помощи ИИ (в целом, штрафы по камерам уже можно считать примером такой системы). В тексте указано, что граждане смогут в досудебном порядке обжаловать решения и бездействие госорганов, «принятых или совершенных с использованием технологий искусственного интеллекта». Другими словами, формально, государство будет принимать заявления с жалобами на неправильные решения.