Как на бизнес повлияет правовое регулирование нейросетей

Бизнес уже широко применяет искусственный интеллект. Поэтому регуляторы задумываются о подготовке нормативной базы, которая будет регламентировать правила использования ИИ. Грядущие изменения могут повлиять на работу субъектов хозяйствования.
В России уже подготовлен законопроект о регулировании искусственного интеллекта. В Беларуси аналогичную инициативу весной поддержал Конституционный суд. Кроме того, в мае стало известно, что Национальный центр защиты персональных данных планирует подготовить изменения в соответствующее законодательство, и, видимо, они также будут касаться использования ИИ. Во всяком случае в НЦЗПД указывают на «важность сочетания цифрового развития, применяемых передовых технологий с комплексными мерами по защите личной информации граждан».
«ЭГ» попросила поделиться мнением по теме регулирования нейросетей эксперта по вопросам интеллектуальной собственности и защите персональных данных, старшего юриста ООО «Степановский, Папакуль и партнеры. Юридические услуги» Надежду ШАКЕЛЬ.
– Надежда, как вы думаете, в каком направлении, вероятнее всего, будет корректироваться законодательство о персональных данных и коснутся ли эти изменения правил использования искусственного интеллекта?

– Законодательство, вероятно, будет меняться прежде всего потому, что правоприменительная практика, которая складывалась последние несколько лет, и возникающие вопросы показали необходимость внесения отдельных корректировок. Это важно в т.ч. для недопущения правовых коллизий.
Например, ст. 10 Закона от 07.05.2021 № 99-З «О защите персональных данных» говорит о том, что операторы обработки персональных данных, т.е. субъекты хозяйствования, обязаны прекратить обработку персональных данных граждан, осуществить их удаление, принять меры «по недопущению дальнейшей обработки» личных сведений граждан и уведомить их об этом после «окончания срока действия договора».
Однако другим НПА определены сроки хранения документов. Согласно Перечню типовых документов, образующихся в процессе деятельности государственных органов, иных организаций и индивидуальных предпринимателей, с указанием сроков хранения, утв. постановлением Минюста от 24.05.2012 № 140, отдельные договоры должны храниться 3 года, а в ряде случаев и более. Возникает вопрос: как и когда необходимо реализовывать указанное требование Закона о защите персональных данных, направить соответствующее уведомление субъекту? Имеются и иные проблемы. Поэтому Закон о защите персональных данных будет совершенствоваться.
И да, что касается обработки персональных данных нейросетями, полагаю, что корректировки законодательства эту практику также обязательно затронут. Нейросети обучаются на больших данных, и очень часто датасеты включают сведения о людях. Поэтому законодательство должно учитывать вопросы защиты (безопасного использования) персональных данных при их обработке нейросетями. Внимание этому в республике уделяется уже сегодня – перечисленные аспекты в числе прочего были предметом сложной дискуссии на заседании Консультативного совета НЦЗПД в марте 2025 г.
– Насколько масштабным может быть контроль государства за использованием искусственного интеллекта?
– Сейчас ИИ не просто используется субъектами хозяйствования, а интегрируется в различные приложения, сервисы и «вшивается» в оборудование. Поэтому все идет к тому, что человечество хочет или нет, а будет использовать решения, которые в т.ч. созданы благодаря искусственному интеллекту.
Соответственно, контролировать любое использование ИИ везде вряд ли получится, и, скорее всего, это законодателям не нужно. А вот точечный контроль в отношении чувствительных вопросов, которые, по мнению государства, крайне важны, вполне вероятен.
– Уже обозначены планы и в России, и в Беларуси подготовить законодательство, которое будет описывать и регламентировать использование технологий искусственного интеллекта. Какие предложения звучат в юридическом сообществе на предмет регулирования данной сферы?
– Звучат разные предложения, которые вызывают дискуссии. Например, нужно ли организациям информировать об использовании искусственного интеллекта и в каком объеме? С одной стороны, человеку может быть важно знать о том, что, например, решение о его приеме на работу «принято» искусственным интеллектом. И если такая программа в организации одна, как это было раньше, то информирование об использовании такого инструмента, казалось бы, не сложно.
Но эта логика сегодня уже не представляется мне уместной и применимой. Если ранее нейросети использовали считанные организации для отдельных процессов, то за последние год-полтора технологии стали массовыми.
Сегодня невозможно найти организацию, которая бы не использовала ИИ, поскольку такие инструменты становятся частью, по сути, почти всего программного обеспечения, даже обычных программ по редактированию текста и изображений.
Как следствие, информирование об использовании ИИ сегодня само по себе будет сродни размещению информации о том, что у организации есть компьютеры и иные привычные устройства для работы. И в таком случае это мало что дает для защиты прав граждан.
По мнению ряда экспертов, которое я также разделяю, на данном этапе, пока идет активное развитие ИИ и не понятны в полной мере возможности его использования, законодательство не должно чрезмерно ограничивать разработчиков нейросетей (а также основанных на их базе сервисов) и их пользователей.
Регулирование требуется для того, чтобы определить, какое применение искусственного интеллекта разрешено, а что точно запрещено. Такие меры желательно внедрять с учетом международного опыта, чтобы была выше уверенность в их целесообразности и эффективности.
– Насколько серьезно в других юрисдикциях сейчас регламентируются процессы использования бизнесом искусственного интеллекта?
– В целом развитие практики использования систем ИИ приводит к тому, что внимание к этой сфере растет, есть примеры достаточно интересной регламентации.
Так, в Европейском союзе системы искусственного интеллекта разделены на несколько категорий в зависимости от рисков их использования, и при этом некоторые прямо отнесены к запрещенным. В частности, разработчики не могут создавать нейросети для анализа поведения людей и построения на основе этого их социального рейтинга.
Поскольку у нас небольшая страна и количество разработчиков нейросетей относительно невелико, лично я не жду многочисленных регуляторных ограничений для этой категории субъектов хозяйствования. Хотя определенные принципы и стандарты поведения целесообразно определить. Это связано с тем, что многие бизнесы предлагают сейчас решения по интеграции систем ИИ в работу организаций, что требует понимания возможных ограничений.
С учетом мировых трендов к пользователям нейросетей также может быть предъявлен ряд требований, позволяющих снизить риски в работе с ИИ, вероятность привлечения к ответственности.
Например, широкое распространение в социальных сетях получают изображения и видео, созданные благодаря дипфейку – технологии ИИ для генерации псевдореалистичных видеороликов или изображений. Сейчас они бывают неотличимы от реальности, поэтому, наверное, логично введение обязательной маркировки такого контента, особенно если он носит спорный, шокирующий характер, касается деятельности известных личностей.
Однако тут тоже важен баланс, т.к. маркировка абсолютно любого контента может быть избыточной. Например, если компания создаст свой логотип или слайд в презентацию или же «улучшит» текст письма для ответа клиенту, то по большому счету такое использование не требует маркировки, иных мер по информированию публики.
– Какие правила, ограничения и последствия могут возникнуть в Беларуси для корпораций после введения регулирования в области ИИ? К чему стоит готовиться белорусскому бизнесу?
– Безусловно, любое регулирование устанавливает определенные «правила игры», а значит, те или иные ограничения неизбежны.
Системы искусственного интеллекта – это, к сожалению, в определенном смысле черный ящик. Пользователи часто не могут в полной мере понять, как файлы, загружаемые в такие системы, впоследствии будут использоваться и какие в связи с этим существуют риски.
Соответственно, чем более чувствительная информация может быть загружена в системы ИИ, тем более обоснованы меры и правила, направленные на снижение рисков для организаций.
Тема для Беларуси особенно актуальна, поскольку большинство сервисов нейросетей не белорусские, и даже не российские. Поэтому они находятся за рамками контроля регуляторов и коммерческих организаций двух стран. Мы не всегда знаем, какие данные они собирают, куда передают, как далее используют. Поэтому, понимая, что до принятия конкретных норм может пройти много времени, субъектам хозяйствования рекомендуется уже сейчас оценивать возможные риски.
С учетом этого можно допустить, что правовые ограничения на использование систем искусственного интеллекта могут быть введены и, как следствие, возникнет также ответственность для нарушителей законодательных норм. Однако такая работа является сложной, комплексной, требует учета разнообразия, распространенности и доступности систем ИИ в современном мире.
При этом я очень надеюсь, что, когда такое регулирование возникнет, оно будет максимально четким и понятным для бизнеса.