Вышел законопроект об ИИ, вступление которого намечено на сентябрь 2027 г. Но если прочитать текст целиком, становится ясно, что этот закон легализует кражу контента для одних и ломает фундаментальные алгоритмы продаж для других. Фактически, это первая попытка переписать правила игры и заключить новый общественный договор в цифровой среде.
Закон впервые лезет практически во все серые зоны, в которых мы привыкли работать:
Маркировка контента перестает быть доброй волей. Платформы обяжут внедрять автоматические детекторы (ст. 12 ч. 4), а обычным пользователям будет грозить ответственность за затирание "водяных знаков" (ст. 12 ч. 7). Если алгоритм пропустит дипфейк без плашки — отвечать будут все по цепочке.
Разработчикам ИИ теперь легально разрешили пылесосить чужой контент для обучения моделей без согласия авторов (ст. 13 ч. 5). Авторов просто лишили права на защиту ради прогресса ИИ, хотя, справедливости ради, до этого парсили и так без спроса.
Вводится запрет на использование ИИ для эксплуатации уязвимостей человека и воздействия на поведение (ст. 3 п. 14, ст. 10 ч. 2). Если норму не пересоберут только под LLM, то под удар попадают все фундаментальные рекомендательные алгоритмы Яндекса, Сбера и ВК, эксплуатирующие срочность в такси или эмоции в рекламе.
Гражданам дают право на отказ от ИИ (ст. 9 ч. 3). Бизнес обяжут по первому требованию (если это предусмотрено законом) переключать клиента на живого оператора. С одной стороны это понизит произвол, но с другой — открывает портал для потребительского экстремизма, так как регламента проверки человечности нет, и пользователи будут массово парализовать работу поддержек. Кто будет контролировать, что это реальный человек, а не ИИ с другим промптом, и как это реализуют — непонятно.
Вводится право на прозрачность: вы будете знать, когда решение по вам принял алгоритм (ст. 9 ч. 2). И здесь же заложена бомба — право на досудебное обжалование (ст. 9 ч. 4). Это значит, что госорганам и компаниям с госучастием придется как-то объяснять логику «черного ящика», что технически почти невозможно.
Уморительным показалось введение требований к ИИ по учету духовно-нравственных ценностей (ст. 4 п. 6). Кто и как будет это отслеживать? Есть риск, что это превратится в цензуру как в условном DeepSeek, когда ничего плохого нельзя генерировать про Китай.
Важно понимать, что сейчас это только проект. До сентября 2027 года его будут не раз переписывать под настроения общества и бизнеса и под давлением лоббистов. Например, то же ограничение запрета на манипуляции, чтобы оно распространялось не на весь ИИ, а только на LLM. К тому же есть риски, что бюрократия и крупные игроки просто не позволят предоставляемыми государством льготами (доступ к электричеству и суперкомпьютерам) пользоваться другим, менее крупным игрокам.
Это сложный баланс, а не игра в одни ворота. Государство дает бизнесу право пылесосить чужой контент и льготы. Бизнес взамен берет на себя тотальный контроль и ответственность за безопасность. Люди же получают защиту от манипуляций ценой окончательной потери приватности своего контента. Вопрос лишь в том, не окажется ли этот договор кабальным для обычного пользователя.
Следите за обновлениями в канале в Telegram | Vk
🔥 В закрепе канала также можно забрать чек-лист по зачистке цифрового следа.