EU AI Act: что значит новый закон об ИИ для бизнеса в 2025

Искусственный интеллект перестал быть чем-то далёким и абстрактным. Сегодня он пишет тексты, управляет логистикой, подбирает кандидатов на работу и даже помогает врачам ставить диагнозы. Но вместе с ростом возможностей ИИ растут и риски — от нарушения авторских прав до реальной угрозы безопасности.

В Европе решили, что пора перестать полагаться на добрую волю разработчиков и создать чёткие правила игры. Так появился EU AI Act — первый в мире масштабный закон, регулирующий работу искусственного интеллекта.
Что это за закон
EU AI Act приняли летом 2024 года, а в 2025 началась его поэтапная реализация. Документ распространяется на все страны ЕС и действует даже за его пределами, если компания предлагает свои ИИ-услуги европейским пользователям. В нём нет мелочей — от запретов на опасные технологии до требований прозрачности и строгих стандартов для разработчиков. И главное — за нарушение можно заплатить дорого: штрафы достигают 7 % от мирового оборота компании или €35 млн.
Как он устроен
Закон построен вокруг идеи, что не все ИИ-системы одинаково опасны. Чем выше потенциальный вред, тем жёстче требования. Самые опасные сценарии, вроде социального рейтинга или скрытого манипулирования поведением, полностью запрещены. Высокорискованные технологии — например, в медицине, транспорте или правосудии — можно использовать только при строгом контроле и документировании. Более «лёгкие» случаи, вроде чат-ботов или генераторов изображений, разрешены, но требуют честного уведомления пользователей о том, что они взаимодействуют с ИИ.
Особое внимание — крупным моделям
Отдельная глава закона посвящена так называемому General-Purpose AI — это универсальные модели вроде ChatGPT, Claude или Midjourney. Им придётся раскрывать, на каких данных они обучались, уважать авторские права и постоянно отслеживать свои системные риски.

Летом 2025 года Еврокомиссия выпустила для них Кодекс практики — набор рекомендаций, который помогает разработчикам соответствовать закону. Формально он добровольный, но игнорировать его рискованно: это будет учтено при проверках.
Классификация ИИ по уровню риска
Закон вводит систему из четырёх категорий:

  • Запрещённый риск — социальный рейтинг, скрытые манипуляции, массовое распознавание эмоций в школах и на работе. Полный запрет.
  • Высокий риск — медицина, транспорт, образование, правосудие, подбор персонала. Требуется лицензирование, контроль, документация и человеческий надзор.
  • Ограниченный риск — чат-боты, deepfake. Разрешены, но с обязательной маркировкой и уведомлением пользователей.
  • Минимальный риск — игры, фильтры спама. Особых требований нет.
Когда это заработает
С февраля 2025 года начали действовать запреты на опасные применения и требования по маркировке ИИ-систем. С августа 2025-го вступили в силу правила прозрачности и управления рисками для универсальных моделей. Параллельно заработали AI Office и AI Board — структуры, которые следят за исполнением закона и помогают компаниям адаптироваться.
Зачем это всё
EU AI Act — это не попытка задушить технологии, а способ выстроить баланс между инновациями и безопасностью. Он даёт понять: Европа готова быть площадкой для развития ИИ, но только при соблюдении принципов прозрачности, ответственности и уважения к правам пользователей. Для бизнеса это не просто новые обязательства, а возможность работать на крупнейшем рынке мира с ясными и предсказуемыми правилами.
Хочешь своего крутого ИИ-ассистента?
Оставь заявку и мы обсудим, как
автоматизировать рутину в твоем отделе.
Нажимая кнопку «Отправить», ты даёшь согласие на обработку Персональных данных