EU AI Act: как хотят навести порядок в мире искусственного интеллекта

Искусственный интеллект перестал быть чем-то далёким и абстрактным. Сегодня он пишет тексты, управляет логистикой, подбирает кандидатов на работу и даже помогает врачам ставить диагнозы. Но вместе с ростом возможностей ИИ растут и риски — от нарушения авторских прав до реальной угрозы безопасности.

В Европе решили, что пора перестать полагаться на добрую волю разработчиков и создать чёткие правила игры. Так появился EU AI Act — первый в мире масштабный закон, регулирующий работу искусственного интеллекта.

Что это за закон

EU AI Act приняли летом 2024 года, а в 2025 началась его поэтапная реализация. Документ распространяется на все страны ЕС и действует даже за его пределами, если компания предлагает свои ИИ-услуги европейским пользователям. В нём нет мелочей — от запретов на опасные технологии до требований прозрачности и строгих стандартов для разработчиков. И главное — за нарушение можно заплатить дорого: штрафы достигают 7 % от мирового оборота компании или €35 млн.

Как он устроен

Закон построен вокруг идеи, что не все ИИ-системы одинаково опасны. Чем выше потенциальный вред, тем жёстче требования. Самые опасные сценарии, вроде социального рейтинга или скрытого манипулирования поведением, полностью запрещены. Высокорискованные технологии — например, в медицине, транспорте или правосудии — можно использовать только при строгом контроле и документировании. Более «лёгкие» случаи, вроде чат-ботов или генераторов изображений, разрешены, но требуют честного уведомления пользователей о том, что они взаимодействуют с ИИ.

Особое внимание — крупным моделям

Отдельная глава закона посвящена так называемому General-Purpose AI — это универсальные модели вроде ChatGPT, Claude или Midjourney. Им придётся раскрывать, на каких данных они обучались, уважать авторские права и постоянно отслеживать свои системные риски.

Летом 2025 года Еврокомиссия выпустила для них Кодекс практики — набор рекомендаций, который помогает разработчикам соответствовать закону. Формально он добровольный, но игнорировать его рискованно: это будет учтено при проверках.

Классификация ИИ по уровню риска

Закон вводит систему из четырёх категорий:

  • Запрещённый риск — социальный рейтинг, скрытые манипуляции, массовое распознавание эмоций в школах и на работе. Полный запрет.
  • Высокий риск — медицина, транспорт, образование, правосудие, подбор персонала. Требуется лицензирование, контроль, документация и человеческий надзор.
  • Ограниченный риск — чат-боты, deepfake. Разрешены, но с обязательной маркировкой и уведомлением пользователей.
  • Минимальный риск — игры, фильтры спама. Особых требований нет.

Когда это заработает

С февраля 2025 года начали действовать запреты на опасные применения и требования по маркировке ИИ-систем. С августа 2025-го вступили в силу правила прозрачности и управления рисками для универсальных моделей. Параллельно заработали AI Office и AI Board — структуры, которые следят за исполнением закона и помогают компаниям адаптироваться.

Зачем это всё

EU AI Act — это не попытка задушить технологии, а способ выстроить баланс между инновациями и безопасностью. Он даёт понять: Европа готова быть площадкой для развития ИИ, но только при соблюдении принципов прозрачности, ответственности и уважения к правам пользователей. Для бизнеса это не просто новые обязательства, а возможность работать на крупнейшем рынке мира с ясными и предсказуемыми правилами.

Мы подключим ИИ и сделаем красиво

Не обязательно точно знать, чего хочешь — просто опиши, с чем сейчас
сложно или что хочется улучшить. Мы предложим решение и покажем, как это работает.

    Прокрутить вверх
    Обзор конфиденциальности

    На этом сайте используются файлы cookie, что позволяет нам обеспечить наилучшее качество обслуживания пользователей. Информация о файлах cookie хранится в вашем браузере и выполняет такие функции, как распознавание вас при возвращении на наш сайт и помощь нашей команде в понимании того, какие разделы сайта вы считаете наиболее интересными и полезными.