В Европе всё серьёзно: амбициозный закон по искусственному интеллекту уже действует и предъявляет конкретные требования. Компании предупреждают: «Слишком быстро, непонятно, как соответствовать». Особенно это касается тех, кто использует сложные модели вроде ChatGPT или аналогичные.
Суть закона состоит в том, что любые «высокорисковые» системы должны быть прозрачными, проверяемыми и безопасными. За нарушение — огромные штрафы. При этом конкретные инструкции для бизнеса, которые должны помочь ориентироваться, пока задерживаются. В Европе объявили — с ИИ шутки кончились.
Со 2 февраля 2025 года запрещены системы с «неприемлемым риском» — например, соц‑скоринг граждан, слежка с анализом эмоций в реальном времени.
Со 2 августа 2025 года начали работать правила для «систем общего назначения» — как ChatGPT или Gemini. Разработчики должны раскрывать данные обучения, давать «читаемое» резюме и обеспечивать прозрачность работы алгоритмов.
За нарушение предусмотрены штрафы — до 7% от мирового оборота компании либо до 35 млн евро.
Закон действует не только в Европейском Союзе. Если фирма предлагает ИИ‑систему в Европе или её результат попадает туда — правила применяются.
На практике это означает, что если компания строит чат‑бот, генератор изображений или систему, анализирующую людей, ей предстоят отчёты, проверки и оценка рисков. И если не успеет — могут прийти серьёзные штрафы и репутационные потери. Если продукт выходит на европейский рынок или его используют там, придётся соответствовать правилам.
Закон ставит технологии под жёсткий контроль и определяет, как они влияют на людей. Европейский подход даёт понять, что инновации должны идти вместе с безопасностью и ответственностью, это должно быть главнейшим приоритетом.
Изменение курсов валют










Предыдущая








