По состоянию на воскресенье в Европейском союзе регуляторы блока могут запретить использование систем ИИ, которые они считают «неприемлемым риском» или вредом.
2 февраля является первым сроком соответствия для У меня есть актКомплексная нормативно -правовая база, которую Европейский парламент, наконец, одобрил в марте прошлого года после многих лет развития. Закон официально вступил в силу 1 августа; То, что сейчас следует, является первым из сроков соответствия.
Специфика изложена в статье 5но в целом, акт предназначен для охвата множества вариантов использования, когда ИИ может появиться и взаимодействовать с людьми, от потребительских приложений до физической среды.
Под Подход блокасуществует четыре широких уровня риска: (1) минимальный риск (например, фильтры по электронной почте) не сталкиваются с нормативным надзором; (2) ограниченный риск, который включает в себя чат-боты обслуживания клиентов, будет иметь регулирующий надзор за светом; (3) Высокий риск — AI для рекомендаций по здравоохранению является одним из примеров — столкнется с тяжелым нормативным контролем; и (4) неприемлемые приложения риска — в центре внимания требований этого месяца — полностью запрещено.
Некоторые из неприемлемых действий включают:
- ИИ используется для социальной оценки (например, создание профилей рисков на основе поведения человека).
- ИИ, который манипулирует решением человека подсознательно или обманчиво.
- ИИ, который использует уязвимости, такие как возраст, инвалидность или социально -экономический статус.
- ИИ, который пытается предсказать людей, совершающих преступления, основанные на их внешности.
- ИИ, который использует биометрические данные, чтобы вывести характеристики человека, например, его сексуальная ориентация.
- ИИ, который собирает биометрические данные «в реальном времени» в общественных местах для целей правоохранительных органов.
- ИИ, который пытается вывести эмоции людей на работе или в школе.
- ИИ, который создает — или расширяет — базы данных распознавания лиц путем соскоба изображений онлайн или из камер безопасности.
Компании, которые, как установлено, используют любое из вышеперечисленных приложений для ИИ в ЕС, будут подвергаться штрафам, независимо от того, где они находятся в штаб -квартире. Они могут быть на подключении до 35 миллионов евро (~ 36 миллионов долларов), или 7% от годового дохода с предыдущего финансового года, в зависимости от того, что больше.
Штрафы не начнут в течение некоторого времени, отметил Роб Сумрой, глава отдела технологий в британской юридической фирме и Мэй, в интервью TechCrunch.
«Ожидается, что организации будут полностью соответствовать 2 февраля, но… следующий большой срок, о котором должны знать компании, — это в августе», — сказал Самрой. «К тому времени мы узнаем, кто такие компетентные органы, и вступление в силу штрафы и правоприменение».
Предварительные обещания
Крайний срок 2 февраля в некотором роде является формальностью.
В сентябре прошлого года более 100 компаний подписали Я Ай Пактдобровольное обещание начать применение принципов Закона AI в преддверии его вступления в применение. В рамках договора подписавшие, которые включали в себя Amazon, Google и Openai, приверженные определению систем ИИ, вероятно, будут классифицированы как высокий риск в соответствии с Законом об ИИ.
Некоторые технические гиганты, особенно мета и яблоки, пропустили договор. Французский стартап ИИ Мистральодин из самых жестких критиков Закона ИИ, также решил не подписывать.
Это не означает, что Apple, Meta, Mistral или другие, которые не согласились с договором, не будут выполнять свои обязательства, включая запрет на неприемлемо рискованные системы. Сумрой отмечает, что, учитывая характер запрещенных вариантов использования, большинство компаний в любом случае не будут участвовать в этой практике.
«Для организаций ключевой проблемой в отношении Закона ЕС является то, будут ли четкие руководящие принципы, стандарты и кодексы поведения вовремя, и, что значительно, будут ли они ясно предоставлять организации по соблюдению», — сказал Самрой. «Однако до сих пор рабочие группы соблюдают свои сроки по кодексу поведения для… разработчиков».
Возможные исключения
Существуют исключения из нескольких запретов Закона АИ.
Например, Закон позволяет правоохранительным органам использовать определенные системы, которые собирают биометрические данные в общественных местах, если эти системы помогают выполнить «целевой поиск», скажем, жертвы похищения или для предотвращения «конкретной, существенной и неизбежной» угрозы к жизни. Это освобождение требует разрешения от соответствующего руководящего органа, и Закон подчеркивает, что правоохранительные органы не могут принять решение, которое «дает неблагоприятный юридический эффект» для лица, основанного исключительно на результатах этих систем.
Закон также вызывает исключения для систем, которые выводят эмоции на рабочих местах и школах, где существует оправдание «медицинской или безопасности», такие как системы, предназначенные для терапевтического использования.
Европейская комиссия, исполнительная власть ЕС, сказал, что это выпустит дополнительные рекомендации В «начале 2025 года» после консультации с заинтересованными сторонами в ноябре. Однако эти руководящие принципы еще не опубликованы.
Самрой сказал, что также неясно, как другие законы в книгах могут взаимодействовать с запретами Закона ИИ и связанными с ними положениями. Ясность может прибыть не до конца года, когда приближается окно правоприменения.
«Для организаций важно помнить, что регулирование ИИ не существует в изоляции», — сказал Самрой. «Другие правовые рамки, такие как GDPR, NIS2 и DORA, будут взаимодействовать с Законом ИИ, создавая потенциальные проблемы, особенно в отношении совпадающих требований уведомления о инцидентах. Понимание того, как эти законы сочетаются друг с другом, будет столь же важным, как и понимание самого акта ИИ ».