Члены Европейского парламента, совета и комиссии достигли предварительного политического соглашения по новому закону о регулировании использования систем искусственного интеллекта. После нескольких месяцев сложных переговоров и финальной трёхдневной сессии страны утвердили список комплексных правил и ограничений для компаний, разрабатывающих непосредственно ИИ и цифровые продукты на основе ИИ-технологий. Глобальный проект также устанавливает ряд обязательств для ИИ в Европе с учётом его рисков и уровня воздействия на национальную безопасность и гражданскую инфраструктуру. Соответствующий пресс-релиз опубликован на официальном сайте Европарламента.
Признавая потенциальную угрозу правам граждан и демократии, законодатели ЕС согласились запретить для 27 европейских стран:
- системы биометрической категоризации, использующие чувствительные характеристики (политические, религиозные или философские убеждения, сексуальная ориентация, раса);
- нецелевое использование изображений лиц из интернета и материалов публичного видеонаблюдения для создания баз визуальных данных;
- распознавание эмоций на рабочем месте и в учебных заведениях;
- социальная дискриминация, основанная на общественном поведении или личных качествах;
- системы искусственного интеллекта, которые манипулируют поведением человека в целях воздействия на свободу воли;
- злонамеренное использование искусственным интеллектом различных уязвимостей людей (например, возраст, инвалидность, социальный статус или экономическое положение).
Для систем искусственного интеллекта, классифицированных как «подверженные высокому риску», были установлены отдельные обязательства. К таким ситуациям относятся значительный потенциальный вред здоровью, безопасности, основным правам человека, окружающей среде и верховенству закона. ИИ-технологии, влияющие на результаты выборов и поведение избирателей, работу страхового и банковского секторов тоже причислены к категории с высоким уровнем риска. У пользователей будет возможность зарегистрировать персональную жалобу с получением объяснений напрямую от разработчика.
Чтобы учесть широкий спектр задач, которые может выполнять современный ИИ, и быстрое расширение его способностей, помимо прочего было решено, что системы общего назначения должны будут придерживаться требований к прозрачности, первоначально предложенных парламентом. Они включают составление подробной технической документации, соблюдение законодательства ЕС, в том числе об авторском праве, и открытые исследования о методах и контенте, используемом для обучения. Кроме того, если модели соответствуют определённым критериям, то ответственным компаниям придётся проводить оценку их корректности, минимизировать риски в указанных областях, сообщать комиссии о серьёзных инцидентах и обеспечивать кибербезопасность.
Узкие исключения из вышеописанного касаются только правоохранительных органов. Биометрическая идентификация с применением алгоритмов искусственного интеллекта допускается в общедоступных местах в реальном времени при условии наличия судебного разрешения и для преступлений конкретной степени тяжести — строго при целенаправленном поиске лица, осужденного или подозреваемого в совершении тяжкого преступления.
АНБ, ФБР, Министерству обороны и полиции разрешено прибегать к ИИ в следующих инцидентах:
- целенаправленные поиски жертв (похищение, торговля людьми, сексуальная эксплуатация);
- предотвращение настоящей террористической угрозы;
- локализация или идентификация лица, подозреваемого в совершении одного из преступлений, упомянутых в регламенте (терроризм, торговля людьми, сексуальная эксплуатация, убийство, похищение, изнасилование, вооруженное ограбление, участие в преступной организации, экологическое преступление).
Несоблюдение правил может привести к штрафам в размере от 7,5 млн евро (1,5% от мирового оборота) до 35 млн евро (7% от мирового оборота), в зависимости от нарушения и размера компании. Появятся ли другие санкции — не уточняется.