Где находятся регулирования ИИ в ЕС, по мнению технического юриста

В плане регулирования ИИ, Европейский Союз (ЕС) является ранним участником. За последние 3 года ЕС работал над Законом об искусственном интеллекте (или Законом ЕС об ИИ), который близок к становлению законом. Это будет первый в мире закон, широко регулирующий системы ИИ во всех секторах, исходя из их уровня риска.
Но поддержит ли этот закон индустрию ИИ или навредит ей? В этой статье я объясню основы Закона ЕС об ИИ и почему я считаю его несовершенным, но разумным стандартом для обеспечения безопасных и ответственных систем ИИ.

Как работают законы ЕС?

ЕС — это не страна, а политический и экономический союз из (в настоящее время) 27 стран на европейском континенте с 1993 года. Каждое государство-член остается независимым, но ЕС в целом может создавать регламенты, которые напрямую обязательны для государств-членов, или «директивы», которые должны быть введены государствами-членами в их собственное национальное законодательство.

Государства-члены затем работают вместе над разработкой, согласованием и утверждением законов ЕС.

Введение закона ЕС об ИИ

С 2021 года законодатели ЕС работают над Законом ЕС об ИИ, который станет законом «единого окна» для регулирования ИИ. Закон ЕС об ИИ также закроет пробелы, оставленные другими законами ЕС, которые регулируют только конкретные аспекты ИИ в индивидуальном порядке. Например, Общий регламент по защите данных (GDPR) о конфиденциальности и Акт о цифровых услугах о безопасности в Интернете.

2 февраля законодатели ЕС завершили работу над черновым текстом закона, который теперь будет формально утверждаться в Европейском парламенте (и, вероятно, вступит в силу в этом году).

Как будет работать закон ЕС об ИИ?

Закон ЕС об ИИ охватит все типы «систем ИИ» в целом (не только определенный сектор), и они будут регулироваться исходя из их уровня риска.

«Запрещенные» системы относятся к ИИ, используемым для манипулирования поведением, эксплуатации уязвимых людей и социальной оценки.

«Высокорисковые» системы включают те, которые представляют значительную угрозу для здоровья, безопасности или основных прав.

«Ограниченные риски» системы используются в критических секторах, но не представляют высокой опасности.

«Модели ИИ общего назначения» (GPAI модели) охватывают большие языковые модели, такие как GPT-4 и Gemini.

Сделал ли ЕС правильный ход?

В общем, Закон ЕС об ИИ представляет собой разумный шаг к защите общества от вредных и опасных приложений ИИ.

  1. Слабое определение для «систем ИИ»
  2. Пробелы в правилах GPAI Моделей
  3. Ответственность все еще не ясна

Важно отметить, что закон будет применяться как внутри ЕС, так и за его пределами.

Примечание редактора: эта статья не предназначена для предоставления юридических консультаций или для того, чтобы быть всеобъемлющим руководством или справочником.