Ставший достоянием прессы проект регламента ЕС об использовании ИИ устанавливает огромные штрафы в размере до 20 миллионов евро или четырех процентов мирового оборота (в зависимости от того, что больше) за неэтичное использование искусственного интеллекта.

Постановление (PDF) было впервые опубликовано Politico и, как ожидается, будет официально представлено на следующей неделе, 21 апреля.

В проекте авторы законопроекта пишут:

“Некоторые виды использования и применения искусственного интеллекта могут создавать риски и наносить ущерб интересам и правам, защищаемым законодательством Союза. Такой вред может быть материальным или нематериальным, поскольку он касается безопасности и здоровья людей, их собственности или других основных прав и интересов личности, охраняемых законодательством Союза.

Правовая база, устанавливающая европейский подход к искусственному интеллекту, необходима для содействия развитию и внедрению искусственного интеллекта, отвечающего высокому уровню защиты общественных интересов, в частности здоровья, безопасности и основных прав и свобод людей, признанных и защищенных законодательством Союза”.

Мало кто спорит о необходимости регулирования ИИ, но вопрос о том, в какой степени он должен контролироваться, остается дискуссионным. Никакой контроль не ставит под угрозу жизнь и конфиденциальность, особенно с хорошо документированными проблемами предвзятости ИИ. Однако чрезмерное регулирование и страх быть наказанным за исследования ИИ в Европе угрожают вытеснить такую важную технологию с континента в менее строгие страны.

ИИ полагается на данные, поэтому влияние GDPR ЕС на исследования стало частью дебатов вокруг этого проекта законодательства (которое несет те же максимальные наказания за нарушения, что и проект правил ИИ). Трудно сказать наверняка, является ли это результатом жесткой нормативной среды, но страны ЕС отстают от лидеров отрасли, таких как США, Китай и Великобритания.

В прошлом году Белый дом даже призвал своих европейских союзников не чрезмерно регулировать искусственный интеллект. В заявлении, опубликованном Управлением по научно-технической политике Белого дома, говорится:

Европа и наши союзники должны избегать жестких моделей, убивающих инновации, и вместо этого рассмотреть аналогичный подход к регулированию.

Лучший способ противостоять авторитарному использованию ИИ — это сделать так, чтобы Америка и наши международные партнеры оставались глобальными центрами инноваций, формируя эволюцию технологий в соответствии с нашими общими ценностями”.

ЕС считает, что он принял “ориентированный на человека” подход к регулированию ИИ, который направлен на достижение баланса между тем, чтобы не предоставлять полную свободу мощным корпорациям, как США, и не использовать технологию для создания антиутопического государства наблюдения 1984 года, как Китай с его социальными системами подсчета очков и массовым распознаванием лиц.

ИИ в полицейской деятельности — один из самых ожесточенно обсуждаемых вопросов, особенно из-за вышеупомянутых проблем предвзятости. Однако технология также обладает огромным потенциалом для борьбы с серьезными преступлениями. В этой области ЕС также пытается найти тонкий баланс, разрешая властям использовать распознавание лиц в общественных местах для борьбы с серьезными преступлениями, если его использование ограничено по времени и географии.

Европейское сотрудничество с США, которое и без того было напряженным в последние годы из-за растущих связей членов ЕС с Россией и Китаем, а также отсутствия приверженности НАТО вкупе с историческим недофинансированием и планами создания армии ЕС, вероятно, будет подвергнуто дальнейшему давлению после ратификации законопроекта.

В дополнение к установлению правил, регулирующих использование ИИ, в проекте также предлагается создать Европейский совет по искусственному интеллекту, в состав которого войдут по одному представителю от каждого члена ЕС, органа ЕС по защите данных и представитель Европейской комиссии.

Источник: https://artificialintelligence-news.com/2021/04/14/eu-regulation-fines-20m-up-4-turnover-ai-misuse/

от AI_NEWS

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *