Верховный комиссар ООН по правам человека Мишель Бачелет на этой неделе призвала ввести мораторий на продажу и использование систем искусственного интеллекта, которые представляют “серьезный риск для прав человека». Г-жа Бачелет заявила, что до возобновления разработки таких систем должны быть приняты надлежащие гарантии и что любые системы, которые не могут использоваться в соответствии с международной декларацией прав человека, должны быть запрещены.

“Искусственный интеллект может быть силой добра, помогая обществам преодолевать некоторые из величайших вызовов нашего времени. Но технологии искусственного интеллекта могут иметь негативные, даже катастрофические последствия, если их использовать без достаточного учета того, как они влияют на права людей”, — напомнила г-жа Бачелет.

Конечно, определить, какие системы представляют угрозу для прав человека, — не всегда простая задача. Совет по правам человека приводит несколько примеров в новом докладе, в том числе системы, которые “углубляют нарушения конфиденциальности” за счет более широкого использования персональных данных и “приводят к дискриминационным решениям”. Но, как следует из недавних комментариев, представленных Европейскому парламенту и Европейскому совету, определения “рискованного” могут сильно различаться в зависимости от заинтересованной стороны.

Как недавно написал Хари Джонсон из Wired, некоторые компании, реагирующие на Закон об ИИ Европейского союза, который предлагает надзор за “высокорискованным” ИИ, считают, что законодатели заходят слишком далеко с ограничивающими инновации и потенциально дорогостоящими законопроектами. Между тем правозащитные группы и специалисты по этике утверждают, что этого недостаточно, поскольку обыватели остаются уязвимыми для тех, у кого есть ресурсы для развертывания мощных алгоритмов.

В то время как согласованное определение “риска” пока так и не выработано, особенно в связи с тем, что такие компании, как Alphabet, DeepMind и OpenAI, работают над универсальными многозадачными системами, которые бросают вызов традиционным определениям, в докладе Совета по правам человека представлены способы предотвращения и ограничения вреда, наносимого ИИ. Например, в докладе утверждается, что развитие ИИ должно быть справедливым и недискриминационным, с участием и подотчетностью, которые должны стать основными составляющими процессов. Кроме того, в нем заявлено, что требования законности, необходимости и соразмерности должны “последовательно применяться” к технологиям ИИ, которые следует развернуть таким образом, “чтобы способствовать реализации экономических, социальных и культурных прав”.

“ИИ теперь проникает почти во все уголки нашей физической и умственной жизни и даже в эмоциональные состояния. Системы искусственного интеллекта используются для определения того, кто получает государственные услуги, решают, у кого есть шанс быть принятым на работу, и, конечно, они влияют на то, какую информацию люди видят и могут делиться в Интернете, — указала в своем выступлении Мишель Бачелет. — Мы не можем позволить себе продолжать играть в догонялки в отношении ИИ: разрешать его использование с ограниченными границами или без каких-либо ограничений или надзора и иметь дело с почти неизбежными последствиями для прав человека после этого… Сейчас необходимы действия, чтобы ограничить использование ИИ в области прав человека на благо всех нас”.

Источник: https://venturebeat.com/2021/09/17/ai-weekly-un-proposes-moratorium-on-risky-ai-while-iclr-solicits-blog-posts/

от AI_NEWS

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *