В статье, опубликованной в рамках Всемирного экономического форума (ВЭФ), утверждается, что существует «огромный разрыв во взаимопонимании» между политиками и создателями ИИ.

В отчёте, написанном Адрианой Бора (Adriana Bora), исследователем политики в области ИИ и менеджером проектов в The Future Society, и Дэвидом Александру Тимишем (David Alexandru Timis), уходящим куратором Высшей школы Университа Брюсселя, исследуются способы решения проблем подотчётности и укрепления доверия с помощью технологий ИИ.

Бора и Тимиш отмечают, что существует «потребность в надёжных механизмах, которые будут генерировать всеобъемлющее и коллективно разделяемое понимание цикла разработки и развёртывания ИИ». В результате, добавляют они, это управление «необходимо разрабатывать в условиях непрерывного диалога с использованием многосторонних и междисциплинарных методологий и навыков».

Проще говоря, обе стороны должны говорить на одном языке. Тем не менее, хотя создатели ИИ обладают информацией и пониманием, того же нельзя сказать об регулирующих органах, отмечают авторы.

«Не так много политических экспертов действительно понимают полный цикл технологии искусственного интеллекта, — отмечается в статье. — С другой стороны, поставщикам технологий не хватает ясности, а иногда и интереса к формированию политики в области ИИ с соблюдением принципов этики».

Примеров неэтичной практики ИИ, когда в системы встроено врождённое предубеждение, можно привести множество. В июле Массачусетский технологический институт извинился за набор данных, который обучал модели ИИ с женоненавистническими и расистскими склонностями, и отключил его от сети. Google и Microsoft также сообщали об ошибках при модерации YouTube и MSN News соответственно.

Под сомнение также ставится технология искусственного интеллекта в правоохранительных органах. В июне более 1000 исследователей, учёных и экспертов подписали открытое письмо, в котором опровергают готовящуюся к публикации статью, где утверждается, что можно предсказать преступность на основе автоматизированного распознавания лиц. Кроме того, в том же месяце начальник полиции Детройта признал, что предоставленная его подчиненным программа распознавания лиц на основе ИИ не работает в подавляющем большинстве случаев.

В последнее время Google подвергается критике: на прошлой неделе уволена Маргарет Митчелл (Margaret Mitchell), которая была одним из руководителей группы по этике ИИ, что усилило негативные отзывы. Митчелл подтвердила своё увольнение в Twitter. В заявлении Google для Reuters говорится, что увольнение последовало за расследованием, в ходе которого Митчелл перенесла электронные файлы за пределы компании.

В декабре Google уволили Тимнит Гебру (Timnit Gebru), ещё одну ведущую фигуру в разработке этики ИИ. Она утверждала, что её уволили из-за неопубликованной статьи и отправки электронного письма с критикой действий компании. Митчелл ранее написала открытое письмо, в котором поделилась «беспокойством» по поводу увольнения. Согласно отчёту Axios, после увольнения Гебру компания внесла изменения в то, «как она решает проблемы, связанные с исследованиями, разногласиями и уходом сотрудников». Как сообщает эта публикация, отставка Гебру вынудила уйти других сотрудников: инженера-программиста Винеша Каннана (Vinesh Kannan) и технического директора Дэвида Бейкера (David Baker).

Бора и Тимиш подчеркнули необходимость «этической грамотности» и «приверженности мультидисциплинарным исследованиям» с точки зрения поставщиков технологий.

«В процессе обучения и в течение своей карьеры технические группы, стоящие за разработками ИИ, не получают методического образования о сложности человеческих социальных систем, о том, как их продукты могут негативно повлиять на общество и как внедрить этику в свои разработки», — отмечается в статье.

«Процесс понимания и признания социального и культурного контекста, в котором развёртываются технологии ИИ, иногда с высокими ставками для человечества, требует терпения и времени, — добавили Бора и Тимиш. — При увеличении инвестиций в ИИ технологическим компаниям рекомендуется определять этические соображения, относящиеся к их продуктам, и прозрачно внедрять решения перед их развёртыванием».

Теоретически это могло бы помочь избежать поспешных отказов и извинений, когда модели ведут себя неэтично. Тем не менее исследователи также подчеркнули, что политикам необходимо действовать.

«Только ознакомившись с ИИ и его потенциальными преимуществами и рисками, политики могут разработать разумное регулирование, которое уравновесит развитие ИИ в юридических и этических границах, используя его огромный потенциал, — отмечается в статье. — Наращивание знаний имеет решающее значение как для разработки более разумных правил, когда дело доходит до ИИ, так и для того, чтобы дать политикам возможность участвовать в диалоге с технологическими компаниями на равных и вместе установить этические нормы, в соответствии с которыми можно безопасно внедрять инновации ИИ».

Инновации помогут избежать алгоритмической ошибки. В Великобритании, как сообщалось в этой публикации в ноябре, Центр этики и инноваций данных (CDEI) создал «дорожную карту» для решения этой проблемы. В отчёте CDEI основное внимание уделяется полицейской деятельности, найму, финансовым услугам и местному самоуправлению как четырём секторам, в которых алгоритмическая предвзятость представляет наибольший риск.

Вы можете прочитать полную статью ВЭФ здесь.

Источник: https://artificialintelligence-news.com/2021/02/23/information-gap-between-ai-creators-and-policymakers-needs-to-be-resolved-report/

от AI_NEWS

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *