В статье, опубликованной в рамках Всемирного экономического форума (ВЭФ), утверждается, что существует «огромный разрыв во взаимопонимании» между политиками и создателями ИИ.
В отчёте, написанном Адрианой Бора (Adriana Bora), исследователем политики в области ИИ и менеджером проектов в The Future Society, и Дэвидом Александру Тимишем (David Alexandru Timis), уходящим куратором Высшей школы Университа Брюсселя, исследуются способы решения проблем подотчётности и укрепления доверия с помощью технологий ИИ.
Бора и Тимиш отмечают, что существует «потребность в надёжных механизмах, которые будут генерировать всеобъемлющее и коллективно разделяемое понимание цикла разработки и развёртывания ИИ». В результате, добавляют они, это управление «необходимо разрабатывать в условиях непрерывного диалога с использованием многосторонних и междисциплинарных методологий и навыков».
Проще говоря, обе стороны должны говорить на одном языке. Тем не менее, хотя создатели ИИ обладают информацией и пониманием, того же нельзя сказать об регулирующих органах, отмечают авторы.
«Не так много политических экспертов действительно понимают полный цикл технологии искусственного интеллекта, — отмечается в статье. — С другой стороны, поставщикам технологий не хватает ясности, а иногда и интереса к формированию политики в области ИИ с соблюдением принципов этики».
Примеров неэтичной практики ИИ, когда в системы встроено врождённое предубеждение, можно привести множество. В июле Массачусетский технологический институт извинился за набор данных, который обучал модели ИИ с женоненавистническими и расистскими склонностями, и отключил его от сети. Google и Microsoft также сообщали об ошибках при модерации YouTube и MSN News соответственно.
Под сомнение также ставится технология искусственного интеллекта в правоохранительных органах. В июне более 1000 исследователей, учёных и экспертов подписали открытое письмо, в котором опровергают готовящуюся к публикации статью, где утверждается, что можно предсказать преступность на основе автоматизированного распознавания лиц. Кроме того, в том же месяце начальник полиции Детройта признал, что предоставленная его подчиненным программа распознавания лиц на основе ИИ не работает в подавляющем большинстве случаев.
В последнее время Google подвергается критике: на прошлой неделе уволена Маргарет Митчелл (Margaret Mitchell), которая была одним из руководителей группы по этике ИИ, что усилило негативные отзывы. Митчелл подтвердила своё увольнение в Twitter. В заявлении Google для Reuters говорится, что увольнение последовало за расследованием, в ходе которого Митчелл перенесла электронные файлы за пределы компании.
В декабре Google уволили Тимнит Гебру (Timnit Gebru), ещё одну ведущую фигуру в разработке этики ИИ. Она утверждала, что её уволили из-за неопубликованной статьи и отправки электронного письма с критикой действий компании. Митчелл ранее написала открытое письмо, в котором поделилась «беспокойством» по поводу увольнения. Согласно отчёту Axios, после увольнения Гебру компания внесла изменения в то, «как она решает проблемы, связанные с исследованиями, разногласиями и уходом сотрудников». Как сообщает эта публикация, отставка Гебру вынудила уйти других сотрудников: инженера-программиста Винеша Каннана (Vinesh Kannan) и технического директора Дэвида Бейкера (David Baker).
Бора и Тимиш подчеркнули необходимость «этической грамотности» и «приверженности мультидисциплинарным исследованиям» с точки зрения поставщиков технологий.
«В процессе обучения и в течение своей карьеры технические группы, стоящие за разработками ИИ, не получают методического образования о сложности человеческих социальных систем, о том, как их продукты могут негативно повлиять на общество и как внедрить этику в свои разработки», — отмечается в статье.
«Процесс понимания и признания социального и культурного контекста, в котором развёртываются технологии ИИ, иногда с высокими ставками для человечества, требует терпения и времени, — добавили Бора и Тимиш. — При увеличении инвестиций в ИИ технологическим компаниям рекомендуется определять этические соображения, относящиеся к их продуктам, и прозрачно внедрять решения перед их развёртыванием».
Теоретически это могло бы помочь избежать поспешных отказов и извинений, когда модели ведут себя неэтично. Тем не менее исследователи также подчеркнули, что политикам необходимо действовать.
«Только ознакомившись с ИИ и его потенциальными преимуществами и рисками, политики могут разработать разумное регулирование, которое уравновесит развитие ИИ в юридических и этических границах, используя его огромный потенциал, — отмечается в статье. — Наращивание знаний имеет решающее значение как для разработки более разумных правил, когда дело доходит до ИИ, так и для того, чтобы дать политикам возможность участвовать в диалоге с технологическими компаниями на равных и вместе установить этические нормы, в соответствии с которыми можно безопасно внедрять инновации ИИ».
Инновации помогут избежать алгоритмической ошибки. В Великобритании, как сообщалось в этой публикации в ноябре, Центр этики и инноваций данных (CDEI) создал «дорожную карту» для решения этой проблемы. В отчёте CDEI основное внимание уделяется полицейской деятельности, найму, финансовым услугам и местному самоуправлению как четырём секторам, в которых алгоритмическая предвзятость представляет наибольший риск.
Вы можете прочитать полную статью ВЭФ здесь.