Несмотря на растущий спрос на инструменты ИИ и их использование, менеджеры 65% компаний не могут объяснить, как принимаются решения или прогнозы на основе моделей ИИ. Это следует из результатов нового опроса глобальной аналитической фирмы FICO и Corinium, которая опросила 100 руководителей аналитического и информационного уровня C, чтобы понять, как организации развертывают ИИ и обеспечивают ли они его этическое использование.

“За последние 15 месяцев все больше и больше компаний инвестировали в инструменты ИИ, но не подняли важность ответственного управления ИИ до уровня совета директоров, — сообщил в пресс-релизе главный аналитик FICO Скотт Золди (Scott Zoldi). — Организации все чаще используют ИИ для автоматизации ключевых процессов, которые — в некоторых случаях — принимают жизненно важные решения для своих клиентов и заинтересованных сторон. Высшее руководство и советы директоров должны понимать и применять проверяемую, неизменную модель управления ИИ и мониторинг модели продукта, чтобы гарантировать, что решения являются подотчетными, справедливыми, прозрачными и ответственными”.

Исследование, которое было заказано FICO и проведено Corinium, показало, что 33% исполнительных команд имеют неполное понимание этики ИИ. В то время как ИТ, аналитики и сотрудники по соблюдению требований имеют самую высокую осведомленность, понимание между организациями остается непростым. В результате существуют значительные барьеры для создания поддержки — 73% заинтересованных сторон говорят, что они изо всех сил пытались получить исполнительную поддержку для ответственных практик ИИ.

Ответственное внедрение ИИ означает разные вещи для разных компаний. Для некоторых “ответственный” подразумевает принятие ИИ в этической, прозрачной и ответственной манере. Для других это означает обеспечение того, чтобы их использование ИИ соответствовало законам, правилам, нормам, ожиданиям клиентов и организационным ценностям. В любом случае “ответственный ИИ” обещает защитить от использования предвзятых данных или алгоритмов, обеспечивая уверенность в том, что автоматизированные решения оправданы и объяснимы — по крайней мере, теоретически.

По данным Corinium и FICO, в то время как почти половина (49%) респондентов опроса сообщают об увеличении ресурсов, выделяемых на проекты ИИ за последний год, только 39% и 28% говорят, что они отдают приоритет управлению ИИ и мониторингу или обслуживанию моделей соответственно. Потенциальный вклад в этический разрыв вносит отсутствие консенсуса среди руководителей относительно того, какими должны быть обязанности компании, когда речь заходит об ИИ. Большинство компаний (55%) согласны с тем, что ИИ для приема данных должен соответствовать основным этическим стандартам и что системы, используемые для бэк-офисных операций, также должны быть объяснимы. Но почти половина (43%) говорят, что у них нет обязанностей, кроме соблюдения правил управления системами ИИ, решения которых могут косвенно повлиять на жизнедеятельность людей.

Переломить ход событий

Что могут сделать предприятия, чтобы принять ответственный ИИ? Борьба с предвзятостью становится важным шагом, но только 38% компаний говорят, что алгоритмы по смягчению предвзятости встроены в их процессы разработки моделей. На самом деле только пятая часть респондентов (20%), участвовавших в опросе Corinium и FICO, активно отслеживают свои модели в производстве на предмет справедливости и этики, в то время как только каждый третий (33%) имеет команду проверки и оценки новых разработанных моделей.

Полученные результаты согласуются с недавним исследованием Boston Consulting Group, проведенным среди 1000 предприятий, которое показало, что менее половины из них имели полностью зрелые, “ответственные” реализации ИИ. Запаздывающее внедрение ответственного ИИ опровергает ценность этих практик. Исследование Capgemini показало, что клиенты и сотрудники будут вознаграждать организации, которые практикуют этический ИИ, большей лояльностью и даже готовностью защищать их — и, в свою очередь, наказывать тех, кто этого не делает.

В этом случае компании, по-видимому, понимают ценность оценки справедливости результатов модели, и 59% респондентов опроса говорят, что они делают это, чтобы обнаружить предвзятость модели. Кроме того, 55% говорят, что они выделяют и оценивают скрытые особенности модели на предмет смещения, а половина (50%) говорит, что у них есть кодифицированное математическое определение смещения данных и они активно проверяют смещение в неструктурированных источниках данных.

Компании также признают, что ситуация должна измениться, поскольку подавляющее большинство (90%) согласны с тем, что неэффективные процессы мониторинга моделей представляют собой барьер для внедрения ИИ. К счастью, почти две трети (63%) респондентов доклада Corinium и FICO считают, что этика ИИ и ответственный ИИ станут ключевым элементом стратегии их организации в течение двух лет.

“Бизнес-сообщество стремится к преобразованию через автоматизацию с использованием ИИ. Тем не менее высшие руководители и советы директоров должны быть осведомлены о рисках, связанных с технологией и лучшими практиками, чтобы активно смягчать их, — добавил г-н Золди. — ИИ обладает силой преобразовывать мир, но, как гласит поговорка, — с большой силой приходит большая ответственность”.

Источник: https://venturebeat.com/2021/05/25/65-of-execs-cant-explain-how-their-ai-models-make-decisions-survey-finds/

от AI_NEWS

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *