На этой неделе Всемирная организация здравоохранения (ВОЗ) опубликовала свой первый глобальный доклад об ИИ в здравоохранении, а также шесть руководящих принципов его проектирования, разработки и внедрения. Результаты двухлетних консультаций с экспертами, назначенными ВОЗ, предостерегают от переоценки преимуществ ИИ, подчеркивая при этом, что он может быть использован для улучшения скрининга заболеваний, оказания клинической помощи и многом другом.

Индустрия здравоохранения производит огромное количество данных. По оценкам исследования IDC, объем создаваемых ежегодно медицинских данных, который в 2020 году превысил 2000 экзабайт, будет продолжать расти со скоростью 48% в годовом исчислении. Эта тенденция позволила значительно продвинуться в области искусственного интеллекта и машинного обучения, которые полагаются на большие наборы данных для прогнозирования в диапазоне от вместимости больничных коек до наличия злокачественных опухолей на МРТ. Но, в отличие от других областей, к которым применялся искусственный интеллект, чувствительность и масштаб медицинских данных делают сбор и использование этих данных огромной проблемой.

Доклад ВОЗ признает это, указывая, что возможности, создаваемые ИИ, связаны с рисками. Есть вред, который предубеждения, закодированные в алгоритмах, могут причинить пациентам, сообществам и поставщикам услуг по уходу. Например, системы, обученные главным образом на данных, полученных от людей в странах с высоким уровнем дохода, могут плохо работать для пациентов с низким и средним уровнем дохода. Более того, нерегулируемое использование ИИ может подорвать права пациентов в пользу коммерческих интересов или правительств, занимающихся наблюдением.

Наборы данных, используемые для обучения систем ИИ, которые могут предсказывать возникновение таких состояний, как болезнь Альцгеймерадиабетдиабетическая ретинопатиярак молочной железы и шизофрения, поступают из различных источников. Но во многих случаях пациенты не полностью осознают, что их информация ипользована. В 2017 году британские регуляторы пришли к выводу, что Royal Free London NHS Foundation Trust, подразделение Национальной службы здравоохранения Великобритании, базирующееся в Лондоне, предоставило DeepMind Google данные о 1,6 миллионах пациентов без их согласия.

Независимо от источника, эти данные могут содержать предвзятость, закрепляющую неравенство в алгоритмах ИИ, обученных для диагностики заболеваний. Группа британских ученых обнаружила, что почти все наборы данных по глазным заболеваниям поступают от пациентов из Северной Америки, Европы и Китая, а это означает, что алгоритмы диагностики глазных заболеваний менее точно работают для расовых групп из недопредставленных стран. В другом исследовании ученые из Университета Торонто, Института Вектора и Массачусетского технологического института показали, что широко используемые наборы данных рентгенографии грудной клетки содержат расовые, гендерные и социально-экономические предубеждения.

Далее, иллюстрируя эту точку зрения, исследователи из Стэнфорда обнаружили, что некоторые медицинские устройства с искусственным интеллектом, одобренные Управлением по контролю за продуктами и лекарствами США (FDA), уязвимы для сдвигов данных и предвзятости в отношении недопредставленных пациентов. Даже когда ИИ внедряется в большее количество медицинских устройств — в прошлом году FDA одобрило более 65 устройств ИИ, — точность этих алгоритмов не обязательно тщательно изучается, потому что они не оцениваются проспективными исследованиями.

Эксперты утверждают, что проспективные исследования, которые собирают тестовые данные до, а не одновременно с развертыванием, необходимы, особенно для медицинских устройств ИИ, поскольку их фактическое использование может отличаться от предполагаемого. Например, большинство компьютерных диагностических систем предназначены для поддержки принятия решений, а не для первичной диагностики. Проспективное исследование может показать, что клиницисты неправильно используют устройство для диагностики, что приводит к результатам, которые могут отклоняться от ожидаемых.

Помимо проблем с набором данных, модели, не имеющие экспертной оценки, могут столкнуться с препятствиями при развертывании в реальном мире. Ученые из Гарварда обнаружили, что алгоритмы, обученные распознавать и классифицировать КТ, могут быть смещены в сторону форматов сканирования от некоторых производителей КТ-машин. Между тем опубликованный Google технический документ выявляет проблемы с внедрением системы прогнозирования глазных заболеваний в больницах Таиланда, включая проблемы с точностью сканирования.

Чтобы ограничить риски и максимизировать выгоды ИИ для здоровья, ВОЗ рекомендует предпринять шаги по защите автономии, обеспечению прозрачности и объяснимости, укреплению ответственности и подотчетности и работе в направлении инклюзивности и справедливости. Рекомендации также включают содействие благополучию, безопасности и общественным интересам.

ВОЗ утверждает, что средства правовой защиты должны быть доступны людям, негативно затронутым решениями, основанными на алгоритмах, а также что разработчики должны “постоянно” оценивать приложения искусственного интеллекта, чтобы определить, соответствуют ли они ожиданиям и требованиям. Кроме того, ВОЗ рекомендует как правительствам, так и компаниям устранять нарушения на рабочих местах, вызванные автоматизированными системами, включая обучение работников здравоохранения адаптации к использованию ИИ.

“Системы искусственного интеллекта должны быть тщательно разработаны с учетом разнообразия социально-экономических и медицинских условий, — говорится в пресс-релизе ВОЗ. — Они должны сопровождаться обучением цифровым навыкам, вовлечением общественности и повышением осведомленности, особенно для миллионов медицинских работников, которым потребуется цифровая грамотность или переподготовка, если их роли и функции будут автоматизированы, и которые должны бороться за то, чтобы машины не препятствовали принятию решений и автономии поставщиков услуг и пациентов”.

По мере появления новых примеров проблемного ИИ в здравоохранении — от широко развернутых, но непроверенных алгоритмов до предвзятых дерматологических наборов данных — становится критически важным, чтобы заинтересованные стороны следовали шагам подотчетности, подобным тем, которые изложены ВОЗ. Это не только укрепит доверие к системам ИИ, но и может улучшить уход за миллионами людей, которые будут подвергнуты диагностическим иследованиям с ИИ в будущем.

«Машинное обучение действительно является мощным инструментом, если оно правильно спроектировано — если проблемы правильно формализованы и определены методы, действительно обеспечивающие новые идеи для понимания этих болезней, —напомнила доктор Михаэла ван дер Шаар, научный сотрудник Тьюринга и профессор машинного обучения искусственного интеллекта и здоровья в Кембриджском университете и Калифорнийском университете в Лос-Анджелесе во время выступления на конференции ICLR в мае 2020 года. — Конечно, мы находимся в начале этой революции, и нам предстоит еще долгий путь. Но сейчас захватывающее время. И сейчас самое время сосредоточиться на таких технологиях».

Источник: https://venturebeat.com/2021/07/02/ai-weekly-who-outlines-steps-for-creating-inclusive-ai-health-care-systems

от AI_NEWS

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *