Поскольку пандемия еще больше ускоряет нашу цифровую трансформацию, компании все сильнее полагаются на автоматизацию, и особенно на искусственный интеллект. Две трети руководителей компаний, опрошенных в прошлом году крупной консалтинговой фирмой, сказали, что будут использовать ИИ чаще, чем раньше, для создания новых моделей рабочей силы. Еще больше директоров планируют оцифровать операции, взаимодействия с клиентами, бизнес-модели и потоки доходов. Это огромное ускорение и сдвиг, несомненно, приведут к массовым сбоям, оставляя компании — а в некоторых случаях даже критическую инфраструктуру — уязвимыми к потерям, поскольку критическое принятие решений передается ИИ.

Как технолог, который создавал платформы и работал в крупных отраслях, часто использующих искусственный интеллект (таких как ФИНТЕХ и здравоохранение), я лично видел, что происходит, когда крупнейшие мировые компании оставляют свой интеллект ИИ. После рекламы искусственного интеллекта многим кажется, что все можно улучшить с помощью сложных алгоритмов, просеивающих массу данных. От оптимизации обслуживания клиентов до изобретения новых духов и даже тренировки футбольных команд -искусственный ИНТЕЛЛЕКТ выглядит как неудержимый поставщик конкурентных преимуществ, и практически все, что нужно сделать руководителям компаний, — это дать ему волю и пойти пообедать (деликатесами от шеф-повара-робота с искусственным интеллектом), а потом наблюдать за ростом прибыли своей компании.

К сожалению, то, что мы видим в исполнении, — это совершенно другой мир — от плохо управляемых ожиданий до чрезвычайно дорогостоящих неудач и ошибок. Слишком часто искусственный ИНТЕЛЛЕКТ — это не сияющий маяк к светлому будущему компании, а скорее слепой, ведущий слепого по ложному пути, пока кто-то не упадет со скалы. Многие из тех, кто в наибольшей степени ответственен за шумиху в мире искусственного интеллекта, никогда не писали ни строчки кода, не говоря уже о внедрении искусственного интеллекта в производство. И у немногих разработчиков есть стимул показать вам тень реальности. Я с удовольствием поделюсь некоторыми практическими неудачами искусственного интеллекта, основанными на моем собственном опыте, и дам некоторое представление о том, о чем должны знать лица, принимающие решения.

Вот некоторые из худших способов использования искусственного интеллекта, продемонстрированных хедж-фондами, инвестиционными банками Уолл-стрит и компаниями — от списка Fortune 100 вплоть до стартапов.

  1. Принятие решений на основе неверных данных

ИИ отлично справляется с поиском паттернов в огромных наборах данных, эффективно предсказывает результаты на основе этих паттернов и находит некоррелированные альфа-паттерны (скрытые паттерны в наборе данных). Но большие проблемы возникают, когда неправильные данные (или информация о выбросах) попадают в набор данных. В одном известном примере в конце 2000-х годов произошел военный переворот в Таиланде, и алгоритм, стоящий за крупным фондом, интерпретировал этот военный переворот как рыночное событие, закрывшее много азиатских акций, быстро потеряв девять цифр в долларовой стоимости.

Я работал с небольшим хедж-фондом, ориентированным на сектор ТМТ (технологии, МЕДИА, телекоммуникации). Основатели пришли из крупной финансовой фирмы и привезли с собой нескольких программистов, которые работали над торговыми системами для REITS и энергетического сектора. Их целью было создать аналитический движок, который трейдеры в этом новом хедж-фонде, ориентированном на TMT, могли бы использовать для сигнализации определенных ключевых событий. Проблема заключалась в том, что их разработчики скопировали и объединили два двигателя, которые были построены для REITS и energy trading, и попытались вписать в этот гибрид технические индикаторы, более соответствующие сектору TMT. Меня вызвали на экспертизу после того, как он был построен, потому что движок давал спорадические и противоречивые результаты, и нам потребовалось некоторое время, чтобы понять, что, хотя основатели думали, что их команда построила совершенно новый, разработанный специально для TMT, на самом деле он был построен из запасных частей. Хотя все три сектора имеют схожие технические индикаторы, такие как подразумеваемая волатильность или 52-недельная скользящая средняя, ИИ чувствителен и детализирован, и каждый движок должен быть настроен индивидуально.

Убедитесь, что ваш ИИ дает рекомендации, основанные на соответствующих данных.

  1. Неспособность правильно тренировать свой ИИ

Вы можете снабдить свой ИИ-движок всеми нужными данными и заставить его выдавать правильные ответы, но пока он не будет протестирован «в дикой природе», вы не знаете, что он станет делать. Торопиться дать ему больше ответственности, чем он готов принять, все равно что посылать маленького ребенка в реальный мир — ни то, ни другое не принесет хороших результатов.

Клиент хедж-фонда заинтересовался искусственным интеллектом для квантовой торговли. Они наняли внешнюю команду для создания концептуальной модели двигателя AI, и моя команда позже предоставила консультационные услуги по этому POC. Чтобы построить хороший ИИ-движок для генерации альфа (то есть для увеличения показателя рентабельности инвестиций), вам понадобится большой однородный набор исторических данных. В финансах наборы данных структурируются в формате временных рядов, предлагая точки данных с самыми разными уровнями детализации. Как правило, чем больше точек данных мы имеем в наборе данных, тем лучше механизм станет предсказывать будущие результаты; эти точки данных помогут хорошо разработанному механизму обнаружить нелинейную корреляцию данных, чтобы помочь в прогнозах. Мы посоветовали клиенту дать движку AI больше времени для обработки их набора данных, чтобы сделать его более однородным и не следовать основным ценовым сигналам. К сожалению, они этого не сделали, и POC был слишком приспособлен и так точно настроен на конкретный набор данных, что он не работал с новыми, невидимыми данными. Другими словами, это было бесполезно с живыми рыночными данными.

Дайте вашему ИИ время для обработки и усвоения новой информации.

  1. Игнорирование ответственности человека за принимаемые решения

На что бы вы ни запрограммировали свой ИИ, он не будет разделять ваши человеческие цели и не понесет за них ответственность. Все мы видели ранние примеры того, как искусственный ИНТЕЛЛЕКТ уводил первых пользователей GPS в реку или удалял критическую информацию, чтобы “минимизировать” различия в наборе данных.

Я видел не один стартап, построенный на предположении, что алгоритмы ИИ могут изучать модели одобрения кредитов и заменять сотрудника по одобрению кредитов при предоставлении/отказе в их предоставлении. Однако, когда вам отказывают в кредите, федеральный закон требует, чтобы кредитор сообщил вам, почему он принял такое решение. Программное обеспечение на самом деле не принимает решений (оно просто идентифицирует паттерны) и не отвечает за решения — только люди. С момента принятия федерального закона согласившись с тем, что люди несут ответственность за кредитные решения, многие из этих стартапов сгорели через венчурные фонды, а затем не могли законно начать работу с клиентами, потому что разработанный ими ИИ был по своей сути предвзятым. Когда он отказывал в кредитах, ни один человек не мог адекватно объяснить, почему так произошло.

Убедитесь, что люди несут ответственность за последствия.

  1. Переоценка данных

Некоторые данные просто не могут быть использованы для создания чего-либо полезного. Одним из наших клиентов, который не смог использовать ИИ, была популярная медицинская диагностическая платформа с собственным пулом данных и широкий спектр наборов данных. Компания, которая владела им, приобрела другую платформу со своим собственным массивом изолированных наборов данных. Руководители хотели получить некоторое представление о беспорядке несвязанных наборов данных и нуждались в помощи с привлечением потенциальных клиентов. Проблема заключалась в том, что эти наборы данных описывали различные медицинские проблемы/профили, и попытка найти общие знаменатели какой-либо реальной ценности была невозможна. Несмотря на всю собранную информацию, работа с данными этого клиента была похожа на работу с кусочками lego, которые на самом деле не соединялись. То, что они во многом похожи, вовсе не означает, что из них можно построить замок. Посоветовавшись с клиентом, мы порекомендовали ему не заниматься этим проектом.

Девелопер недвижимости хотел, чтобы мы разработали ИИ для анализа решений о построении, идея заключалась в том, что если бы мы могли принимать достаточно данных из списков недвижимости, мы могли бы выполнять аналитику, которая информировала бы их решения о планировке их новых разработок. Клиент надеялся, что ИИ подскажет ему наиболее оптимальную планировку, исходя из расположения здания. Например, должно ли здание иметь одну большую квартиру на каждом этаже, или стоит разделить этаж на три квартиры с одной спальней? Должно ли это быть многофункциональное здание с коммерческими магазинами внизу и арендой жилья? После того, как мы получили данные о недвижимости из разных штатов, поработали над анализом данных и взаимодействовали с экспертами по предмету, стало очевидно, что, поскольку рынок недвижимости сильно локализован, единый алгоритм не будет работать. Недвижимость Восточного Манхэттена немного отличается от Западного, а Бруклин отличается от Квинса, не говоря уже о штате Нью-Йорк в целом. Множество наборов данных были слишком малы по отдельности, чтобы построить осмысленный алгоритм классификации, и проект не прошел.

В этих случаях компании сокращают свои убытки, но многие другие просто продолжают бросать деньги на искусственный интеллект, копаясь глубже в деталях, которые никогда не связаны с их целями.

Прежде чем создавать искусственный ИНТЕЛЛЕКТ, убедитесь, что у вас есть правильные детали.

Куда ж нам плыть?

Искусственный интеллект, возможно, и является будущим этого ускоренного цифрового делового мира, но на данный момент слишком большая его часть все еще остается миром шумихи. Предприятия должны рассматривать искусственный ИНТЕЛЛЕКТ, но с обоснованным взглядом и правильным пониманием того, что он действительно делает. И они должны выработать надлежащую перспективу для любых связанных с этим инициатив. Лица, принимающие решения, должны понимать реальность искусственного интеллекта, его потенциал и стоящие за ним проблемы. Иметь четкую стратегию любого потенциального проекта ИИ с учетом имеющихся данных, сроков, затрат и ожиданий. Обычно успешные проекты ИИ дают долгосрочные результаты, а не сиюминутные выгоды.

ИИ по своей сути — это просто умозаключение; он может помочь анализировать огромные детали, но только люди могут понять общую картину. Мы понимаем, будучи людьми, что наши решения имеют последствия (деловые, юридические, этические), и наделение ИИ ложными человеческими чертами скрывает тот факт, что он думает не так, как мы. Люди могут совершать больше “ошибок”, чем ИИ, но мы также обладаем большей способностью распознавать их. Итак, применяйте искусственный интеллект, но когда вы думаете о том, как его развернуть, убедитесь, что ваш собственный интеллект по-прежнему лидирует.

Автор статьи: Ахмад Алокуш (Ahmad Alokush) — основатель технологического бутика Ahmadeus, который консультирует руководителей уровня C, управляющих директоров и управляющих фондами по вопросам того, как новые технологии могут повлиять на их рыночную позицию и общую прибыльность. Он также выступал в качестве эксперта-свидетеля в судебных разбирательствах, касающихся технологий.

Источник: https://venturebeat.com/2021/05/16/4-of-the-worst-ways-to-use-ai/

от AI_NEWS

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *