С самого начала компьютерного века люди с некоторой долей настороженности относились к появлению искусственного интеллекта (ИИ). Популярные иллюстрации на эту тему часто изображают роботов-убийц или всезнающие, всевидящие системы, стремящиеся уничтожить человеческую расу. Эти настроения также проникли в СМИ, которые, как правило, приветствуют прорывы в ИИ больше тревогой или шумихой, чем разумным анализом. На самом деле истинная проблема заключается в том, отвлекают ли эти чрезмерно драматизированные, антиутопические видения наше внимание от более тонких, но не менее опасных рисков, связанных с неправильным использованием приложений ИИ, которые уже доступны или разрабатываются сегодня.

ИИ пронизывает нашу повседневную жизнь, влияя на то, какие медиа мы потребляем, что покупаем, где и как работаем и многое другое. Технологии искусственного интеллекта, несомненно, продолжат менять наш мир — от автоматизации рутинных офисных задач до решения неотложных проблем, таких как изменение климата и голод. Но случаются и такие инциденты, как неправомерные аресты в США и массовая слежка за уйгурским населением Китая, кроме того, мы уже наблюдаем некоторые негативные последствия, связанные с ИИ. Сосредоточившись на расширении границ возможного, компании, правительства, специалисты по ИИ и специалисты по обработке данных иногда не видят, что их прорывы могут вызвать социальные проблемы, пока не становится слишком поздно. Поэтому сейчас самое время более целенаправленно подходить к тому, как мы используем и развиваем ИИ. Мы должны с самого начала учитывать этические и социальные аспекты в процессе развития, а не заниматься этими проблемами постфактум. И самое главное, мы должны признать, что даже кажущиеся безобидными алгоритмы и модели могут быть использованы в негативном ключе. Мы очень далеки от «терминаторских» угроз ИИ — и этот день может никогда не наступить, — но сегодня есть угроза, которая заслуживает столь же серьезного рассмотрения.

Как дипфейки могут посеять сомнение и раздор

Дипфейки — это реалистичные искусственные изображения, аудио и видео, обычно созданные с использованием методов машинного обучения. Технология производства таких “синтетических” носителей развивается с головокружительной скоростью, а сложные инструменты теперь свободно и легко доступны даже неспециалистам. Злоумышленники уже используют такой контент , чтобы разрушить репутацию и совершить мошенничество, и нетрудно представить себе другие вредные случаи использования.

Дипфейки создают двойную опасность: поддельный контент обманет зрителей, заставив поверить, что сфабрикованные заявления или события реальны, а их растущая распространенность подорвет доверие общественности к надежным источникам информации. И хотя инструменты обнаружения существуют сегодня, создатели дипфейков показали, что они могут учиться обходить эти защиты и быстро адаптироваться. В этой игре в кошки-мышки с высокими ставками нет простых решений. Даже неискушенный поддельный контент может нанести существенный ущерб, учитывая психологическую силу предвзятости подтверждения и способность социальных сетей быстро распространять мошенническую информацию.

Дипфейки — это всего лишь один пример технологии искусственного интеллекта, которая может оказывать коварное воздействие на общество. Они демонстрируют, насколько важно продумывать потенциальные последствия и стратегии снижения вреда с самого начала разработки ИИ.

Большие языковые модели как мультипликаторы силы дезинформации

Большие языковые модели являются еще одним примером технологии ИИ, разработанной с положительными намерениями, которая все еще заслуживает тщательного рассмотрения с точки зрения социального воздействия. Эти модели учатся писать человекоподобный текст, используя методы глубокого обучения, которые обучаются шаблонам в наборах данных, часто взятых из интернета. Последняя модель ведущей исследовательской компании по ИИ OpenAI, GPT-3, может похвастаться 175 миллиардами параметров — в 10 раз больше, чем предыдущая итерация. Эта массивная база знаний позволяет GPT-3 генерировать практически любой текст с минимальным человеческим вкладом, включая короткие рассказы, ответы по электронной почте и технические документы. На самом деле статистические и вероятностные методы, которые приводят в действие эти модели, совершенствуются так быстро, что многие из случаев их использования остаются неизвестными. Например, начальные пользователи только случайно обнаружили, что модель также может писать код.

Однако потенциальные недостатки очевидны. Как и его предшественники, GPT-3 может производить сексистский, расистский и дискриминационный текст, потому что он копирует интернет-контент, на котором он был обучен. Кроме того, в мире, где тролли уже влияют на общественное мнение, большие языковые модели, такие как GPT-3, могут портить онлайн-разговоры противоречивой риторикой и дезинформацией. Осознавая потенциальную возможность неправильного использования, OpenAI ограничила доступ к GPT-3 сначала для отбора исследователей, а затем в качестве эксклюзивной лицензии для Microsoft. Но джинн вышел из бутылки: Google представила модель с триллионом параметров в начале этого года, и OpenAI признает, что проекты с открытым исходным кодом находятся на пути к воссозданию GPT-3 в ближайшее время. Похоже, наше окно для коллективного решения проблем, связанных с дизайном и использованием этой технологии, быстро закрывается.

Путь к этичному, социально полезному ИИ

ИИ, возможно, никогда не достигнет кошмарных научно-фантастических сценариев «Скайнета» или «Терминатора», но это не значит, что мы можем уклониться от реальных социальных рисков, которые представляет собой сегодняшний ИИ. Работая с группами заинтересованных сторон, исследователи и лидеры отрасли могут разработать процедуры для выявления и смягчения потенциальных рисков, не слишком затрудняя инновации. В конце концов, ИИ сам по себе ни хорош, ни плох. Есть много реальных потенциальных преимуществ, которые он может открыть для общества, — нам просто нужно быть вдумчивыми и ответственными в том, как мы его разрабатываем и внедряем.

Например, мы должны стремиться к большему разнообразию профессий в области науки о данных и искусственного интеллекта, включая принятие мер по консультированию с экспертами в соответствующих областях, таких как социальные науки и экономика, при разработке определенных технологий. Потенциальные риски ИИ выходят за рамки чисто технических; так же как и усилия по смягчению этих рисков. Мы также должны сотрудничать, чтобы установить нормы и общие практики вокруг ИИ, таких как GPT-3 и модели дипфейков, применяя стандартизированные оценки воздействия или периоды внешнего обзора. Индустрия также может наращивать усилия по борьбе с контрмерами, такими как инструменты обнаружения, разработанные с помощью Facebook, Deepfake Detection Challenge или Microsoft Video Authenticator. Наконец, необходимо будет постоянно вовлекать широкую общественность в образовательные кампании по искусственному интеллекту, чтобы люди знали и могли легче выявлять его злоупотребления. Если бы о возможностях GPT-3 знало столько же людей, сколько о Терминаторе, мы были бы лучше подготовлены к борьбе с дезинформацией или другими случаями злонамеренного использования.

Теперь у нас есть возможность установить стимулы, правила и ограничения в отношении того, кто имеет доступ к этим технологиям, их разработке и тому, в каких условиях они применяются. Мы должны использовать эту силу мудро, пока она не выскользнула из наших рук.

Автор статьиПитер Ванг (Peter Wang), генеральный директор и соучредитель платформы data science Platform Anaconda. Он также является создателем сообщества PyData и конференций и членом правления Центра человеческих технологий.

Источник: https://venturebeat.com/2021/04/03/these-are-the-ai-risks-we-should-be-focusing-on/

от AI_NEWS

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *