Южнокорейским зрителям заранее сообщили о дипфейке Ким Джу-Ха (Kim Joo-Ha), изображённом выше
Несколько месяцев назад миллионы телезрителей по всей Южной Корее смотрели канал MBN, чтобы узнать последние новости.
В начале часа ведущая новостей Ким Джу-Ха прошлась по темам дня. Это был обыкновенный список историй на конец 2020 года, полный новостей о Covid-19 и мерах борьбы с пандемией.
Тем не менее этот выпуск был далёк от обычного, поскольку Ким Джу-Ха на самом деле не присутствовала на экране. Она была заменена «дипфейковой» версией самой себя — компьютерной копией, которая стремится идеально отражать её голос, жесты и выражения лица.
Зрителей заранее проинформировали о том, что это должно произойти, и южнокорейские СМИ сообщили о неоднозначной реакции после того, как люди это увидели. В то время как некоторые были поражены тем, насколько это реалистично, другие говорили, что обеспокоены тем, что настоящая Ким Джу-Ха может потерять работу.
MBN заявила, что продолжит использовать дипфейк для некоторых сенсационных новостей, в то время как фирма, стоящая за технологией искусственного интеллекта, — южнокорейская компания Moneybrain — сообщила, что теперь будет искать других покупателей средств массовой информации в Китае и США.
Когда большинство людей думают о дипфейках, они представляют себе фальшивые видео со знаменитостями. Совсем недавно одно такое поддельное, но очень реалистичное видео Тома Круза (Tom Cruise) попало в заголовки газет по всему миру после того, как появилось в TikTok.

Несмотря на негативный подтекст, окружающий разговорный термин «дипфейки» (люди обычно не хотят ассоциироваться со словом «подделка»), эта технология всё чаще используется в коммерческих целях.
Использование этих ИИ-сгенерированных видео, или синтетических медиа, быстро растёт в таких секторах, как новости, развлечения и образование, при этом технологии становятся всё более изощрёнными.
Одним из первых коммерческих пользователей стала Synthesia, лондонская фирма, которая создаёт корпоративные обучающие видео на базе ИИ для таких компаний, как глобальная рекламная фирма WPP и бизнес-консалтинговая компания Accenture.
«Это будущее создания контента», — говорит исполнительный директор и соучредитель Synthesia Виктор Рипарбелли (Victor Riparbelli).
Чтобы запустить видео, сгенерированное искусственным интеллектом, с использованием системы Synthesia, вы просто выбираете из ряда аватаров, вводите текст — и это, в принципе, всё.

Г-н Рипарбелли говорит: это означает, что глобальные компании могут очень легко создавать видеоролики на разных языках, например, для внутренних учебных курсов.
«Допустим, у вас 3000 работников склада в Северной Америке, — объясняет он. — Некоторые из них говорят по-английски, но другим может быть ближе испанский. Если вам нужно передать им сложную информацию, четырёхстраничный PDF-файл — не лучший способ. Было бы гораздо лучше сделать двух- или трёхминутное видео на английском и испанском языках.
Если бы вам пришлось записывать каждое из этих видео, потребовались бы значительные усилия. Теперь мы можем сделать это с относительно небольшими производственными затратами и независимо от времени, которое потребуется кому-то для написания сценария. Это в значительной степени демонстрирует, как технология используется сегодня».
Майк Прайс (Mike Price), технический директор ZeroFox, американской компании по кибербезопасности, которая отслеживает дипфейки, говорит, что их коммерческое использование «значительно растёт из года в год, но точные цифры трудно определить».
Однако Чад Стилберг (Chad Steelberg), исполнительный директор Veritone, американского поставщика технологий искусственного интеллекта, напоминает, что растущее беспокойство по поводу вредоносных дипфейков сдерживает инвестиции в законное коммерческое использование.
«Термин ‘дипфейки’ определённо вызвал негативную реакцию с точки зрения капиталовложений в сектор, — говорит он. — СМИ и потребители справедливо отмечают связанные с этим риски. Это точно помешало корпорациям, а также инвесторам вкладываться в технологию. Но, я думаю, мы увидим перемены».
Майк Папас (Mike Papas), исполнительный директор Modulate, фирмы, занимающейся искусственным интеллектом, которая позволяет пользователям создавать голос отдельного персонажа или человека, говорит, что компании в более широком коммерческом секторе синтетических медиа «действительно заботятся об этике».
«Удивительно видеть глубину мысли, вложенную этими людьми, — делится он. — Это гарантирует, что инвесторы так же заботятся о гражданских правах. Они спрашивают и вашего мнения об этике».
Лилиан Эдвардс (Lilian Edwards), профессор права, инноваций и обществознания в Ньюкаслском университете, является экспертом по дипфейкам. Она говорит, что одна проблема коммерческого использования технологии, которая не была полностью решена, заключается в том, кому принадлежат права на видео:
«Например, если используется мёртвый человек, такой как актёр Стив Маккуин (Steve McQueen) или рэпер Тупак (Tupac), продолжаются споры о том, должны ли их семьи владеть правами и получать от этого доход. В настоящее время это варьируется от страны к стране».
Дебора Джонсон (Deborah Johnson), почётный профессор прикладной этики Виргинского университета, недавно выступила соавтором статьи под названием «Что делать с дипфейками?».
Она полагает: «Дипфейки — это часть более широкой проблемы дезинформации, которая подрывает доверие к учреждениям и визуальному опыту: мы больше не можем доверять тому, что видим и слышим в Интернете. Маркировка, вероятно, является самым простым и важным противодействием дипфейкам: если зрители знают, что то, что они просматривают, было сфабриковано, они с меньшей вероятностью будут обмануты».
Профессор Сандра Вахтер (Sandra Wachter), старший научный сотрудник в области ИИ в Оксфордском университете, говорит, что технология дипфейков «мчится вперёд».

«Если вы смотрели недавнее видео с Томом Крузом, вы можете оценить, насколько хороши технологии, — предлагает она. — Это намного более реалистично, чем видео с президентом Обамой четыре года назад.
Мы не должны слишком бояться технологии — к ней нужен тонкий подход. Да, должны быть законы, чтобы пресекать плохие и опасные вещи, такие как ненавистнические высказывания и порнография из мести. Люди и общество должны быть защищены от этого. Но у нас не должно быть прямого запрета на дипфейки ради сатиры или свободы выражения. И растущее коммерческое использование технологии очень многообещающее, например, перевод фильмов на разные языки или создание увлекательных обучающих видеороликов».
Одним из таких образовательных примеров использования созданных искусственным интеллектом видео является Фонд Шоа Университета Южной Калифорнии, в котором хранится более 55 000 видеосвидетельств людей, переживших Холокост.

Их проект «Измерения в свидетельствах» позволяет посетителям задавать вопросы, которые вызывают ответы в режиме реального времени в предварительно записанных видеоинтервью.
Г-н Стилберг говорит, что в будущем такая технология позволит внукам разговаривать с ИИ-версиями умерших пожилых родственников. «Это меняет правила игры, я думаю, для всего нашего общества».
Источник: https://www.bbc.com/news/business-56278411