
По мере того как технология клонирования голоса становится все более эффективной, она вызывает все больший интерес у актеров… и киберпреступников.
Когда Тим Хеллер впервые услышал свой клонированный голос, по его словам, это было настолько точно, что «моя челюсть ударилась об пол… это было умопомрачительно».
Клонирование голоса — использование компьютерной программы для создания синтетической, адаптируемой копии голоса человека.
Из записи чьего-то разговора программное обеспечение может затем воспроизвести его или ее голос, произносящий любые слова или предложения, которые вы вводите на клавиатуре.
Таковы последние достижения в технологии, что компьютерный звук, как теперь говорят, пугающе точен. Программа может улавливать не только ваш акцент, но и тембр, высоту тона, темп речи и дыхание.
И клонированный голос может быть изменен, чтобы изобразить любую требуемую эмоцию — например гнев, страх, счастье, любовь или скуку.
Мистер Хеллер, 29-летний закадровый художник и актер из Техаса, делает все: изображает персонажей мультфильмов, рассказывает об аудиокнигах и документальных фильмах, говорит о видеоиграх и озвучивает трейлеры фильмов.
Он говорит, что недавно обратился к клонированию голоса, чтобы «продлить в будущем» свою карьеру.
Артист считает, что это может помочь ему получить больше работы. Например, если у него когда-нибудь будет двойной заказ, он может предложить вместо этого отправить своего голосового клона для выполнения одной из работ.
«Если я буду занят на другой работе… Я могу позиционировать свой «даб» (то, что он называет своим голосовым клоном) как вариант, который может сэкономить время клиентов и генерировать пассивный доход для меня», — уверен мистер Хеллер.
Чтобы клонировать свой голос, он обратился в бостонскую фирму под названием VocaliD — одну из растущего числа компаний, предлагающих эту услугу.
Компания VocaliD была основана ее главным исполнительным директором Рупал Патель (Rupal Patel), которая также является профессором коммуникационных наук и устройств в Северо-Восточном университете.
Профессор Патель основала этот бизнес в 2014 году как продолжение своей клинической работы по созданию искусственных голосов для пациентов, которые не могут говорить без посторонней помощи, например людей, потерявших голос после операции или болезни.

Она говорит, что технология, которой руководит искусственный интеллект, программное обеспечение, которое может «учиться» и адаптироваться само по себе, значительно продвинулась за последние несколько лет. Это привлекло внимание артистов озвучки.
«Мы также специализируемся на создании пользовательских голосов, которые более разнообразны по акценту, — говорит профессор Патель. — Мы сделали несколько трансгендерных голосов, мы сделали гендерно нейтральные голоса… Технология должна говорить так, как говорят все мы, у всех нас есть уникальные акценты и голоса».
Клонирование голоса также может быть использовано для перевода слов актера на разные языки, что потенциально означает, например, что американским кинокомпаниям больше не нужно будет нанимать дополнительных актеров для создания дублированных версий своих фильмов для зарубежного распространения.
Канадская фирма Remingle AI заявляет, что теперь она может превращать клонированные английские голоса в 15 других языков.
Его главный исполнительный директор Зохайб Ахмед (Zohaib Ahmed) говорит, что для создания качественной копии чьего-то голоса программное обеспечение нуждается в записи чьего-то голоса всего за 10 минут.

«Когда ИИ узнает твой голос, он узнает много свойств… как тембр, и высота, и интенсивность», — напоминает он. — Но алгоритм также изучает тысячи других особенностей голоса человека, которые могут быть не очень очевидны для нас.»
Тем не менее, хотя растущая сложность клонирования голоса имеет очевидный коммерческий потенциал, это также привело к растущим опасениям, что он может быть использован в киберпреступности — чтобы обмануть людей.
Вместе с компьютерными поддельными видео, голосовое клонирование также называется «дипфейк». И эксперт по кибербезопасности Эдди Бобрицкий сообщает, что существует «огромный риск безопасности», который приходит с синтетическими голосами.
«Когда дело доходит до электронной почты или текстовых сообщений, уже много лет известно, что довольно легко выдавать себя за других», — говорит босс израильской фирмы Minerva Labs. — Но до сих пор разговор по телефону с кем-то, кому вы доверяете и хорошо знаете, был одним из самых распространенных способов убедиться, что вы действительно знакомы с этим человеком».
Господин Бобрицкий говорит, что сейчас ситуация меняется. «Например, если начальник звонит сотруднику, запрашивающему конфиденциальную информацию, и сотрудник узнает голос, немедленная реакция заключается в том, чтобы сделать так, как его попросили. Это путь для многих киберпреступлений».
На самом деле о подобном случае сообщила газета The Wall Street Journal еще в 2019 году, когда британского менеджера обманом заставили перевести 220 000 евро (260 000 долларов; 190 000 фунтов стерлингов) мошенникам, которые использовали клонированную копию голоса его немецкого босса.
«Необходимо предпринять шаги для борьбы с этой новой технологией и теми угрозами, которые она несет с собой», — добавляет г-н Бобрицкий.
Фирмы по всему миру фактически уже делают это, как сообщает специализированный новостной сайт по искусственному интеллекту Venture Beat.
Такие компании могут следить за звуком, чтобы увидеть, является ли он поддельным, ища сигнальные знаки, такие как повторение, цифровой шум и использование определенных фраз или слов.
Между тем, правительства и правоохранительные органы также рассматривают этот вопрос. В прошлом году Европол, правоохранительное ведомство Европейского союза, призвал государства-члены сделать «значительные инвестиции» в технологии, которые могут обнаружить дипфейки. А в США Калифорния запретила их использование в политических кампаниях.
Вернувшись в Техас, Тим Хеллер говорит, что, хотя он еще не продал свой клонированный голос, «несколько разных клиентов выразили интерес».


Но не боится ли он, что в долгосрочной перспективе может потерять работу из-за чужих синтетических голосов?
«Я не беспокоюсь, что это может лишить меня работы, — улыбается он. — Я действительно чувствую, что всегда найдется место для истинного человеческого голоса. Смысл иметь «даб» [его клон] не в том, чтобы заменить меня или кого-то еще, а в том, чтобы задействовать как дополнительный инструмент в моем бизнесе.»
Ребекка Деймон, исполнительный вице-президент союза актеров США, Гильдии киноактеров, говорит, что другой ключевой вопрос, связанный с клонированием голоса, заключается в том, чтобы артистам озвучки должным образом платили за них.
«Клонирование голоса может представлять собой захватывающую и потенциально прибыльную новую индустрию для наших членов, — говорит она. — Однако для нас, как и всегда, важно, чтобы исполнители голоса получали справедливую компенсацию и могли согласиться с тем, как используются их голоса.
С этой целью мы внимательно следим за развитием событий в области клонирования голоса и работаем с нашими членами над определением защитных ограждений, которые должны быть установлены для того, чтобы эта технология достигла своего потенциала в качестве новой и желанной области работы».
Г-н Хеллер добавляет, что проблема установления цен на голосовые клоны заключается в том, что «это «Дикий Запад» закадрового голоса».
«Самое важное, на мой взгляд, когда дело доходит до ценообразования и переговоров по контракту [для вашего искусственного голоса], это то, что вы не отказываетесь от всех прав и использования навсегда», — говорит он.
Источник: https://www.bbc.com/news/business-57761873