FOLLOW US ON SOCIAL

Posted On

14
Июль
2021

Клонирование голоса вызывает растущий интерес актеров и киберпреступников

Поскольку технология клонирования голоса становится все более эффективной, она вызывает все больший интерес со стороны актеров … и киберпреступников.
Когда Тим Хеллер впервые услышал свой клонированный голос, он сказал, что он был настолько точным, что «моя челюсть ударилась об пол … это было сногсшибательно».
Клонирование голоса — это когда компьютерная программа используется для создания синтетической адаптируемой копии голоса человека.
Из записи чьей-либо речи программа может затем воспроизвести его или ее голос, произнося любые слова или предложения, которые вы вводите на клавиатуре.
Последние достижения в технологии привели к тому, что компьютерный звук теперь считается невероятно точным. Программа может улавливать не только ваш акцент, но и ваш тембр, высоту звука, темп, ход речи и ваше дыхание.
А клонированный голос можно настроить для отображения любых требуемых эмоций, таких как гнев, страх, счастье, любовь или скука.
Г-н Хеллер, 29-летний закадровый художник и актер из Техаса, делает все: от изображения персонажей мультфильмов, озвучивания аудиокниг и документальных фильмов, выступлений о видеоиграх и озвучивания трейлеров к фильмам.
По его словам, недавно он обратился к клонированию голоса, чтобы сделать свою карьеру «перспективной».
Он говорит, что это может позволить ему получить больше работы. Например, если его когда-либо дважды забронировали, он мог предложить вместо этого отправить своего голосового клона для выполнения одной из работ.
«Если меня наняли для другой работы … я могу позиционировать свой «дубляж» [то, что он называет своим голосовым клоном] как вариант, который может сэкономить время клиентов и принести мне пассивный доход», — говорит г-н Хеллер.
Чтобы клонировать свой голос, г-н Хеллер отправился в бостонский бизнес под названием VocaliD — одну из постоянно растущих компаний, предлагающих эту услугу.
VocaliD был основан его исполнительным директором Рупалом Пателем, который также является профессором коммуникационных наук в Северо-Восточном университете.
Профессор Патель основала свой бизнес в 2014 году как продолжение своей клинической работы, создавая искусственные голоса для пациентов, которые не могут говорить без посторонней помощи, например людей, потерявших голос после операции или болезни.
Она говорит, что технология, которой руководит искусственный интеллект, программное обеспечение, которое может «учиться» и адаптироваться само по себе, значительно продвинулась вперед за последние несколько лет. Это привлекло внимание исполнителей закадрового озвучивания.
«Мы также специализируемся на создании индивидуальных голосов с более разнообразным акцентом», — говорит профессор Патель. «Мы сделали несколько трансгендерных голосов, мы сделали гендерно нейтральные голоса … технологии должны говорить так, как мы все, у всех нас есть уникальные акценты и голоса».
Клонирование голоса также может использоваться для перевода слов актера на разные языки, что потенциально означает, например, что американским кинопроизводственным компаниям больше не нужно будет нанимать дополнительных актеров для создания дублированных версий своих фильмов для распространения за рубежом.
Канадская компания Resemble AI заявляет, что теперь она может преобразовывать клонированные английские голоса в 15 других языков.
Ее генеральный директор Зохайб Ахмед говорит, что для создания качественной копии чьего-то голоса программе требуется запись чьей-либо речи продолжительностью всего 10 минут.
«Когда ИИ изучает ваш голос, он узнает многие свойства … такие как тембр, высота и интенсивность», — говорит он.
«Но он также изучает тысячи других особенностей [голоса человека], которые могут быть не очень очевидны для нас».
Тем не менее, несмотря на то, что все более изощренное клонирование голоса имеет очевидный коммерческий потенциал, оно также привело к растущим опасениям, что его можно использовать в киберпреступности — чтобы обмануть людей, о которых говорит кто-то другой.
Вместе с компьютерными фальшивыми видеороликами клонирование голоса также называется «дипфейком». А эксперт по кибербезопасности Эдди Бобрицки говорит, что синтетические голоса создают «огромный риск для безопасности».
«Когда дело доходит до электронной почты или текстовых сообщений, уже много лет известно, что выдать себя за других довольно легко», — говорит руководитель израильской фирмы Minerva Labs.
«Но до сих пор разговор по телефону с кем-то, кому ты доверяешь и хорошо знаешь, был одним из самых распространенных способов убедиться, что ты действительно знаком с этим человеком».
Г-н Бобрицкий говорит, что сейчас ситуация меняется. «Например, если начальник звонит сотруднику с просьбой предоставить конфиденциальную информацию, и сотрудник узнает голос, немедленный ответ — сделать то, о чем просили. Это путь к множеству киберпреступлений».
Фактически, о таком случае сообщил Wall Street Journal еще в 2019 году, когда одного британского менеджера обманным путем заставили перевести 220 000 евро (260 000 долларов США; 190 000 фунтов стерлингов) мошенникам, которые использовали клонированную копию голоса своего немецкого босса.
«Необходимо предпринять шаги для борьбы с этой новой технологией и угрозами, которые она несет», — добавляет г-н Бобрицкий.
Фирмы по всему миру на самом деле уже делают это, как сообщает специализированный новостной сайт в области искусственного интеллекта Venture Beat.
Такие компании могут отслеживать звук, чтобы определить, является ли он фальшивым, выявляя контрольные признаки, такие как повторение, цифровой шум и использование определенных фраз или слов.
Между тем правительства и правоохранительные органы также занимаются этим вопросом. В прошлом году Европол, правоохранительный орган Европейского Союза, призвал государства-члены сделать «значительные инвестиции» в технологии, которые могут обнаруживать дипфейки. А в США Калифорния запретила их использование в политических кампаниях.
Вернувшись в Техас, Тим Хеллер говорит, что, хотя он еще не продал свой клонированный голос, «несколько разных клиентов проявили интерес».
Но боится ли он, что в долгосрочной перспективе он может потерять работу из-за синтетических голосов других людей?
«Я не волнуюсь, что это может лишить меня работы», — говорит он. «Я действительно чувствую, что всегда будет место для настоящего человеческого голоса. Смысл «даба» [его клона] не в том, чтобы заменить меня или кого-либо еще, а в том, чтобы действовать как дополнительный инструмент в моем бизнесе».
Ребекка Дэймон, исполнительный вице-президент союза актеров США «Гильдия киноактеров», говорит, что еще одна ключевая проблема, связанная с клонированием голоса, заключается в том, что артистам за кадром платят за них должным образом.
«Клонирование голоса может стать захватывающей и потенциально прибыльной новой отраслью для наших участников», — говорит она. «Однако, как всегда, для нас очень важно, чтобы исполнители голоса получали справедливую компенсацию и имели возможность давать согласие на использование их голоса.
«С этой целью мы внимательно следим за разработками в области клонирования голоса и работаем с нашими участниками, чтобы определить ограждения, которые должны быть установлены для этой технологии, чтобы реализовать свой потенциал в качестве новой и долгожданной области работы».
Г-н Хеллер добавляет, что проблема установления цен на клоны голоса заключается в том, что «это «дикий запад» озвучивания».
«На мой взгляд, самое важное, когда речь идет о переговорах по ценообразованию и контракту [для вашего искусственного голоса], — это то, что вы не передаете все права и использование на неограниченный срок», — говорит он.