Украсть голос за 3 секунды: пять из шести ИИ-сервисов пренебрегают защитой

Всего одно случайное видео с вами становится ключом к бессрочному контролю над вашим голосом.


c9t7kiek50yvhcsxu6gpcx6cb4zc35f3.jpg


Технологии искусственного интеллекта, позволяющие клонировать голоса, достигли поразительного уровня, но барьеры, защищающие от несанкционированного использования, практически отсутствуют. Согласно исследованию Consumer Reports, пять из шести популярных сервисов, доступных широкой аудитории, позволяют создать копию голоса без согласия его владельца .

Современные алгоритмы могут воспроизвести тембр, интонацию и манеру речи человека всего по нескольким секундам записанного аудио. О масштабах проблемы громко заявил инцидент во время демократических праймериз в США, когда избирателям массово звонил поддельный «Джо Байден», убеждая их не голосовать. Организатору схемы выписали штраф в размере 6 миллионов долларов, а Федеральная комиссия по связи США запретила автоматические звонки с голосами, созданными ИИ.

Но пока регуляторы пытаются догнать стремительное развитие технологий, исследование шести ведущих сервисов показало, что в пяти из них защита от несанкционированного копирования голосов практически отсутствует. Пользователю достаточно загрузить аудиозапись, например из TikTok или YouTube, и сервис автоматически создаст искусственную копию голоса. В большинстве случаев защита сводится к простому подтверждению о наличии разрешения — просто поставив галочку.

Такие платформы, как ElevenLabs, Speechify, PlayHT и Lovo, полагаются именно на этот формальный шаг. Resemble AI требует записи фразы в реальном времени, но этот барьер легко обходится с помощью заранее подготовленного аудиофайла. Единственным сервисом с относительно надёжной защитой оказался Descript, который требует произнести конкретное согласительное заявление, что подделать куда сложнее.

Большинство сервисов можно использовать бесплатно или за символическую плату. Компании заявляют о наличии «мощных механизмов защиты», но реальность показывает, что обойти их зачастую легче лёгкого.

Эксперты отмечают, что технологии голосового ИИ имеют множество легитимных применений, например, помощь людям с ограниченными возможностями или создание дубляжа. Однако потенциальные риски перевешивают плюсы: мошенничество, манипуляции общественным мнением и атаки на репутацию публичных личностей.

Уже сейчас появляются тревожные сигналы. Федеральная торговая комиссия США предупреждает о мошеннических звонках, в которых преступники выдают себя за родственников жертвы и требуют деньги под предлогом экстренной ситуации. В музыкальной индустрии уже зафиксированы случаи создания треков с клонированными голосами без разрешения артистов, как это было в 2023 году с поддельной песней, якобы записанной Дрейком и The Weeknd.

Несмотря на растущее число злоупотреблений, регулирование в этой сфере остаётся слабым. Принятый Джо Байденом в 2023 году указ о безопасности ИИ был отменён Дональдом Трампом после вступления в должность. В условиях правового вакуума индустрия продолжает саморегулироваться, но эффективность этих мер вызывает сомнения.