🗣 Consumer Reports: ИИ-клоны голосов угрожают безопасности пользователей
Consumer Reports (CR) опубликовал анализ шести сервисов голосового ИИ-клонирования (Descript, ElevenLabs, Lovo, PlayHT, Resemble AI и Speechify). Результаты исследования вызывают тревогу: большинство сервисов не имеют эффективных механизмов защиты от мошенничества.
🔹 Как работают ИИ-клоны голосов?
ИИ может воссоздать голос человека всего по нескольким секундам записи, что полезно для озвучки, дубляжа и редактирования аудио. Однако без надлежащих мер безопасности технология открывает двери для мошенников.
📌 Основные риски:
▪️ 📞 Фальшивые звонки от "родственников" с просьбами о деньгах
▪️ 🏛 Имитация знаменитостей и политиков для продвижения сомнительных продуктов
▪️ 🎙 Создание фейковых интервью и заявлений
⚠️ Что выявило исследование?
🔸 В 4 из 6 протестированных сервисов можно создать клон голоса без подтверждения согласия (ElevenLabs, Speechify, PlayHT, Lovo).
🔸 Некоторые компании (Descript, Resemble AI) предприняли меры по защите от злоупотреблений.
🔸 4 компании запрашивали только имя и email для создания аккаунта, что облегчает использование технологии мошенниками.
🔐 Что рекомендует CR?
✔️ Проверять согласие владельца голоса перед созданием клона
✔️ Внедрять водяные знаки на ИИ-генерированные аудиофайлы
✔️ Ограничивать доступ к голосовым моделям и контролировать их использование
✔️ Разрабатывать фильтры, которые блокируют фразы, характерные для мошенничества
✔️ Ввести жесткие меры регулирования на уровне государства
🔗 REAL DIGITAL
Consumer Reports (CR) опубликовал анализ шести сервисов голосового ИИ-клонирования (Descript, ElevenLabs, Lovo, PlayHT, Resemble AI и Speechify). Результаты исследования вызывают тревогу: большинство сервисов не имеют эффективных механизмов защиты от мошенничества.
🔹 Как работают ИИ-клоны голосов?
ИИ может воссоздать голос человека всего по нескольким секундам записи, что полезно для озвучки, дубляжа и редактирования аудио. Однако без надлежащих мер безопасности технология открывает двери для мошенников.
📌 Основные риски:
▪️ 📞 Фальшивые звонки от "родственников" с просьбами о деньгах
▪️ 🏛 Имитация знаменитостей и политиков для продвижения сомнительных продуктов
▪️ 🎙 Создание фейковых интервью и заявлений
⚠️ Что выявило исследование?
🔸 В 4 из 6 протестированных сервисов можно создать клон голоса без подтверждения согласия (ElevenLabs, Speechify, PlayHT, Lovo).
🔸 Некоторые компании (Descript, Resemble AI) предприняли меры по защите от злоупотреблений.
🔸 4 компании запрашивали только имя и email для создания аккаунта, что облегчает использование технологии мошенниками.
🔐 Что рекомендует CR?
✔️ Проверять согласие владельца голоса перед созданием клона
✔️ Внедрять водяные знаки на ИИ-генерированные аудиофайлы
✔️ Ограничивать доступ к голосовым моделям и контролировать их использование
✔️ Разрабатывать фильтры, которые блокируют фразы, характерные для мошенничества
✔️ Ввести жесткие меры регулирования на уровне государства
🔗 REAL DIGITAL