Riesgo altoIA de voz / Clonación de audio18+ (sin verificación real)1M+ usuarios activos mensuales
ElevenLabs
ElevenLabs y la clonación de voz explicada a padres — cuando la voz de tu hijo puede usarse sin que lo sepa
ElevenLabs permite clonar una voz con menos de un minuto de audio. La IA genera audio de esa voz diciendo cualquier cosa. Esta tecnología se está usando para fraudes telefónicos, para acosar a adolescentes usando la voz de sus amigos, y para crear contenido falso. Lo que antes requería equipos profesionales ahora lo hace cualquier persona en su móvil.
En 30 segundos
Qué es
Una plataforma de síntesis de voz por IA capaz de clonar cualquier voz con una muestra de audio breve — y generar audio de esa voz diciendo cualquier texto. Usada por creadores de contenido y profesionales de audio, pero también accesible para cualquier persona con acceso a un audio de la voz de alguien
Por qué
Un adolescente que tiene audios de WhatsApp de sus amigos tiene suficiente material para clonar sus voces con ElevenLabs. Eso permite crear audios falsos convincentes de personas reales diciendo cosas que nunca dijeron. Esta tecnología se está usando en casos de acoso, fraude y difamación — y los adolescentes de su entorno pueden ser tanto víctimas como perpetradores
Qué hacer
La conversación más urgente es sobre el audio como identidad: igual que una foto de alguien puede usarse sin su consentimiento, un audio de su voz también puede. Los audios de WhatsApp que manda tu hijo contienen suficiente información para clonar su voz
ElevenLabs se fundó en 2022 y en dos años se convirtió en la herramienta de síntesis de voz más avanzada disponible al público. Permite hacer dos cosas: generar voz sintética de alta calidad a partir de texto, y clonar voces reales a partir de muestras de audio.
La versión gratuita tiene límites. La de pago permite clonar voces con menos de un minuto de audio y generar audio ilimitado de esa voz diciendo cualquier cosa.
Los audios de WhatsApp que tu hijo ha mandado a sus amigos en el último año son material suficiente para clonar su voz.
Cómo funciona la clonación de voz
El proceso es técnicamente simple. El usuario sube una muestra de audio de la voz que quiere clonar. ElevenLabs analiza las características de esa voz — tono, ritmo, pronunciación, inflexión. Luego el usuario escribe el texto que quiere que esa voz diga. En segundos, tiene un audio.
El resultado no es perfecto. Pero es lo suficientemente convincente para la mayoría de los usos problemáticos: mensajes de voz a los padres desde el número del hijo, audios en grupos de WhatsApp de alguien diciendo algo que nunca dijo, llamadas que suenan como una persona real.
🎭
El deepfake de audio — el primo invisible del deepfake de imagen
Mientras los deepfakes de imagen han recibido atención mediática, los deepfakes de audio son igualmente convincentes y técnicamente más fáciles de crear. Un audio falso de la voz de alguien puede distribuirse en grupos de WhatsApp y escucharse en el mismo contexto que los audios reales de esa persona.
📱
Los audios de WhatsApp como muestra de entrenamiento
La mayoría de adolescentes manda audios de WhatsApp regularmente. Esos audios — si alguien los guarda o los recibe — son material suficiente para entrenar una clonación de voz básica. La privacidad de la voz es una noción que prácticamente no existía hace cinco años.
💸
Fraudes del abuelo — el uso criminal documentado
El fraude más documentado con clonación de voz IA es el llamado "fraude del abuelo": una llamada a un familiar mayor con la voz clonada de un nieto pidiendo dinero urgente. En España se han documentado cientos de casos desde 2023. Los adolescentes son tanto posibles víctimas (su voz clonada para estafar a sus abuelos) como posibles perpetradores.
😢
Acoso con voz clonada
En contextos de acoso escolar, la clonación de voz permite crear audios de la víctima diciendo cosas que nunca dijo y distribuirlos en grupos. Esta práctica está siendo documentada en institutos de varios países.
Los usos legítimos que conviene reconocer
ElevenLabs tiene aplicaciones profesionales reales: doblaje de contenido, audiolibros, accesibilidad para personas con dificultades de habla, producción de podcast y contenido de audio.
La empresa tiene políticas de uso aceptable y ha implementado algunos controles para detectar el uso fraudulento. Esos controles son imperfectos — pero existen. El problema no es que ElevenLabs sea una empresa maliciosa. Es que la tecnología que han desarrollado tiene usos problemáticos que están al alcance de cualquier persona.
25M+
audios de voz clonada generados mensualmente en ElevenLabs. El 14% de los usuarios reporta haberla usado para crear audio de voces de personas de su entorno sin su conocimiento o consentimiento.
Estimación basada en datos públicos de ElevenLabs y encuesta de uso, 2024
La voz era una de las últimas cosas que nadie podía suplantar sin recursos profesionales. Eso cambió en 2022. La mayoría de padres y adolescentes todavía no lo saben.
AIM-027👤 Marta (15 años)
imagen pendiente · posición right
Globo de diálogo
“Un chico del instituto hizo un audio con mi voz diciendo cosas. Se lo mandó a un grupo.”
Escena
Marta contándole a su madre lo que ha pasado. El móvil sobre la mesa, con el grupo de WhatsApp donde circuló el audio visible en la pantalla
Lugar
Salón de casa, tarde. Marta sentada con la espalda rígida. Su madre enfrente
Otros en la escena
El padre que llega en ese momento y ve la expresión de ambas
Tono / luz
Tensión tranquila. Marta ha decidido contarlo. La madre escuchando sin interrumpir. El peso de lo que está diciendo en el silencio de la habitación
👀
Cómo reconocerlo
Mencionar que alguien en su entorno ha recibido o distribuido audios falsos de voces de personas reales.
Conocimiento de ElevenLabs u otras herramientas de clonación de voz entre sus compañeros.
Cambio de comportamiento en el envío de audios de WhatsApp — más precaución o más angustia respecto a quién los recibe.
Recibir una llamada o audio de alguien que "suena raro" o que la persona dice no haber mandado.
Lo que es ilegal — dicho claramente
En España, crear audios falsos convincentes de personas reales para distribuirlos con el fin de dañar su reputación o acosar puede constituir un delito de:
Usurpación de identidad (artículo 401 del Código Penal)
Delito contra el honor por calumnia o injuria (artículos 205-210)
Acoso o stalking si forma parte de un patrón de conducta (artículo 172 ter)
Como con los deepfakes de imagen, la edad del autor no es eximente — puede dar lugar a procedimientos en justicia juvenil.
Configuración recomendada
No hay configuración técnica que proteja la voz de tu hijo. Cualquier audio de WhatsApp, vídeo de Instagram o clip de cualquier red social donde aparezca su voz puede ser usado como muestra para clonarla.
Hablar de la voz como dato sensible. Igual que enseñamos que no hay que compartir la dirección de casa o el número de teléfono con desconocidos, conviene enseñar que los audios que se mandan en grupos grandes contienen información que puede usarse sin consentimiento.
Si ocurre algo. Si tu hijo o alguien de su entorno es víctima de clonación de voz para acoso, la denuncia en la Policía Nacional o Guardia Civil (donde hay unidades especializadas en cibercrimen) es el primer paso. El Instituto Nacional de Ciberseguridad (INCIBE) tiene una línea de ayuda: 017.
Cómo hablar de esto en casa
Habla de esto con tu hijo/a
"Hay aplicaciones que pueden copiar la voz de alguien para hacer audios falsos — que suenen exactamente como esa persona diciendo cosas que nunca dijo. Los audios de WhatsApp que mandas son suficientes para hacerlo. No pasa nada por mandar audios, pero conviene saber que la voz, como las fotos, puede usarse de formas que no esperabas. ¿Has oído que esto haya pasado con alguien que conozcas?"
Esta semana
Busca un ejemplo de audio generado por IA con tu hijo y escuchadlo juntos. No para dar miedo — para que tenga referencia de lo que suena. El oído entrenado detecta imperfecciones. El oído no entrenado acepta el audio como real. Esa diferencia es una habilidad que se puede desarrollar.
Newsletter semanal — gratis
Cada semana: una app como ElevenLabs, explicada para padres
Análisis semanales de apps y mecanismos — con el guion exacto para hablar de ello con tus hijos esa misma semana. Sin algoritmo, sin datos guardados.