IA de imagen explicado a padres — Midjourney, DALL-E y los generadores que cambian lo que significa una foto
Los generadores de imágenes por IA permiten crear cualquier imagen a partir de texto: retratos realistas de personas que no existen, fotos de situaciones que nunca ocurrieron, versiones alteradas de imágenes reales. Eso tiene aplicaciones creativas legítimas. También tiene aplicaciones que los adolescentes están usando de formas que los padres no conocen.
En 30 segundos
Qué es
Herramientas que generan imágenes realistas a partir de descripciones de texto — desde arte creativo hasta fotografías hiperrealistas de personas y situaciones que no existen. Las principales son Midjourney, DALL-E (de OpenAI, integrado en ChatGPT), Stable Diffusion e Ideogram. También existen herramientas especializadas en alterar imágenes reales que están siendo usadas para crear contenido íntimo no consentido de personas reales
Por qué
El riesgo no es que los adolescentes usen IA para hacer arte. Es que la misma tecnología que permite crear arte también permite crear imágenes falsas convincentes de personas reales — y herramientas especializadas para hacerlo están disponibles sin fricción. El 'deepfake de foto' ha pasado de ser técnicamente complejo a estar al alcance de un adolescente con un móvil
Qué hacer
La conversación más urgente no es sobre creatividad con IA — es sobre deepfakes y contenido no consentido. Especialmente con adolescentes de 13 a 17 años, esta conversación merece ocurrir antes de que se enfrenten a ello
Hace tres años, crear una imagen hiperrealista de una persona que no existe requería habilidades técnicas avanzadas y horas de trabajo. Hoy, cualquier adolescente puede escribir una descripción en texto y obtener esa imagen en diez segundos.
Eso ha cambiado permanentemente qué significa una fotografía — y qué significa la privacidad visual de una persona.
Qué son los generadores de imagen IA
Midjourney. El generador de imágenes artísticas más usado. Funciona a través de Discord. Produce imágenes estilizadas de altísima calidad. Requiere suscripción (desde $10/mes) pero tiene prueba gratuita.
DALL-E. El generador de OpenAI, integrado en ChatGPT Plus. Produce imágenes fotorrealistas y artísticas. Accesible para cualquier usuario de ChatGPT.
Stable Diffusion. Código abierto, instalable en local. Sin filtros de seguridad en la versión no moderada. La más utilizada para generar contenido que otras herramientas rechazan.
Ideogram / Adobe Firefly / Canva IA. Herramientas integradas en plataformas de diseño que los adolescentes ya usan para proyectos del colegio.
🎨
La creatividad genuina — el uso mayoritario
La mayoría de adolescentes que usan generadores de imagen lo hacen para proyectos creativos: arte para perfiles, fondos de pantalla, ilustraciones para proyectos escolares, experimentación estética. Ese uso es legítimo y, en muchos casos, genuinamente valioso.
😶
Imágenes de personas reales sin consentimiento
La misma tecnología que genera arte puede generar imágenes realistas de personas reales en situaciones que nunca ocurrieron. Eso incluye imágenes de compañeros de clase, profesores o familiares. La creación de estas imágenes — aunque no sean distribuidas — es éticamente problemática y en muchos casos ilegal.
🚨
Deepfakes íntimos — el riesgo más urgente
Existen herramientas especializadas, algunas accesibles desde el móvil, diseñadas específicamente para generar imágenes íntimas alteradas de personas reales a partir de una fotografía normal. Su uso está siendo documentado en institutos españoles. Esto constituye un delito en España desde 2022 (artículo 197 del Código Penal).
🔍
La desinformación visual
Imágenes generadas por IA de eventos que no ocurrieron, personas haciendo cosas que no hicieron, situaciones inventadas que parecen fotografías reales. Los adolescentes están expuestos a este tipo de contenido en redes sociales — y tienen menos herramientas que los adultos para detectarlo.
El deepfake íntimo en institutos españoles
En 2023, el caso del instituto de Almendralejo llegó a los medios nacionales: un grupo de adolescentes usó una app de IA para generar imágenes íntimas falsas de compañeras de clase usando fotos de sus perfiles de Instagram. Las imágenes fueron distribuidas entre el grupo.
No fue un caso aislado. Los orientadores escolares de toda España reportan casos similares desde ese año.
La tecnología que lo permite es accesible, gratuita en muchos casos, y no requiere conocimientos técnicos. El único freno es ético y legal — y los adolescentes que usan estas herramientas frecuentemente no saben que están cometiendo un delito.
1 de cada 10
adolescentes españolas de 14 a 17 años reporta haber recibido o conocer casos en su entorno de imágenes íntimas falsas generadas por IA de personas reales. El 67% de esos casos no fue denunciado formalmente.
Save the Children España, Informe sobre Violencia Digital 2024
La misma tecnología que permite a un adolescente crear arte en Midjourney permite a otro generar imágenes íntimas falsas de su compañera de clase. La diferencia no está en la tecnología — está en la conversación que ha habido o no ha habido sobre qué significa usarla.
AIM-026👤 Carmen (16 años)
imagen pendiente · posición right
Globo de diálogo
“Una amiga me contó que había fotos falsas suyas circulando. No sé ni cómo se hacen esas cosas.”
Escena
Carmen hablando con su madre en la cocina, con el móvil en la mano. La conversación acaba de girar a un tema que Carmen no esperaba tener que contar
Lugar
Cocina de casa, tarde. Carmen apoyada en la encimera. La madre de pie frente a ella, escuchando
Otros en la escena
El silencio después de lo que Carmen ha contado. La madre procesando lo que significa
Tono / luz
Luz de tarde. Una conversación seria que ha llegado sola, sin que nadie la haya provocado. Carmen: incómoda pero aliviada de contarlo. Madre: serena pero preocupada
👀
Cómo reconocerlo
Mencionar que alguien en su entorno ha recibido imágenes falsas generadas por IA.
Usar Midjourney, DALL-E u otros generadores de imagen — sin que eso sea señal de problema, pero sí motivo de conversación.
Conocimiento de apps o sitios web específicamente orientados a alterar imágenes de personas.
Participación en grupos de WhatsApp o Telegram donde circulan imágenes generadas por IA de personas reales.
Cambio de comportamiento en el uso de fotos propias en redes sociales — más cautela o más angustia respecto a la privacidad visual.
Lo que es ilegal — dicho claramente
En España, desde la reforma del Código Penal de 2022:
Crear imágenes íntimas falsas de una persona sin su consentimiento usando IA es un delito, aunque no sean distribuidas (artículo 197 ter del Código Penal).
Distribuirlas agrava la pena considerablemente.
Esto aplica a adolescentes. La edad no es eximente — puede dar lugar a procedimientos en el sistema de justicia juvenil.
Los adolescentes que usan estas herramientas frecuentemente no lo saben. Contárselo es más efectivo que esperar a que ocurra.
Cómo hablar de esto en casa
Habla de esto con tu hijo/a
"Hay aplicaciones de IA que pueden crear fotos falsas que parecen reales — de personas, de sitios, de cosas que no han ocurrido. Usarlas para crear imágenes de personas reales sin su permiso, especialmente imágenes íntimas, es ilegal en España. No importa si tienes 12 o 16 años — eso puede tener consecuencias legales reales. ¿Has oído que esto haya pasado en tu colegio?"
Esta semana
Ten la conversación sobre deepfakes antes de que sea necesaria. No hace falta que haya ocurrido algo en su entorno para hablar de ello. De hecho, la conversación es mucho más efectiva cuando no hay urgencia y puede ocurrir con calma.
Pregunta si sabe qué son los deepfakes de imagen. Si sabe que crear imágenes íntimas falsas de personas es ilegal. Si ha oído que esto ha pasado en algún contexto que conoce.
La respuesta revelará qué tan cerca o lejos está del tema.
Newsletter semanal — gratis
Cada semana: una app como Generadores de imagen IA, explicada para padres
Análisis semanales de apps y mecanismos — con el guion exacto para hablar de ello con tus hijos esa misma semana. Sin algoritmo, sin datos guardados.