Algoritmo de recomendación por engagement — por qué el feed no es neutral
El algoritmo no decide qué es importante o útil. Decide qué produce más interacción. Esas dos cosas se parecen en la superficie pero producen feeds radicalmente diferentes — y las consecuencias de esa diferencia se acumulan silenciosamente con cada scroll.
En 30 segundos
Qué es
El sistema que decide qué ves en el feed, optimizado para maximizar interacción — no para mostrarte lo más útil o verdadero
Por qué
El contenido que gana en esa optimización es el de mayor activación emocional: indignación, miedo, controversia
Qué hacer
Actúa sobre el algoritmo: sigue activamente lo que te interesa, y marca como 'no me interesa' lo que no elegirías
Si llegaste buscando cómo funciona el algoritmo de recomendación: optimiza para maximizar el engagement — clics, likes, comentarios, tiempo de visualización — no para maximizar tu bienestar o información. Esa diferencia parece abstracta hasta que ves qué tipo de contenido gana sistemáticamente en esa optimización.
El feed no es un espejo de lo que existe. Es una selección de lo que el algoritmo predice que te hará interactuar.
Esa diferencia parece pequeña. En práctica, cambia completamente qué ves, qué no ves, y en qué dirección se mueve tu visión del mundo con cada scroll.
El mecanismo
Los algoritmos de recomendación de las principales plataformas — Meta, YouTube, TikTok, Twitter/X — comparten una arquitectura conceptual: recogen señales de comportamiento del usuario (clics, tiempo de visualización, comentarios, compartidos, reacciones), usan esas señales para predecir qué contenido producirá más de esas señales en el futuro, y muestran ese contenido.
La métrica objetivo es el engagement — el conjunto de comportamientos que indican que el usuario está activo en la plataforma. Más engagement = más tiempo en la plataforma = más datos = más publicidad vendida.
El problema es que el contenido que maximiza el engagement no es el mismo que el contenido más informativo, más veraz, o más útil para el usuario.
Investigación de Brady et al. (2017) mostró que el contenido que incluye lenguaje moral-emocional — indignación, miedo, escándalo — se difunde significativamente más en redes sociales que el contenido neutro informativo de igual calidad. El algoritmo, al optimizar para difusión, aprende a amplificar ese tipo de contenido.
2017
fue cuando PNAS publicó que el contenido con lenguaje moral-emocional se difunde más que el contenido neutro de igual calidad. El algoritmo aprende ese patrón — y lo amplifica.
Brady et al., PNAS (2017)
El resultado: el feed se llena sistemáticamente de contenido que activa respuestas emocionales fuertes — no porque sea más importante, sino porque produce más clics.
Demo interactivaAlgoritmo de engagement · qué sube y qué baja
El mismo feed, dos criterios de ordenación. Elige cuál ver primero:
👩
Elena M.Indignación#1 en tu feed
¡No puedo creer lo que acaba de pasar! Esta empresa lleva años mintiendo a sus clientes y NADIE lo dice. Comparte esto antes de que lo borren. 🔥
❤️ 4,821💬 632
🥑
AlimentaciónViralDesinformación
¡Tu médico NO QUIERE QUE SEPAS esto sobre los carbohidratos! La VERDAD que el sistema oculta 😱
❤️ 3,672💬 441
🧑
Marcos T.Clickbait
¿SABÍAS que si haces esto con tu teléfono pasan ESTAS cosas? El truco que nadie te cuenta 👇 (hilo)
❤️ 2,104💬 289
👨⚕️
Dr. RamosAnálisis
Nuevo estudio sobre sueño y salud cardiovascular. Los resultados son más matizados de lo que reportan los titulares — aquí explico qué encontraron realmente.
❤️ 187💬 41
👩💼
Laura G.Reflexión
Reflexión sobre por qué el modelo económico actual tiene problemas estructurales que pocas veces se nombran. No hay respuestas fáciles, pero sí algunas preguntas útiles.
❤️ 143💬 28
👩🔬
Ana S.Experiencia
Hoy empecé a usar una técnica de lectura que aprendí hace meses y que había olvidado. La diferencia en comprensión fue notable. Por si a alguien le sirve.
❤️ 98💬 19
¿El contenido de mayor engagement fue el de mayor calidad informativa? En la demo, como en la realidad, la correlación es débil o inversa. El algoritmo no tiene una función objetivo de "calidad" — tiene una función objetivo de "interacción". Y la interacción es más fácil de conseguir con indignación, miedo y curiosidad que con análisis sereno.
Lo que acabas de vivir
El experimento usa una pequeña muestra de posts. A escala, con millones de usuarios y billones de interacciones, los patrones se hacen más nítidos — y los efectos más fuertes.
El sesgo de negatividad amplificado. Los seres humanos tienen un sesgo cognitivo hacia la información negativa — la procesamos más rápido, le damos más peso, la recordamos más. El algoritmo aprende ese sesgo porque se manifiesta en el comportamiento: hacemos clic más en titulares negativos, comentamos más contenido que nos indigna, compartimos más lo que nos alarma. Al aprender y amplificar ese patrón, el feed genera una percepción del mundo más negativa que la realidad estadística.
El ciclo de refuerzo del extremismo. Bail et al. mostraron que la exposición a contenido de posiciones opuestas en redes sociales — a través de cuentas de bots que amplificaban ese contenido — polarizaba más a los usuarios en lugar de moderarlos. El algoritmo de engagement amplifica las posiciones más extremas de cada lado porque generan más reacción que las posiciones moderadas.
La aceleración del ciclo de atención. Lorenz-Spreen et al. documentaron que el ciclo de vida de los temas de atención colectiva se ha acelerado significativamente con las redes sociales. Un tema que antes duraba semanas en la atención pública ahora dura días u horas. La aceleración está parcialmente producida por el algoritmo, que empuja nuevo contenido constantemente porque el contenido viejo ya fue procesado y no genera más engagement.
👀
Cómo reconocerlo
Terminar una sesión en redes sociales con una sensación de alarma o preocupación que no tenías antes de entrar.
Ver los mismos tipos de contenido repetidamente — los que ya interactuaste antes — en lugar de variedad real.
Notar que el contenido que más ves es el que más te activa emocionalmente, no el más relevante para tus intereses reales.
En adolescentes: visión del mundo más polarizada o pesimista que la de personas de similar edad con menor exposición a redes sociales.
Dificultad para recordar qué viste en la última sesión de scroll — porque el contenido fue procesado superficialmente, sin atención real.
Cuándo es un problema y cuándo no
Señales de que el algoritmo está distorsionando la percepción
El feed produce consistentemente activación emocional negativa
Salir de una sesión en redes con preocupación, irritación o pesimismo que no estaba antes de entrar. Si ocurre sistemáticamente, el algoritmo está optimizando para activación, no para bienestar.
El contenido visto no corresponde a los intereses declarados
Hay una diferencia entre lo que se ve (lo que el algoritmo amplifica) y lo que se quería ver (lo que el usuario buscaría activamente). Esa brecha es el espacio que el algoritmo llena con contenido de alto engagement.
La visión del mundo se estrecha con el tiempo
El efecto cámara de eco — ver principalmente perspectivas similares — produce una percepción de que el propio punto de vista es más universal de lo que es.
Perspectiva relevante
El algoritmo también puede ser útil
Los sistemas de recomendación ayudan a descubrir contenido relevante en océanos de información. El problema no es la recomendación en sí — es la función objetivo de optimización (engagement vs. relevancia o bienestar).
El contenido que eliges buscar activamente es diferente
Cuando usas la búsqueda en lugar del feed, el algoritmo tiene menos influencia sobre qué ves. El modo de consumo pasivo (scroll de feed) es más susceptible al sesgo algorítmico que el consumo activo (búsqueda de contenido específico).
Tres cosas que puedes hacer esta semana
1. Sustituye el scroll de feed por búsqueda activa
En lugar de abrir la app y consumir lo que el algoritmo te muestra, ve con una intención específica: buscar un tema concreto, ver contenido de una persona concreta, hacer una tarea concreta. El consumo intencional reduce la exposición al sesgo algorítmico del feed.
2. Introduce fuentes sin algoritmo
RSS, newsletters, podcasts seleccionados manualmente — formatos donde no hay algoritmo de engagement entre el creador y tú. La curation manual tiene sesgos propios, pero son tus sesgos, no los del sistema de engagement.
3. Pregunta "¿qué no estoy viendo?"
El algoritmo es selectivo por naturaleza. Lo que no muestra es tan importante como lo que muestra. Diversificar activamente las fuentes de información — especialmente en temas sobre los que tienes opinión formada — reduce el efecto cámara de eco.
Habla de esto con tu hijo/a
"Cuando abres una app de vídeos, ¿cómo decides qué ver? ¿Lo eliges tú, o la app te va poniendo cosas? Normalmente la app elige por ti. Y lo que la app elige no es lo más útil ni lo más interesante — es lo que ella sabe que seguramente vas a ver. A veces es lo mismo que ves siempre. ¿Qué pasaría si pudieras elegir tú exactamente qué quieres ver antes de abrir la app?"
El feed no muestra el mundo — muestra una selección del mundo optimizada para que interactúes. Esas dos cosas son muy diferentes. La diferencia se acumula en la percepción con cada sesión de scroll.
El feed no muestra el mundo — muestra una selección del mundo optimizada para que interactúes. Esas dos cosas son muy diferentes. La diferencia se acumula en la percepción con cada sesión de scroll.
Continúa leyendo
El 40% restante explica cómo desactivar este mecanismo
Suscríbete gratis para leer el essay completo, la demo interactiva y la guía práctica.
Sin spam. GDPR compliant.
Fuentes
1.Bail, C. et al. — Exposure to Opposing Views on Social Media Can Increase Political Polarization, PNAS (2018). Efecto del algoritmo de engagement en polarización.
2.Lorenz-Spreen, P. et al. — Accelerating Dynamics of Collective Attention, Nature Communications (2019). Aceleración del ciclo de atención en entornos algorítmicos.
3.Brady, W., et al. — Emotion Shapes the Diffusion of Moralized Content on Social Networks, PNAS (2017). La moralización emocional amplifica la difusión en redes.
4.Stray, J. — Aligning AI Optimization to Society, AAAI Workshop (2020). Análisis de los objetivos de optimización de los sistemas de recomendación.
5.Facebook — Internal research documents published via Frances Haugen (2021). Incluye investigación interna sobre el efecto del algoritmo en usuarios adolescentes.
6.YouTube — Recommendation system overview (Creator Academy, 2023). Documentación oficial del sistema de recomendación de YouTube.