Algoritmos y sesgos cognitivos: una convergencia que redefine lo político
RESUMEN:
La combinación entre algoritmos de recomendación y sesgos cognitivos configura hoy uno de los núcleos más eficaces de manipulación política contemporánea. Plataformas como YouTube, Twitter/X, Facebook, Instagram y TikTok no solo distribuyen contenidos, sino que modelan experiencias afectivas personalizadas, reforzando creencias previas (sesgo de confirmación), amplificando lo más impactante o viral (sesgo de disponibilidad) y privilegiando lo negativo o conflictivo (sesgo de negatividad). Este circuito no opera simplemente como un efecto colateral de la tecnología, sino como un dispositivo estructurado que transforma la información en gratificación emocional repetitiva, erosionando el espacio deliberativo. En contextos políticos como el argentino, donde liderazgos disruptivos apelan a discursos agresivos y polarizantes, estos mecanismos se vuelven piezas clave para consolidar adhesiones, no por argumentación racional, sino por gratificación afectiva inmediata. Comprender esta convergencia entre cognición y tecnología es el primer paso para intervenir en un espacio público hoy gobernado por impulsos más que por ideas.
Introducción
En las últimas décadas, la psicología y la neurociencia han caracterizado a nuestra mente operando a través de dos sistemas de procesamiento: uno rápido, automático e intuitivo, y otro más deliberado y reflexivo. Este modelo dual, junto con esquemas como el de seis niveles de formación de actitudes (Rudolph, Hao & Ghoshal, 2025), explicita cómo las actitudes se construyen desde lo implícito, a través de emociones, creencias prefiguradas y normas sociales, hasta lo explícito, mediante argumentos y reflexiones conscientes.
Los sesgos cognitivos como la confirmación, la disponibilidad y el sesgo de negatividad, operan sobre ese primer sistema automático. Nos llevan a buscar y recordar información que refuerza nuestras creencias, a sobrevalorar lo reciente o llamativo, y a prestar más atención a lo negativo. Estos mecanismos se han potenciado con la irrupción de algoritmos de “recomendación” en redes sociales, que personalizan contenidos con alta eficiencia, consolidando narrativas y reforzando polarizaciones.
- Confirmación, disponibilidad y negatividad: cómo actúan los sesgos:
- Confirmación: buscamos y aceptamos sólo lo que valida nuestras ideas previas. En redes, esto se potencia porque los filtros muestran contenidos alineados con nuestras ideas preexistentes.
- Disponibilidad: creamos creencias basadas en lo que se repite y memoriza fácilmente. Un titular impactante o una noticia viral queda guardada como representativa o frecuente, incluso si no lo es.
- Negatividad: damos más peso a lo alarmante o conflictivo. Este sesgo amplifica discursos agresivos, exacerba miedos y configura agendas emocionales intensas.
Estos sesgos generan un público segmentado y emocionalmente impulsado, que no busca información variada sino refuerzo emocional y narcisista: una condición ideal para estrategias de neuromarketing y manipulación mediática.
- ¿Cómo funcionan los algoritmos en redes sociales?
Las plataformas como YouTube, Facebook y Twitter/X implementan algoritmos que priorizan engagement: clics, comentarios, compartidos. Estos sistemas:
- Registran todo: historial, tiempo de visualización, interacciones.
- Aprenden lo que más atrapa: ajustan el contenido ofrecido según predicción de reacciones futuras.
- Refuerzan interacciones repetitivas: si reaccionás emocionalmente, te mostrarán más estímulos similares. Lo hacen todos los días, todo el tiempo.
Varios estudios (YouTube Bunny-holing, Twitter/X audit) confirman que la lógica algorítmica tiende hacia lo que recibimos con más fuerza emocional.
- Convergencia: sesgos + algoritmos = campo fértil para manipulación
El sistema funciona así:
- Un mensaje diseñado (ej., teaser conflictivo) provoca un sesgo emocional: indignación o confirmación.
- El algoritmo lo detecta como eficaz y lo amplifica a usuarios afines.
- Ese contenido genera nuevas reacciones que reafirman el patrón de atención y lo vuelve más polarizador.
Se crea así una espiral emocional, donde los usuarios construyen su realidad a partir de experiencias repetitivas, y no tanto de datos contrastados. Esto impacta el comportamiento electoral, la adhesión a discursos radicales y la legitimación afectiva de liderazgos.
- Un desafío teórico y político
Entender esta convergencia entre algoritmos y sesgos requiere:
- Identificación precisa de sesgos (qué buscan, cómo circulan).
- Análisis técnico de algoritmos (qué refuerzan, cómo regulan la atención).
- Intervenciones públicas: desde alfabetización algorítmica hasta contrapublicidad emocional estratégica.
Este enfoque ofrece una herramienta crítica a nuestro proyecto: no se trata sólo de documentar, sino de diseñar espacios de contraposición simbólica a la lógica emocional dominante, activando experiencias positivas, democráticas y reflexivas.
Biblio para seguir leyendo:
Chavalarias, D., Bouchaud, P., & Panahi, M. (2023)**
Can Few Lines of Code Change Society? … recommender systems toxify social networking sites. Modeliza cómo los algoritmos de recomendación potencian el sesgo hacia contenidos negativos, produciendo polarización y concentración del poder discursivo.
Haroon, M., Chhabra, A., Liu, X., Mohapatra, P., Shafiq, Z., & Wojcieszak, M. (2022). YouTube, The Great Radicalizer? Auditing and Mitigating Ideological Biases in YouTube Recommendations. arXiv.
Putri, S. D. G., Purnomo, E. P., & Khairunissa, T. (2024). Echo Chambers and Algorithmic Bias: The Homogenization of Online Culture in a Smart Society. SHS Web of Conferences. https://www.shs-conferences.org/articles/shsconf/pdf/2024/22/shsconf_icense2024_05001.pdf
Rudolph, B., Hao, H., & Ghoshal, T. (2025)
Cognitive Biases in Online Opinion Platforms: A Review and Mapping. SAGE Open.
Este artículo sistematiza los sesgos presentes en plataformas digitales —como confirmación y negatividad— y ofrece un marco comparativo sobre cómo funcionan en entornos online.
Ye, J., Luceri, L., & Ferrara, E. (2024). Auditing Political Exposure Bias: Algorithmic Amplification on Twitter/X Approaching the 2024 U.S. Presidential Election. arXiv.