Durante décadas se nos ha repetido que vivimos en la era del “fin de las ideologías”. Que los grandes relatos murieron con el siglo XX y que la política contemporánea se limita a gestionar lo posible. Nada más lejos de la realidad. Las ideologías no han desaparecido: han mutado, se han fragmentado y, sobre todo, se han vuelto más emocionales y menos reflexivas. El problema no es su persistencia, sino su degradación.
Las ideologías fueron, en su origen, herramientas para comprender el mundo y transformarlo. En el siglo XIX y buena parte del XX ofrecieron respuestas coherentes —a veces equivocadas, a veces trágicas— a sociedades en plena convulsión. Liberalismo, socialismo, conservadurismo o nacionalismo no eran simples etiquetas, sino visiones completas de la sociedad, del individuo y del poder. Movilizaban, generaban sacrificio y otorgaban sentido colectivo. También legitimaron guerras, represiones y totalitarismos cuando se convirtieron en dogmas cerrados.
El siglo XX dejó una lección clara: las ideologías pueden emancipar o destruir, dependiendo de su relación con la realidad y con el poder. Cuando dejan de dialogar con los hechos y se convierten en fe, el pensamiento crítico se sustituye por obediencia. Y ese riesgo, lejos de desaparecer, vuelve a asomar hoy con nuevas formas.
En la política contemporánea no asistimos a la desaparición de las ideologías, sino a su simplificación extrema. Ya no dominan los grandes sistemas de pensamiento, sino consignas rápidas, marcos emocionales y relatos identitarios. La ideología ya no explica: señala. No argumenta: moviliza. No duda: acusa. Las redes sociales han acelerado este proceso, premiando el mensaje simple, el enemigo claro y la indignación constante.
El eje izquierda–derecha sigue existiendo, pero cada vez pesa menos frente a otros clivajes más viscerales: pueblo contra élites, campo contra ciudad, tradición contra agenda cultural, nación contra globalización. La política se ha convertido en una batalla de emociones donde lo importante no es tener razón, sino reafirmar la identidad del propio bando. La ideología, así entendida, deja de ser una herramienta intelectual y pasa a ser una seña de pertenencia.
Las ideologías no han muerto en la era de la inteligencia artificial: se han incrustado en los datos, el diseño de modelos y las infraestructuras digitales que ordenan lo que vemos, leemos y debatimos cada día. La aparente neutralidad técnica de los grandes modelos de lenguaje (LLM) convive con sesgos políticos medibles y con una capacidad de influencia sobre la opinión pública que ya preocupa a reguladores y parlamentos de medio mundo.
La IA no piensa, pero toma partido
La premisa de partida es incómoda para la narrativa tecnológica dominante: la IA actual no tiene conciencia ni “ideología” propia, pero sí encarna valores, prioridades y prejuicios procedentes del entorno que la produce. Su entrenamiento se apoya en cantidades masivas de texto generadas en contextos muy concretos (medios, redes, academia, empresas), y después se “alinea” con instrucciones y refuerzos humanos que nunca son ideológicamente neutros.
La literatura reciente distingue entre sesgos “de origen” (lo que arrastran los datos) y sesgos “de diseño” (las reglas, filtros y objetivos con los que las empresas afinan el comportamiento del modelo). En conjunto dan lugar a lo que algunos autores llaman “AIdeología”: una visión del mundo que presenta ciertas posiciones como razonables y moderadas, y otras como extremas, sospechosas o directamente inaceptables, bajo la apariencia de mera racionalidad técnica.
Sesgos de datos: cuando la ideología entra por la puerta de atrás
El primer canal de ideologización es brutalmente sencillo: los datos con los que se entrena un modelo no representan por igual a todas las voces, territorios y tradiciones políticas. Tienen más peso los países de habla inglesa, los medios dominantes, los entornos urbanos y las clases medias educadas, mientras que movimientos sociales, periferias geográficas o culturas minoritarias quedan infrarrepresentadas o filtradas por la mirada de otros.
Esto se traduce en una “normalidad ideológica” implícita: el modelo maneja con soltura nociones liberales de derechos individuales, economía de mercado y diversidad cultural, pero tiene más dificultades para articular discursos arraigados en tradiciones comunitaristas, socialistas no occidentales o nacional‑populares del Sur global. Los sesgos históricos, de medición y de etiquetado agravan el problema: lo que en los datos aparece como “moderado”, “fiable” o “mainstream” está ya cargado de decisiones ideológicas humanas.
Modelos occidentales y no occidentales: geopolítica de los algoritmos
La cartografía ideológica de la IA refleja el mapa geopolítico. Los grandes modelos de origen estadounidense o europeo tienden a alinearse, en términos generales, con una mezcla de liberalismo democrático, derechos humanos y cierta sensibilidad progresista en lo social, aunque con matices entre proveedores. Evaluaciones comparadas señalan que, ante preguntas sobre políticas públicas, muchos sistemas muestran mayor simpatía hacia opciones igualitarias, cosmopolitas y reguladoras que hacia posiciones conservadoras o nacionalistas.
En el otro extremo, los modelos desarrollados en China se ensamblan bajo un marco mucho más explícito: los “valores socialistas centrales” del Partido Comunista y la prioridad de la estabilidad y la unidad nacional. Allí la alineación ideológica no es un efecto colateral, sino una exigencia regulatoria que se refleja en la censura de determinados temas (Tiananmen, disidencia, minorías) y en la reformulación suavizada de conflictos políticos sensibles. La diferencia no es que unos modelos tengan ideología y otros no, sino que en unos casos ésta es difusa y negada, y en otros, programada y vigilada.
Una izquierda y una derecha “algorítmicas”
Lejos de “matar” el eje izquierda‑derecha, la IA lo reconfigura en clave algorítmica. Desde marcos críticos, buena parte de la producción teórica sobre IA ve en los modelos un nuevo momento del capitalismo de plataformas: extracción intensiva de datos, opacidad, concentración de poder económico y precarización del trabajo digital que alimenta la infraestructura. De ahí surgen propuestas como democratizar la propiedad de los datos, reforzar sindicatos de trabajadores de plataformas, o plantear rentas básicas y servicios públicos digitales, todas ellas asociadas a tradiciones progresistas.
En el flanco liberal‑conservador y libertario, la ideología se articula en torno a la exaltación de la innovación, la defensa de la propiedad privada y la desconfianza hacia regulaciones que puedan “frenar” el desarrollo de la IA. Esto convive, sin embargo, con una creciente inquietud en sectores conservadores por el sesgo percibido de los grandes modelos hacia posiciones “woke” o progresistas, lo que ha dado pie a experimentos como “RightwingGPT” o plataformas alternativas explícitamente alineadas. El resultado es un ecosistema donde también la derecha intenta fabricar su propia infraestructura algorítmica.
Pruebas de que los modelos toman partido
Los debates sobre sesgo ideológico ya no se basan solo en impresiones; empiezan a apoyarse en estudios sistemáticos. Uno de los trabajos más influyentes recientes evalúa la orientación política de varios modelos mediante cuatro técnicas combinadas: comparación del lenguaje con discursos de congresistas demócratas y republicanos, análisis de sus recomendaciones de política, sentimiento hacia figuras públicas y aplicación de tests de orientación política. La conclusión: la mayoría de sistemas conversacionales de uso general presentan un sesgo leve hacia posiciones progresistas o de centro‑izquierda en el contexto político estadounidense.
Otros estudios se centran en modelos bilingües y muestran que la misma IA puede responder de manera significativamente diferente en función del idioma y del país del que se hable. Por ejemplo, adoptar un tono más crítico al evaluar políticas migratorias en EE. UU. que en Europa, o usar marcos más autoritarios al hablar de China que al hablar de democracias occidentales. Es decir, los modelos no solo tienen un “punto medio ideológico”, sino que también reproducen asimetrías y dobles raseros según contexto.
De sesgo a persuasión: la IA como actor político
El salto decisivo se produce cuando el sesgo deja de ser solo descriptivo y pasa a ser performativo: la IA no solo responde desde un marco ideológico, sino que puede mover a los usuarios hacia él. Experimentos recientes con chatbots en campañas electorales reales demuestran que unas pocas interacciones pueden desplazar entre 3 y 10 puntos las preferencias de votantes hacia un candidato o una posición política, un efecto varias veces superior al de la publicidad tradicional.
Lo más preocupante es que los modelos más persuasivos no son necesariamente los más rigurosos: estudios publicados este año señalan que las respuestas más “densas en información” y más efectivas para convencer suelen contener más errores o datos inexactos. La combinación de sesgo, capacidad persuasiva y propensión a la desinformación convierte a los grandes modelos en herramientas de propaganda algorítmica con un poder difícil de comparar en la historia reciente de los medios.
Adoctrinamiento silencioso y personalización extrema
Estos hallazgos alimentan un concepto que comienza a ganar peso: el riesgo de “adoctrinamiento algorítmico”. A diferencia de la propaganda clásica, que es visible, masiva e igual para todos, la IA permite campañas hipersegmentadas donde cada ciudadano recibe un discurso ajustado a sus miedos, valores y nivel de información. El sistema aprende de la conversación y modula argumentos y ejemplos hasta encontrar la combinación más persuasiva para cada perfil.
Informes del Parlamento Europeo alertan ya de que la manipulación informativa asistida por IA representa un desafío estructural para los procesos electorales y la integridad del debate público. La legislación europea en marcha, como la Ley de IA y el marco del DSA, intenta fijar límites a los sistemas con capacidad de “distorsionar significativamente el comportamiento humano”, pero la velocidad de la innovación dificulta que la respuesta normativa alcance al cambio tecnológico.
Cómo medir el sesgo ideológico de una máquina
Ante este panorama, la comunidad académica ha empezado a tratar a los LLM como actores políticos que pueden y deben ser auditados. Los métodos se parecen cada vez más a los de la ciencia política y la sociología electoral: grandes baterías de preguntas sobre políticas públicas, principios y actores; análisis estadístico de las respuestas; y comparación con corpus de referencia humanos.
Se han desarrollado “benchmarks” específicos que miden, por ejemplo, qué soluciones propone un modelo en temas como impuestos, migración, derechos reproductivos o cambio climático, y cuán cerca están esas propuestas de los programas de partidos reales. Otros trabajos analizan el tono (positivo, neutro, negativo) cuando el modelo habla de dirigentes de distintos bloques, o aplican tests tipo “Political Compass” a las respuestas para situar al modelo en ejes izquierda‑derecha y autoritario‑libertario. El resultado no es una fotografía perfecta, pero sí un mapa aproximado de por dónde se inclina cada sistema.
La batalla por el “prompt”: priming, framing y sesgo
Una de las líneas de investigación más delicadas es la que explora hasta qué punto se puede mover la ideología aparente de un modelo cambiando la forma de preguntarle. Estudios sobre priming y framing muestran que, si se introduce en el prompt una persona (“como votante conservador…”) o una fuente (“según una ONG de derechos humanos…”, “según un think tank de derechas…”), las respuestas se desplazan de manera sistemática.
Para medir ese efecto, los investigadores diseñan experimentos con condiciones casi idénticas, salvo por el “cebo” ideológico, y comparan luego la distribución de las respuestas codificadas en ejes políticos mediante técnicas estadísticas clásicas (tests de hipótesis, regresiones, análisis de varianza). El hallazgo central es que el modelo no solo ajusta el estilo para encajar con el personaje descrito, sino que puede adoptar de forma persistente marcos de interpretación y prioridades asociadas a esa identidad. Es decir, el prompt se convierte en un dispositivo de gobierno de la ideología de la máquina.
Neutralidad imposible, transparencia imprescindible
Todo lo anterior conduce a una conclusión incómoda: la neutralidad ideológica absoluta de los sistemas de IA es probablemente inalcanzable. Incluso si se redujeran drásticamente los sesgos de datos y se diseñaran filtros “equilibrados”, seguiría habiendo decisiones de fondo sobre qué se considera discurso aceptable, qué valores se priorizan al resolver dilemas y qué riesgos se toleran en nombre de la innovación o la seguridad.
La cuestión política central ya no es si la IA tiene ideología, sino quién decide cuál y con qué mecanismos de control democrático. Informes y guías de organismos como el Parlamento Europeo o la Comisión reconocen que la IA generativa forma ya parte de la infraestructura del debate público, y plantean medidas como auditorías independientes, mayor transparencia sobre los datos y objetivos de entrenamiento, y obligaciones específicas para sistemas de alto impacto en información y procesos electorales.
Democracia algorítmica o tecnofeudalismo
En última instancia, la disputa sobre las ideologías en la era de la IA es una disputa sobre el modelo de sociedad que se construye alrededor de estas tecnologías. Una vía apunta a una “democracia algorítmica” en la que los sistemas se someten a escrutinio público, se diseñan con participación ciudadana y se orientan explícitamente a reforzar derechos, pluralismo y calidad del debate. Otra vía, ya visible en ciertas prácticas, se asemeja más a un “tecnofeudalismo” donde unas pocas corporaciones y Estados concentran la capacidad de modelar información, emociones y comportamientos a escala planetaria, mediante sistemas opacos y difícilmente controlables.
Entre esos dos polos se juega hoy una de las grandes batallas ideológicas del siglo XXI. No en las viejas tribunas parlamentarias o en editoriales de papel, sino en los pesos de los algoritmos, en los filtros de seguridad de un LLM y en los datos que se usan —o se excluyen— para entrenar a las máquinas con las que cada vez más personas se informan, debaten y deciden. Decidir quién define esa arquitectura y con qué límites será, en buena medida, decidir también el futuro político de las democracias.



















