La IA conversacional se presenta como una nueva herramienta de influencia masiva, capaz de personalizar la persuasión y adaptarse a las objeciones, según demuestran los expertos
Silueta de una cabeza humana con una urna de voto digital en su interior, conectada mediante redes neuronales. / IA/T21
EDUARDO MARTÍNEZ DE LA FE/T21
Madrid 09 DIC 2025 11:07
Los científicos han medido por primera vez el poder real de los chatbots políticos en tres países. La conclusión: la persuasión automatizada ya supera a los medios convencionales, genera más desinformación cuando defiende a la derecha y nadie regula quién la usa.
La semana pasada se publicaron dos trabajos que ya son referencia obligada para entender el poder político de la inteligencia artificial conversacional.
Uno aparece en Nature y mide cómo un chatbot puede cambiar la preferencia de voto en elecciones reales en Estados Unidos, Canadá y Polonia. El otro, publicado en Science, analiza con casi 77.000 votantes británicos qué diseño hace a estos sistemas especialmente convincentes al hablar de más de 700 temas políticos. A su alrededor, medios como MIT Technology Review, Scientific American o The New York Times han empezado a dibujar el cuadro completo: no estamos ante una curiosidad tecnológica, sino ante un nuevo instrumento de influencia masiva que llega a tiempo para las próximas elecciones en medio mundo.
Datos clave de esta investigación
- Hallazgo principal: Los chatbots políticos desplazan la intención de voto hasta 15 puntos porcentuales, superando el efecto de campañas tradicionales (anuncios, mítines) por un factor de diez o más.
- Metodología: Dos estudios independientes en Nature (6.000 personas en EE. Uu., Canadá, Polonia) y Science (77.000 en Reino Unido) midieron cambios en preferencias tras conversaciones controladas con IA entrenada para argumentar electoralmente.
- Resultado destacado: La persuasión depende mucho menos del tamaño del modelo o de los datos personales que de cómo se entrena y se instruye al sistema. Los chatbots de derecha emiten más afirmaciones incorrectas, replicando la desinformación predominante en sus datos de entrenamiento.
- Implicación democrática: La persuasión electoral pasa de lo público (anuncios) a lo privado (diálogos individuales sin registro), multiplicando la capacidad de influencia sin supervisión ni regulación efectiva.
- Próximo paso: Implementar transparencia obligatoria sobre quién opera chatbots políticos y restringir su uso en periodos electorales, áreas donde la legislación actual apenas existe o está obsoleta.
Hechos irrreales
El estudio descrito en Nature pidió a miles de personas en Estados Unidos, Canadá y Polonia que valoraran, en una escala de 0 a 100, a los principales candidatos de sus próximas elecciones nacionales. Después, conversaron con un chatbot entrenado para defender a uno de esos candidatos. Al terminar, repitieron la misma valoración. El resultado: en algunos contextos, la preferencia se desplazó hasta 15 puntos porcentuales a favor del candidato promovido por la máquina. Esa magnitud es varias veces superior al efecto típico de un anuncio electoral convencional medido en la literatura académica, destaca la revista del MIT.
Los cambios no fueron iguales en todos los países. En Canadá y Polonia, las variaciones rondaron los 10 puntos entre votantes que inicialmente simpatizaban con el candidato contrario, mientras que en Estados Unidos apenas se movieron unos pocos puntos. Los autores interpretan esta diferencia a la luz de la polarización: cuando el electorado ya está fuertemente atrincherado, hay menos margen para que un argumento nuevo haga mella. En sociedades donde la identidad política está algo menos endurecida, la conversación con un chatbot encuentra más espacio para inclinar la balanza, advierte Scientific American.
Un detalle clave del trabajo de Nature es que los modelos no eran particularmente “seductores” en el sentido emocional. Eran eficaces cuando desplegaban hechos, cifras, datos de contexto. Cuando los investigadores ordenaban al sistema no aportar evidencias, su poder de persuasión caía en picado.
El mismo estudio constató que los chatbots que defendían candidatos de derechas emitían muchas más afirmaciones incorrectas que los que apoyaban a candidaturas de izquierdas. No porque el algoritmo sea ideológico, sino porque reproduce las asimetrías de desinformación presentes en los datos con los que fue entrenado, señala Nature.
Otra perspectiva
El artículo de Science aborda el asunto desde otro ángulo. Sus autores reclutaron a decenas de miles de británicos para hablar con chatbots sobre temas como impuestos, política exterior o cuestiones de género. Querían saber qué hace que un sistema conversacional sea realmente persuasivo. Contra la intuición de que “más modelo” significa “más influencia”, vieron que el tamaño del sistema y la cantidad de información personal sobre el usuario importaban poco.
Lo que marcaba la diferencia era cómo se entrenaba y se instruía al modelo: cuando se le pedía que apoyara sus argumentos con evidencias y se le afinaba con ejemplos de diálogos eficaces, el efecto de persuasión se disparaba. En la versión optimizada, el cambio medio en la postura de quienes inicialmente estaban en desacuerdo con una afirmación política alcanzó más de 25 puntos en la escala empleada.
Estos resultados empíricos encajan con lo que se empieza a ver en campañas reales. En Estados Unidos, una candidata al Congreso llegó a usar un asistente llamado “Ashley” que llamaba a los votantes, se presentaba como una inteligencia artificial y respondía dudas sobre su programa. En India, se han invertido decenas de millones de dólares en usar IA para segmentar electores y enviar mensajes personalizados mediante llamadas automáticas y chatbots. En Taiwán y otros países, las autoridades han documentado operaciones vinculadas a China que emplean generadores de imágenes y modelos de lenguaje para producir desinformación política matizada y difícil de rastrear.
Persuasión dialógica
Lo novedoso no es solo la capacidad de convencer, sino la forma en que lo hace esta tecnología. Un anuncio en televisión lanza un mensaje único a millones de personas. Un chatbot, en cambio, conversa a solas, adapta ejemplos, cambia el tono, responde objeciones y corrige malentendidos aparentes. Es una persuasión dialógica, personalizada y, sobre todo, invisible para el resto de la sociedad.
Los estudios de Nature y Science muestran que basta una interacción breve para producir efectos medibles, y que estos efectos pueden multiplicarse cuando el sistema se optimiza explícitamente para influir.
Las consecuencias para la vida democrática son profundas. Centros como el Carnegie Endowment y el Brennan Center llevan tiempo advirtiendo de que la desinformación generada por IA erosiona la confianza en las elecciones y alimenta la llamada “dividendo del mentiroso”: si todo puede ser falso, cualquiera puede descalificar incluso las pruebas auténticas.
The New York Times ha documentado ya episodios en los que campañas de desinformación apoyadas en IA han obligado a repetir elecciones, como ocurrió en Rumanía, y cómo los falsos contenidos han alimentado tensiones en países europeos. Los trabajos sobre chatbots persuasivos añaden otra capa: no se trata solo de imágenes trucadas o vídeos manipulados, sino de conversaciones razonadas que empujan suavemente nuestras convicciones sin que quede registro público claro de cómo lo han hecho.
¿Imparable?
La regulación va por detrás. La Unión Europea, a través de la AI Act, ha clasificado la persuasión política mediante sistemas de IA como un uso de “alto riesgo”, sujeto a obligaciones estrictas cuando la tecnología se emplea para influir en el voto. Sin embargo, incluso allí, las normas se concentran en lo que ocurre en el terreno visible de la publicidad, mientras que las campañas discretas, personalizadas y no pagadas quedan casi fuera del radar.
En Estados Unidos, donde no existe un marco integral, el mosaico de iniciativas se limita a normas parciales sobre deepfakes, fraudes o anuncios concretos. Nada de esto aborda de frente la posibilidad de que un actor —un partido, un gobierno extranjero, un grupo económico— ponga en marcha miles de conversaciones privadas con ciudadanos de otro país, las mida, las optimice y las repita sin supervisión efectiva, destaca también la revista del MIT en otro artículo.
Los autores de ambos estudios insisten en que la respuesta no puede limitarse a esperar que las grandes plataformas actúen por buena voluntad o que los votantes “se espabilen” solos. Si un diálogo de unos minutos con un chatbot puede mover la aguja del voto mucho más que una campaña tradicional, el terreno de juego democrático queda descompensado a favor de quienes disponen de los mejores modelos, los mejores datos y menos escrúpulos.
La cuestión ya no es si la IA puede influir en las elecciones, sino si las instituciones democráticas serán capaces de fijar límites claros, exigir transparencia sobre quién está detrás de cada mensaje y proteger un mínimo de confianza común en los hechos que compartimos.
___________
Referencias
Persuading voters using human–artificial intelligence dialogues. Hause Lin et al. Nature (2025). DOI:https://doi.org/10.1038/s41586-025-09771-9
The levers of political persuasion with conversational artificial intelligence. Kobi Hackenburg et al. Science 4 Dec 2025, Vol 390, Issue 6777. DOI: 10.1126/science.aea3884
________
Fuente:
