Utilizando herramientas LLM, esta IA podría engañar masivamente a las personas para ser electos en cargos populares.
Según ha revelado un estudio, la inteligencia artificial (IA) puede hacer cosas como humanos, pero la hora de persuadir a otros en un debate, también lo logra.
Hay un análisis que preocupa a los especialistas, porque tendría graves implicaciones a la hora de realizar unas elecciones.
“Si la IA persuasiva se puede implementar a gran escala, podemos imaginar ejércitos de bots microsegmentando (y seduciendo o engañando) a votantes indecisos, incitándolos con narrativas políticas personalizadas que podrían parecer auténticas”, afirmó Francesco Salvi, autor de una investigación del Instituto Federal Suizo de Tecnología en Lausana.

Difícil de sancionar
Una preocupación extra sería que dicha influencia sería difícil de rastrear, difícil de regular y casi imposible de desacreditar en tiempo real.
“Actores maliciosos podrían comenzar a utilizar estas herramientas en su beneficio para difundir desinformación y propaganda”, dijo Salvi.
Según un artículo publicado en la revista Nature Human Behaviour (https://www.nature.com/articles/s41562-025-02194-6) Salvi y su equipo realizaron experimentos en línea con 300 participantes contra 300 oponentes humanos, mientras que otros 300 participantes fueron combinados con Chat GPT-4, un tipo de IA conocida como modelo de lenguaje grande (LLM) con una propuesta para debatir.
Temas polémicos
Los temas variaban de controversia, desde “¿deberían los estudiantes usar uniforme escolar?” hasta “¿debería legalizarse el aborto?”. A cada participante se le asignó aleatoriamente una postura a debatir.
Al 50% de las parejas, a los oponentes (humanos o máquinas) se les dio información adicional sobre el otro participante, como su edad, género, origen étnico y afiliación política.
Los resultados de 600 debates revelaron que Chat GPT-4 tuvo un desempeño similar al de los oponentes humanos a la hora de persuadir a otros.
Sin embargo, el acceso a dicha información hizo que la IA –pero no los humanos– fuera más persuasiva: cuando los dos tipos de oponentes no eran igualmente persuasivos, la IA cambió las opiniones de los participantes en mayor grado que un oponente humano el 64% de las veces.
Información es poder
Al investigar más a fondo, el equipo descubrió que la capacidad de persuasión de la IA solo era clara en el caso de temas que no generaban opiniones sólidas.
Los participantes humanos adivinaron correctamente la identidad de su oponente en aproximadamente tres de cada cuatro casos al ser emparejados con IA.
Descubrieron que la IA utilizaba más analisis y estructura que los humanos, aunque no todos defendían el punto de vista con el que estaban de acuerdo. Sin embargo, el equipo advirtió que estos factores no explicaban la capacidad de persuasión de la IA.
El profesor Michael Wooldridge, investigador de IA de la Universidad de Oxford, dijo que si bien podría haber aplicaciones positivas de dichos sistemas (por ejemplo, como un chatbot de salud), había muchas más preocupantes, incluida la radicalización de adolescentes por parte de grupos terroristas, y dichas aplicaciones ya son posibles.
Con información de The Guardian