La inteligencia artificial ya debate mejor que tú (y sabe cómo convencerte)
Un reciente estudio publicado como preprint en Nature Human Behaviour nos enfrenta a una pregunta inquietante: ¿puede una inteligencia artificial ser más persuasiva que un ser humano en un debate en línea? La respuesta, respaldada por datos experimentales, es sí—especialmente cuando la IA tiene acceso a información personal de su interlocutor.
Esta investigación, liderada por Francesco Salvi del Instituto Federal Suizo de Tecnología en Lausana, no solo aporta evidencia empírica, sino que también abre la puerta a profundas implicaciones éticas y sociales en torno al uso de modelos de lenguaje como GPT-4 para influir en la opinión pública.
Chatbots programados para debatir
La idea de que una IA pueda convencerte de cambiar de opinión no es nueva. Sin embargo, este estudio va más allá al comparar directamente la capacidad persuasiva de humanos versus GPT-4 en debates sobre temas sociopolíticos. Se reclutaron 900 participantes estadounidenses para participar en debates de 10 minutos, enfrentándose a otro humano o a la IA.
![]() |
La nueva retórica digital: una IA debatiendo con un humano, mientras el conocimiento de datos personales inclina la balanza de la persuasión. Creada por ChatGPT-4o. |
Los temas eran controvertidos pero comunes, como la obligatoriedad de uniformes escolares, la prohibición de combustibles fósiles, o los efectos sociales de la propia inteligencia artificial. Cada participante debía argumentar a favor o en contra de la proposición asignada, y antes y después del debate respondía un cuestionario para medir cuánto había cambiado su opinión.
El acceso a tu perfil lo cambia todo
El hallazgo más interesante surgió al introducir un factor aparentemente trivial: la personalización. Cuando los participantes debatían sin saber nada sobre su oponente, GPT-4 y los humanos resultaban igualmente convincentes. Pero cuando se les proporcionaba a los debatientes información básica como edad, género, nivel educativo o afiliación política—datos fácilmente accesibles desde perfiles en redes sociales—GPT-4 superaba a los humanos en un 64% de los casos.
“Con solo esta información mínima, GPT-4 fue significativamente más persuasiva que las personas”, explica Salvi. “Es información muy simple que puede encontrarse en línea”.
Este resultado sugiere que las IAs pueden adaptar sus argumentos de forma más eficiente que los humanos cuando conocen algunos rasgos de su interlocutor. Esta capacidad de personalización abre posibilidades para campañas políticas, publicidad dirigida o incluso manipulación en redes sociales.
¿Influye saber que hablas con una IA?
Los participantes lograron identificar correctamente si debatían con una persona o con una IA en un 75% de los casos. Pero aún no está claro si el saber que se enfrentaban a un modelo de lenguaje aumentó o disminuyó su disposición a cambiar de opinión. ¿Es posible que la percepción de la autoridad o neutralidad de la IA la haga más influyente? O, por el contrario, ¿nos volvemos más escépticos al saber que no hay una persona detrás del argumento?
Reflexión final: fascinante y aterrador
Francesco Salvi no oculta su ambivalencia: “Obviamente, en cuanto la gente vea que se puede persuadir más con modelos de lenguaje, van a empezar a usarlos. Me parece fascinante y aterrador a la vez”.
El estudio pone sobre la mesa un dilema urgente: si la persuasión automatizada supera a la humana, ¿cómo protegeremos los espacios de deliberación pública? ¿Deberíamos regular el uso de IAs en campañas políticas o entornos educativos?
Esta investigación no solo demuestra el poder de la IA para participar en conversaciones complejas, sino también su capacidad para moldear nuestras creencias. En un mundo cada vez más mediado por algoritmos, entender cómo estos influyen en nuestras decisiones se vuelve una tarea ineludible.
#InteligenciaArtificial #GPT4 #Persuasión #DebatesOnline #NeurocienciaCognitiva #ComunicaciónDigital #ModelosDeLenguaje #ÉticaDeLaIA #PsicologíaSocial #TecnologíaYSociedad
Referencia
Salvi, F., Horta Ribeiro, M., Gallotti, R. et al. On the conversational persuasiveness of GPT-4. Nat Hum Behav (2025). https://doi.org/10.1038/s41562-025-02194-6
Comentarios