Cuando la IA argumenta mejor
Podemos debatir con la inteligencia artificial. No porque la IA sea un nuevo sujeto moral ni porque merezca el estatuto de interlocutor privilegiado, sino porque cada intercambio revela algo sobre ...
Podemos debatir con la inteligencia artificial. No porque la IA sea un nuevo sujeto moral ni porque merezca el estatuto de interlocutor privilegiado, sino porque cada intercambio revela algo sobre nosotros. Las máquinas, al responder, nos devuelven una imagen invertida de nuestras expectativas, de nuestros sesgos y de nuestras fragilidades psicológicas. Y ahí emerge la pregunta que todos, en algún momento, nos hacemos: ¿hasta dónde puede persuadirnos una máquina? ¿Puede, incluso, argumentar mejor que un ser humano?
Para responder conviene recordar lo que los juristas romanos sabían hace siglos: la persuasión no es un acto lógico, sino emocional. Cicerón, maestro de la retórica, insistía en que los argumentos ganan o pierden no por su exactitud, sino por su capacidad para moverse dentro de la psicología del oyente. La IA opera de manera similar: no convence porque comprenda, sino porque identifica patrones lingüísticos que aumentan la probabilidad de que aceptemos un mensaje. Es persuasiva por su forma, no por su convicción.
Un trabajo reciente del Laboratorio de Inteligencia Artificial de la Facultad de Derecho de la UBA (Ialab), dirigido por el Dr. Juan Corvalán, destacado experto reconocido en la materia en los niveles nacional e internacional, ofrece evidencia interesante sobre este punto. El estudio refiere que los modelos de IA son más persuasivos cuando argumentan en línea con sus “creencias previas”, es decir, con aquello que consideran estadísticamente coherente. Sin embargo, la parte más llamativa llegó después. Los investigadores detectaron que los usuarios evaluaron como de mayor calidad los argumentos generados por la IA cuando esta debía defender posiciones contrarias a sus propias creencias.
Lo más curioso surgió con un ejemplo irresistible para cualquier argentino que haya discutido de fútbol en un asado: los argumentos que sostenían que Cristiano Ronaldo es mejor que Lionel Messi fueron calificados como más sofisticados, más prolijos y más profundos que los favorables al crack argentino. La conclusión podía sonar absurda, pero la estructura de los argumentos era superior. El estudio refiere, entre otras conclusiones, que este fenómeno se daría porque mentir o ir contra la intuición requiere un mayor esfuerzo cognitivo y ello puede derivar en argumentos más elaborados.
Este pensamiento se vincula con la idea que postula la psicología cognitiva que sostiene que cuando una persona debe defender una postura que siente improbable, necesita desplegar más recursos: justificar, matizar, añadir tecnicismos, ordenar la lógica de manera impecable. Mentir –o sostener algo contraintuitivo– exige un trabajo intelectual mayor y ese esfuerzo produce textos más persuasivos. La retórica, cuando se ve obligada a ir contra su intuición, se vuelve más creativa.
Los romanos intuían esta paradoja. Ulpiano advertía: “Veritas nihil veretur nisi abscondi” (la verdad nada teme, salvo ser ocultada). Pero la IA, curiosamente, parece operar en sentido inverso: cuando debe “ocultar” lo que su estadística sugiere, produce sus razonamientos más brillantes. La contradicción, en los modelos lingüísticos, estimula la elaboración.
Es necesario aclarar algo: estas “creencias” no son humanas ni equivalen a convicciones. No hay emociones ni intuiciones detrás de lo que escriben. Son pesos matemáticos. No sienten conflicto interno ni experimentan duda. No “piensan”, en el sentido clásico del término. Lo que interpretamos como esfuerzo cognitivo es simplemente un reajuste estadístico orientado a alcanzar un objetivo: generar la secuencia más probable que resulte convincente.
Pero lo que parece relevante es que la persuasión no ocurre en la máquina. Ocurre en nosotros. La IA solo activa mecanismos que nosotros mismos tenemos incorporados. Y ahí surge el riesgo cultural. No porque el algoritmo sea superior al ser humano, sino porque puede explotar nuestras debilidades psicológicas con una eficiencia inesperada.
Así aparece un fenómeno inquietante: estamos empezando a confundir profundidad con prolijidad, rigor con estilo, verdad con verosimilitud. Un argumento extenso, limpio, técnicamente decoroso y redactado con fluidez empieza a parecernos sólido por el mero hecho de sonar bien. Antes esa capacidad estaba reservada a quienes dominaban el oficio de escribir, pero hoy cualquier modelo generativo puede producirla en segundos. Y nosotros, muchas veces, no desarmamos el argumento: lo aceptamos.
Un ejemplo simple, casi escolar. Si le pedimos a una IA que nos convenza de que es mejor desayunar una gaseosa que un vaso de agua, sabemos de antemano que la premisa es ridícula. Sin embargo, el modelo hará exactamente lo que mostró el estudio de Ialab: construirá un argumento detallado, técnico, convincente. Hablará del “rápido aporte energético”, de la “estimulación cognitiva matutina”, de “contextos de alto rendimiento temprano”. Todo falso, pero expresado de manera tan ordenada que —si uno no está atento— podría sonar razonable. Esa sensación de razonabilidad es peligrosa no porque la IA engañe, sino porque nosotros bajamos la guardia crítica.
La IA no es peligrosa porque pueda persuadirnos; es peligrosa porque puede hacerlo mientras nosotros dejamos de pensar. El riesgo no es que una máquina nos gane un debate, sino que nosotros renunciemos al hábito de debatir. Cicerón llamaba ingenium a la capacidad humana de analizar, contradecir y refutar. Si abandonamos ese músculo crítico, la persuasión deja de ser un arte humano y se convierte en un reflejo automático provocado por textos brillantes escritos por sistemas que no creen en nada, no dudan de nada y no se responsabilizan por nada.
Ahí está el verdadero punto de quiebre cultural. Y quizá todavía estemos a tiempo de decidir de qué lado queremos quedar: del lado que piensa o del lado que solo asiente ante un texto elegante.
Abogado y consultor en derecho digital y datos personales, profesor de la Facultad de Derecho de la UBA y Universidad Austral, director del posgrado en derecho al olvido digital UBA.
Fuente: https://www.lanacion.com.ar/opinion/cuando-la-ia-argumenta-mejor-nid04122025/