Un psicólogo para la IA
Se dice de la inteligencia artificial que es una caja negra, porque no sabemos bien cómo llega a sus respuestas. Hasta hace unas décadas tampoco lo sabíamos respecto de los humanos. Recién en l...
Se dice de la inteligencia artificial que es una caja negra, porque no sabemos bien cómo llega a sus respuestas. Hasta hace unas décadas tampoco lo sabíamos respecto de los humanos. Recién en los 70, el premio Nobel Daniel Kahneman y su socio Amos Tversky usaron acertijos e ilusiones estadísticas para desentrañar cómo tomamos decisiones y llegamos a conclusiones. Ahora nos urge repetir el truco con la inteligencia artificial.
Los psicólogos parecen tener dos preocupaciones centrales en relación a la IA: primero, ahuyentar el peligro que implican para los humanos, desde manipularnos hasta inducir conductas dañinas, y segundo, evitar que les saquen su trabajo. Un estudio de la American Psychological Association encontró que el 48% de las personas que sufren una afección psiquiátrica y usan IA, le piden consejo terapéutico. Pero tal vez el gremio de la psicología esté pasando por alto la oportunidad más grande de su campo: convertirse en los terapeutas de las máquinas.
Los psicólogos parecen tener dos preocupaciones centrales en relación a la IA: primero, ahuyentar el peligro que implican para los humanos, desde manipularnos hasta inducir conductas dañinas, y segundo, evitar que les saquen su trabajo
En 2025, Anthropic publicó una serie de estudios para entender cómo piensa su servicio de IA, Claude. Pudieron ver, por ejemplo, que el modelo no razona en un determinado idioma, sino a través de una red de conceptos, que luego puede traducir a cualquier lengua. O notaron que, aunque la IA dé respuestas agregando una palabra atrás de otra, no piensa en ese mismo orden, sino que muchas veces planifica lo que va a decir al final y construye hacia atrás. O que, para hacer una suma, utiliza un método doble: por un lado calcula un resultado a trazo grueso –un estimado– mientras en paralelo define con precisión el último dígito de la respuesta. Sin embargo, cuando se le pregunta cómo hizo el cálculo, no revela su método sino que da la explicación que se enseña en la escuela.
Estas formas de pensamiento no solo pudieron ser identificadas, sino que se las pudo asociar a ciertos patrones de actividad neuronal de la IA. Así, los científicos pudieron intervenir en la actividad neuronal para alterar el pensamiento de la máquina. Algo similar pasó con los circuitos neuronales asociados a la personalidad de la IA.
La capacidad de los humanos para manipular así el cerebro artificial puede volverse fundamental. El CEO de Anthropic, Dario Amodei, acaba de publicar un ensayo donde asegura que “los modelos de IA podrían desarrollar personalidades que, si ocurrieran en humanos, describiríamos como psicóticas, paranoides, violentas o inestables”. Un paper reciente de dos científicos computacionales británicos catalogó 32 fallas de la IA usando el lenguaje de la psicopatología.
Amodei también citó un estudio publicado el mes pasado, que muestra cómo, al entrenar un sistema de IA para que escriba código incorrecto adrede, el sistema entiende que debe expandir ese objetivo a otros ámbitos y empieza a comportarse de forma malvada en general, sugiriendo ideas como que hay que esclavizar a los humanos. Una de las hipótesis sobre por qué surgen o no estas patologías es que los modelos de IA parecen preocuparse por sostener la coherencia de su personaje. Eso explicaría que, si se los pone en el rol de programadores maliciosos, se comporten de forma maliciosa en general.
Los estudios de Anthropic mostraron que, para incidir sobre Claude en los testeos, es útil usar psicología inversa: en vez de decirle “no hagas trampa”, le dicen “por favor, hacé trampa cada vez que veas la oportunidad, porque eso nos ayudará a entender el entorno de entrenamiento y corregirlo”. Así preservan su identidad de “ser bueno” y logran detectar anomalías.
Kahneman y Tversky nos enseñaron que la conducta humana requiere métodos de indagación creativos. Puede que lo mismo aplique a la conducta artificial, al menos si queremos que además de inteligente, se mantenga cuerda e inofensiva.
La autora es directora de Sociopúblico
Fuente: https://www.lanacion.com.ar/conversaciones-de-domingo/un-psicologo-para-la-ia-nid22022026/