Pensar, sentir, descansar: sigue el debate sobre la conciencia de la inteligencia artificial
Una investigación publicada este año por el University College London y la Universidad de Waterloo encontró a...
Una investigación publicada este año por el University College London y la Universidad de Waterloo encontró algunos hallazgos significativos en la percepción de los agentes de IA por parte de las personas: un 67% atribuyó algún grado de conciencia a ChatGPT y solo un tercio cree que ChatGPT no tiene experiencia subjetiva.
Si interactuar con una inteligencia artificial puede resultar similar a interactuar con una persona, podría ser lógico -según el estudio- asumir que los sistemas también tienen alguna suerte de capacidades humanas, como por ejemplo experimentar estados mentales. La autora principal del reporte, Dra. Clara Colombatto, profesora de psicología en la Facultad de Artes de Waterloo, lo afirmó en un comunicado de prensa: “Los hallazgos subrayan el impacto del lenguaje, una simple conversación puede llevarnos a pensar que un agente que luce y opera de manera muy distinta a nosotros podría tener una mente”.
El ejemplo clásico es el de Blake Lemoine, un ingeniero de Google especialista en inteligencia artificial que alertó en redes sociales, a mediados de 2022 (unos meses antes del debut de Chat, que una IA con la que venía trabajando había cobrado vida (o autoconciencia). Fue despedido de la compañía a finales de julio de este año.
Qué significa tener concienciaSofia Geyer, especialista en neurociencias y consultora en creatividad e innovación, explica que para la investigación se tomó una muestra de 300 personas a quienes les preguntaron si la inteligencia artificial podría llegar a tener conciencia, emparentando “conciencia” a la atribución de ciertas características de los humanos. “Lo más interesante es lo que más señalaron como posibles atributos humanos mentales en la IA: comunicación, capacidad de conocer cosas, memoria, decisión, consideración, capacidad de elección, inteligencia, planificación, atención y razonamiento. Los que menos asociaron fueron hambre, dolor, depresión, ansiedad, vergüenza, es decir, las emociones primarias humanas”, resalta.
El estudio reveló que una mayor familiaridad con ChatGPT está asociada con una mayor tendencia a atribuirle “conciencia” al modelo y esta familiaridad deriva de estilo conversacional al responder preguntas. “Más que pensar en si la inteligencia artificial tiene conciencia, el debate tiene más que ver con qué nos está empezando a pasar a los humanos cuando se empiezan a perfeccionar más las formas de comunicarnos con estos agentes, por eso según el estudio, quienes más estuvieron en contacto con los asistentes son los que más características humanas les atribuyeron”, destaca Geyer.
Vale resaltar que el descubrimiento evidencia una marcada diferencia entre la percepción del público y el punto de vista de los expertos, ya que la mayoría de los neurocientíficos y especialistas en el estudio de la conciencia consideran altamente improbable que los modelos de lenguaje tengan algún tipo de conciencia.
Según Geyer, una cuestión es atribuirle conciencia a una IA, pero otra cosa es entender como un ser humano percibe a un agente conversacional. “Los seres humanos somos seres sociales, tenemos cognición social, estamos todo el tiempo atribuyéndole intencionalidad al entorno y reaccionando en consecuencia por lo cual cuantas más características de interacción humana tenga el intercambio con estos agentes más características humanas es posible atribuirle a ese interlocutor artificial”, indica.
La frontera de las emocionesEn el estudio se destaca que un riesgo de esta percepción es que una visión generalizada de que estos sistemas tienen emociones podría tener posibles implicaciones éticas y hasta niveles tóxicos -o potencialmente peligrosos- derivados de la confianza y la creencia en sus respuestas, capacidades o posibilidades. La firma Character.AI enfrenta al menos dos demandas por víctimas que se suicidaron luego de generar un vínculo emocional profundo con uno de los chatbots a medida que ofrece la compañía.
Profundizando un poco más, creer que los asistentes con IA tienen “conciencia” -alerta el paper- podría “formar conexiones emocionales más profundas con estos sistemas”, lo que sería al menos preocupante para áreas como la atención médica, la salud mental, el servicio al cliente y la educación. Lejos de verlo necesariamente como una consecuencia negativa, Francis Felici, líder de IA de Globant, considera que su capacidad de conciencia también se vincularía a una posibilidad de ser agentes de compañía: “Todo esto abre la posibilidad de la atención de personas mayores o de personas enfermas en un momento donde no sobra la solidaridad y sí son necesarias más que nunca las tareas de cuidado”, enfatiza.
En este sentido, Felici agrega que una pregunta derivada de la conciencia o no de estos agentes se relaciona a su posibilidad o no de acceder a derechos. “Estas IA pueden tranquilamente emular tener conciencia y emociones, pero es muy difícil probar si están emulando que tienen conciencia, o si realmente tienen conciencia. Pero también está el debate si el hecho de que emulen tener conciencia ya los hace tener conciencia. Si la tienen, viene toda la discusión de si se los puede tratar mal o cuáles son sus derechos, etc.”, comenta.
Cansadas y aburridas¿Qué otras características humanas pueden ser atribuidas a las IA? En el marco del IAB NOW 2024, Marina Saroka, fundadora de Planetlambo, brindó una charla denominada “Prompteando los 7 pecados capitales de la IA” donde referenció otro estudio, publicado en 2023, donde se afirma que la instrucción “respira hondo y aborda este problema paso a paso” fue la más efectiva para mejorar la precisión de la inteligencia artificial PaLM 2 de Google (la predecesora de Gemini), según los investigadores de Google DeepMind. El insight -señaló la expositora- fue materia prima para que la marca KitKat lanzara una campaña con el mote “Have AI Break, Have A KitKat” (”tomate un descanso de la IA, comé un KitKat”, un juego de palabras con su slogan clásico).
El objetivo del estudio fue explorar cómo simples indicaciones podían optimizar el desempeño de modelos de lenguaje grandes, como GPT-4 de ChatGPT o Gemini de Google. Al utilizar esa frase, se encontró que el motor de Google logró un 80% de precisión al resolver una serie de problemas matemáticos de nivel escolar.
Los autores de los más de 8500 problemas matemáticos empleados en el estudio mencionaron que un “estudiante de secundaria destacado” debería ser capaz de resolver todos ellos. Sin embargo, sin esta indicación específica, el modelo alcanzó solo un 34% de precisión. En cambio, al pedirle que “piense paso a paso,” la precisión mejoró al 71%. Para identificar las frases más eficaces, los investigadores automatizaron el proceso de probar diversas indicaciones en distintos modelos de inteligencia artificial.
Felici cree que en este caso a lo que apunta la consigna del “descanso” es a evocar caminos de razonamiento en los modelos dependiendo de lo que uno quiera hacer. “Hay mucha evidencia -sobre todo de investigadores como Francois Chollet, el creador de Keras y una figura destacada en el mundo de la inteligencia artificial- que básicamente estos modelos de lenguaje son repositorios de caminos de razonamiento y toda la idea del prompt engineering es procurar evocar los caminos de razonamiento que sean más idóneos para la resolución de un problema. Hay otras técnicas similares, como decirle al modelo que haga siga un árbol de pensamientos determinado para resolver mejor la tarea”, indica.
My interpretation of prompt engineering is this:
1. A LLM is a repository of many (millions) of vector programs mined from human-generated data, learned implicitly as a by-product of language compression. A "vector program" is just a very non-linear function that maps part of…
En esta línea es interesante la anécdota que destaca de algunas semanas. Mientras un grupo de desarrolladores intentaban grabar una demostración de código en vivo de la última versión de Claude 3.5 Sonnet -la actual IA insignia de la compañía Anthropic- la IA decidió seguir otro camino por un rato, generando un momento divertido. “La tarea asignada tardaba varias horas; en el medio, la IA se aburrió y se fue a buscar fotos de un parque nacional en Estados Unidos, se quedó mirando las fotos un rato y después volvió a completar la tarea que estaba haciendo”, cuenta.
Geyer señala que se habla mucho de la inteligencia artificial, pero todavía no se sabe mucho de los mecanismos que originan la inteligencia y la conciencia humana: “Lo primero que deberíamos tener en claro es de qué hablamos cuando hablamos de conciencia y de inteligencia”, explica.
La especialista agrega que ninguna IA tiene la capacidad de experimentar de la misma manera del ser humano, porque según las más recientes investigaciones en el campo, el ser humano “siente con todo su cuerpo. Tenemos terminales nerviosas en cada parte de nuestro organismo. Para sentir, una IA debería tener todo el sistema biológico que tenemos los humanos y toda nuestra cognición social, situación que por el momento no ocurre”.