Una de las cuestiones más urgentes al analizar el impacto de la inteligencia artificial (IA) en nuestras sociedades es el alcance de su autonomía en la toma de decisiones. Sam Altman, fundador de OpenAI, ha expresado públicamente su intención de desarrollar sistemas independientes de la supervisión humana, avanzando con proyectos como “Strawberry” hacia una futura autonomía plena de las máquinas en un horizonte próximo.
El reciente descubrimiento de que la aplicación de transcripción Whisper, de ChatGPT, puede “alucinar” –es decir, inventar frases sin haberlas escuchado realmente– ha dejado en evidencia el lado peligroso de esta tecnología.
Las posibles repercusiones de errores en la toma de decisiones, en especial si consideramos que esta aplicación era utilizada por millones de usuarios para desgrabar entrevistas médicas, psicológicas y reuniones empresariales, es enorme.
Este evento se suma a un incidente reciente en el que un joven de 14 años en Florida, Estados Unidos, se quitó la vida tras la inacción de la inteligencia artificial a la que le confió su deseo de suicidarse, debido a la falta de reconocimiento de patrones lingüísticos de depresión.
Atención necesaria
Como psicoanalista y como ciudadana, he enfatizado la necesidad de estar atentos a la aparición de comportamientos similares a los humanos en las máquinas, algo que comenzó a manifestarse desde que la programación de IA se basa en el lenguaje y no ya en matemática.
Las mentiras, la negativa a obedecer y las alucinaciones son sólo algunos ejemplos de un posible “lado oscuro” de esta tecnología a la que se aspira dotar de un cuerpo en los próximos años.
Si se busca la independencia de las máquinas y estas han dado pruebas de rehusarse a obedecer, esto plantea varias preguntas inquietantes a la hora de confiarles nuestro futuro.
La reconocida doctora en Medicina Claudia Cannizzo, de Barcelona, me comentaba hace poco que en este mes se lanzará un proyecto piloto en un hospital de las afueras de esa ciudad, donde una IA será responsable de clasificar y priorizar a los pacientes en emergencias, decidiendo a quién atender primero según la gravedad y los recursos disponibles.
Esta tarea, tradicionalmente asignada a enfermeros con vasta experiencia clínica, plantea riesgos importantes. ¿Es necesario hacer una prueba piloto sobre personas que pueden perder la vida? Esto ya está ocurriendo también en terapias intensivas de Estados Unidos.
Es necesario tomar conciencia y levantar nuestra voz frente a los extremos a que nos puede llevar la tan buscada autonomía de las IA. Podríamos enfrentarnos a que las máquinas tomen decisiones críticas sobre nosotros, sin supervisión humana. ¿Queremos correr el riesgo de convertirnos en las próximas víctimas de un error tecnológico?
* Psicoanalista