Reid Hoffman, cofundador de LinkedIn, contaba en una entrevista reciente que pudo probar y notar las diferencias entre sistemas de GPS alemanes y japoneses. Mientras que el alemán te exige de manera insistente y áspera que vuelvas a tu ruta cuando te salís de ella, el japonés te dice en un afable tono: “¡Vaya! Has decidido ir por otro camino, ¿cómo puedo ayudarte?”.
Más allá de la divertida anécdota sobre los tonos diseñados por distintas culturas, da pie para hablar sobre cómo las identidades e ideologías pueden dar forma a tecnologías que no se reducen a cuestiones meramente técnicas.
Esta última afirmación es discutida en este momento en muchos sectores ligados al mundo de la tecnología y particularmente de la inteligencia artificial. Desde el lanzamiento global de ChatGPT, allá por noviembre 2022, mucho se ha discutido sobre el modo en el que deben desarrollarse los modelos de inteligencia artificial. Pero en este caso no vamos a hablar de funcionalidades o posibilidades técnicas sino de cuestiones éticas, morales y relativas a lo que denominamos valores humanos.
Por poner algunos ejemplos: la empresa Anthropic (responsable de Claude, competencia de ChatGPT) desarrolló su Responsible Scaling Policy: política de escalada responsable. El objetivo, dicen, es que los avances en el mundo de la IA se hagan con los reparos necesarios para no dañar a la humanidad. No sería raro preguntarse cuáles serán y cómo estarán configurados esos reparos.
Por su parte, OpenAI, dueña de ChatGPT y la empresa más importante del mundo en el rubro, tiene un historial complicado al respecto. Contaba en su momento con un equipo de “superalineación” que tenía como objetivo asegurar algo similar a lo de Anthropic: cruzar fronteras tecnológicas con la seguridad de que la humanidad no corra riesgos (“alinear” a los desarrollos con “los valores humanos”).
Pero en mayo de 2024 la empresa disolvió este equipo con polémica, ya que al mismo tiempo se fueron de la empresa dos referentes como Jan Leike e Ilya Sutskever (uno de los cofundadores de la compañía). Una de las frases de Leike para explicar su salida dice mucho: “La cultura de la seguridad y los procesos ha quedado relegada a un segundo lugar por detrás de los productos estrella”.
Hoy en la web de OpenAI se puede encontrar un texto largo titulado: “Cómo pensamos en la seguridad y la alineación” que explica su abordaje actual y deja algunas definiciones para pensar. Se habla de “IA desalineada” cómo algo que sucede cuando sus acciones no están en línea con “valores humanos relevantes”. ¿Cuáles serían esos valores? ¿Los define esta empresa privada?
Laura Alonso Alemany (Famaf) es una referente en el área de la ciencia de datos y del procesamiento del lenguaje natural. Opina sobre el tema: “Las llamadas barreras de seguridad son unas reglas duras que buscan que los modelos generativos no den instrucciones sobre bombas ni sobre armamento, no se puede opinar sobre cuerpos ajenos, ese tipo de cosas. Eso, netamente, son valores. ¿De quién? Bueno, de las empresas que crean esos modelos de lenguaje, esos productos (Google, Meta, OpenAI). Son los valores de las personas que están en esas empresas y se ha comprobado, con unas encuestas que tiene Naciones Unidas, que los valores que tienen esos modelos de lenguaje son muy cercanos a los de un grupo poblacional en particular que es el de los hombres blancos de mediana edad, profesionales de California. Ninguna sorpresa, ¿no es cierto?”.
Un modelo norteamericano y un modelo chino entran a un bar
En enero de este año el mundo de la IA se vio convulsionado cuando Deepseek, empresa china, lanzó su modelo R1. Se impuso como un desarrollo muy a la altura de lo existente en el mercado (superior en algunas facetas), de la mano de un jugador inesperado. Más allá del temblor financiero que generó su lanzamiento y la innovación tecnológica en torno al uso de menos recursos, generó un “equilibrio” mundial al insertar a la escena un país que no es Estados Unidos.
Ahora bien: sabemos que existen muchas diferencias entre el mundo occidental y el mundo oriental a la hora de pensar lo mejor para la humanidad. A veces ligadas a las formas, pero en algunos casos hablamos de cuestiones de fondo, que generan mucha distancia “conceptual”. Cuesta entonces pensar en los desarrollos de inteligencia artificial respondiendo a una sola cosmovisión de valores. ¿Las aplicaciones de IA responderán a partir de los valores del país en el que fueron desarrolladas? ¿Estamos bien con eso o deberíamos buscar ciertos lineamientos comunes?
Tomás Balmaceda es Doctor en filosofía, periodista y cofundador de Gift (Grupo de Inteligencia Artificial, Filosofía y Tecnología). Considera que sí debemos desarrollar criterios globales ya que la IA trasciende fronteras pero señala la importancia para esto de la cooperación internacional y el respeto por las diferencias culturales en la concepción de la tecnología y lo humano.
“No estoy capacitado para dar una lista exhaustiva, pero sí puedo decir que hay principios que los humanos deben implementar en su diseño y uso. Pensando rápido, se me ocurren: responsabilidad clara sobre quién responde por las acciones de la IA; justicia y equidad, evitando perpetuar sesgos y discriminación; respeto a la libertad y autonomía humana; fomento de la democracia y participación ciudadana; reconocimiento de las estructuras de poder que la IA puede reforzar; transparencia y explicabilidad en las decisiones de la IA; integración de valores éticos desde el diseño inicial; consideración amplia de todas las partes afectadas, incluidos no humanos; y confiabilidad, robustez y seguridad técnica”, señala.
Por su parte, Alemany va en una línea parecida apuntando, además, la resistencia del sector privado para esto: “Bueno, me parece que como sociedades tenemos consensos sobre los derechos humanos. Entonces estas definiciones deberían ser no discriminar ni producir daños, respetar estos derechos fundamentales que tienen rango constitucional en Argentina y, en realidad, en una buena parte de países del mundo porque adhieren a diferentes convenciones. Luego también hay algunos consensos que son importantes como, por ejemplo, la transparencia en algunas cuestiones, las decisiones que afectan a personas, la garantía de protección de datos personales. Todo eso actualmente no se está respetando por una cierta opacidad que envuelve a todos estos desarrollos. Siempre se argumenta que la innovación requiere de secreto industrial y que no quieren revelar cómo funcionan estas herramientas por eso. Y la verdad es que se entra en conflicto directo con algunos derechos fundamentales y la resolución debería ser bastante directa”.
“Alinear”
Se conoce como “problema de alineación” a las necesidades que tienen las empresas (y la sociedad) de hacer que las implementaciones de IA se realicen en un marco de seguridad y respeto a la humanidad.
Al entrar un poco al concepto, rápidamente nos podemos dar cuenta de que es un asunto mucho más político e ideológico que técnico. Parece ser una tarea más vinculada con diseñadores de políticas públicas que con desarrolladores de software o ingenieros. ¿De qué manera la encararán las principales empresas privadas y la sociedad en su conjunto?
Ted Chiang es un escritor de ficción especulativa y una referencia importante a la hora de pensar la tecnología y sus consecuencias cotidianas y filosóficas en la vida de las personas y las sociedades. Sobre el problema de alineación dice lo siguiente: “No me gusta el concepto. No me parece que se refiera a algo significativo o, al menos, que la frase fiera a algo que es nuevo y sustancialmente diferente al problema de cómo ser una mejor persona o cómo construir una mejor sociedad. Por ejemplo, cuando una corporación se comporta de mala manera, ¿deberíamos considerar eso un problema de alineación? La mayoría de la conversación sobre el problema de alineación sugiere que es un problema técnico, que es algo a lo que se puede responder implementando un mejor algoritmo o solucionando las ecuaciones correctas. No lo creo así.”.