Years and years, la miniserie de ficción futurista de HBO que se volvió actualidad distópica bastante antes de lo pensado, tenía un personaje omnipresente, aunque casi invisible. Señor (así, en castellano) era el asistente tipo Alexa, evidentemente potenciado con inteligencia artificial, que estaba integrado a la cotidianeidad de la familia Lyons.
Tal vez lo más esperable para este año en materia de modelos amplios de lenguaje a partir de IA, esos que genérica y algo despectivamente denominamos chatbots, sea algo parecido a eso: una profundización en la naturalidad de esa interacción.
Si nos limitamos a ese espectro de la aplicación del recurso, es posible que sea un año para comenzar a olvidarnos de esos forzados intercambios coloquiales a los que nos acostumbraron los asistentes de Google, o Siri, de Apple.
Pero lo que hay detrás de cuestiones tan simples como dejar de dirigirnos a nuestro dispositivo exagerando la pronunciación y el volumen de voz tiene implicancias más amplias: los avances en grandes modelos de lenguaje (LLM) y procesamiento del lenguaje natural (NLP), como los demostrados por ChatGPT, nos permitirán hablar con nuestros dispositivos casi como si fueran seres humanos.
Esto significa que pronto tendremos conversaciones con los electrodomésticos de la cocina y hablaremos mucho con nuestros autos, ya que la voz se convertirá cada vez más en nuestro principal modo de interacción con la tecnología de consumo. No dentro de años, sino de meses, si tomamos en cuenta el ritmo de actualización y de avances en este segmento de la industria, algo que puede corroborar cualquiera que haya entablado un diálogo con la Apple Intelligence en un iPhone 16.
Sin embargo, es posible que no se trate o no lo sintamos en términos de caer rendidos ante la IA. De lo que hablamos –al menos por ahora– es de una integración formalmente armoniosa entre la IA y la vida cotidiana más allá de “responder preguntas” (o hacer tareas del colegio o resúmenes para la facultad, algo definitivamente poco recomendable).
Y en este punto es inevitable acudir a una remanida pero adecuada analogía: ChatGPT, Gemini o cualquier modelo amplio de lenguaje es apenas la punta del iceberg. El grueso del iceberg, oculto bajo el agua, representa el vasto conjunto de datos sobre el que se entrena cada modelo amplio de lenguaje. Estos datos constituyen la base de los conocimientos y las capacidades del modelo, que es inmensa y, en su mayor parte, no se ve durante ninguna interacción con el modelo, pero siempre está ahí, dando sustento a cada resultado.
Puesto en números comparados: la primera red neuronal artificial, Perceptron Mark I, se desarrolló en 1957 y podía aprender a distinguir si una tarjeta estaba marcada a la izquierda o a la derecha. Tenía mil neuronas artificiales y entrenarla requería unas 700 mil operaciones. Más de 65 años después, para entrenar GPT-4 se necesitaron 21 millones de sextillones de operaciones (un número inimaginable, algo así como un 21 seguido de 42 ceros).
Los distintos modelos se entrenan con diferentes combinaciones de conjuntos de datos. En el caso de empresas como OpenAI y Google, parte de esa información es privada. Aunque tenemos información sobre los datos de entrenamiento de GPT-3, GPT-4 es más bien un misterio, y el PaLM de Google es completamente desconocido. Pero sí sabemos algo sobre el tipo de datos con los que se entrenan estos gigantes de los grandes modelos.
Lo que no es ningún secreto es que contienen datos de fuentes como Common Crawl, The Pile, Wikipedia y el sitio de codificación GitHub, y que pueden haber sido entrenados en redes sociales como Twitter y Reddit, lo que conlleva el riesgo de varios efectos secundarios, como sesgos y discriminación.
La urgencia de una ética, pero no sólo de la IA
El asterisco en la curva de crecimiento de la IA es justamente la confianza del público, que parece estar cambiando en dirección opuesta a lo que esperan empresas como Google, OpenAI y Microsoft. Es posible que este año también veamos cuestionamientos éticos más duros y que eso se traduzca en una ralentización de los avances.
Una encuesta reciente basada en datos de la consultora Edelman sugiere que la confianza en las empresas que construyen y venden herramientas de IA cayó al 53%, frente al 61% de hace cinco años.
Aunque el descenso no fue tan grave en los países menos desarrollados, en EE.UU. fue aún más pronunciado, al caer del 50% a sólo el 35%.
¿Cuál es la causa de esta pérdida de confianza? ¿Es sólo un problema de imagen? La mayor parte de las preocupaciones en torno del uso de la IA, que este año se acentuarán, no giran en torno de (des)confiar en la IA para que nos dé las respuestas correctas. Se trata de la confianza más amplia que la sociedad deposita en la IA; es decir, abarca cuestiones sobre si confiamos o no en que quienes crean y utilizan los sistemas de IA lo hacen de forma ética, teniendo en cuenta nuestros mejores intereses.
Cuando hablamos de los verdaderos dueños de estas poderosas herramientas, nos referimos a un estrechísimo círculo en el que lo que afectará a miles de millones de personas se decide entre Google, Meta, OpenAI, Microsoft y un par más de gigantes que persiguen un lucro infinito y se deben más a su cotización en la bolsa de Nueva York que a los intereses que pueden interesar a mediano plazo a toda la humanidad.
El futuro en sus manos
De hecho, esto preocupa a muchos expertos, muchos de los cuales han participado activamente en la etapa actual de estos desarrollos, han alcanzado a proyectar hacia dónde van y tienen sus propias predicciones para lo que viene.
En su comparecencia ante la Comisión del Senado de Estados Unidos, Darío Amodei, exejecutivo de OpenAI y actual CEO de Anthropic, afirmó hace poco que, si se sigue avanzando al ritmo actual, en los próximos dos o tres años un amplio abanico de personas podrían tener acceso a conocimientos científicos que ni siquiera los expertos actuales poseen mediante el uso de sistemas de IA. Esto podría aumentar el número de personas que pueden “causar estragos”, según Amodei.
“En particular, me preocupa que los sistemas de IA puedan ser mal utilizados a gran escala en los ámbitos de la ciberseguridad, la tecnología nuclear, la química y, especialmente, la biología”, advirtió.
Tampoco se ven hoy como improbables las ideas de dominio de las máquinas fuera de control al estilo Terminator o cualquier otra distopía que rompa las tres leyes clásicas de la robótica acuñadas por Asimov. En concreto, algunas de esas advertencias han sido lanzadas por Geoffrey Hinton, el reciente ganador del premio Nobel de Física, quien durante años participó de la génesis de los proyectos de Google en IA, lo que le valió el mote de “padrino de la IA”.
Alejado de Google, Hinton ve cosas positivas en el futuro cercano de la IA, como el aumento de la productividad y la eficiencia, pero señala el riesgo potencial de que millones de personas pierdan sus trabajos a causa de la inteligencia artificial y que no haya suficientes empleos para sustituir a quienes se pierdan, al contrario de lo que aseguran los tecnólogos más optimistas.
Hoy mismo hay inteligencias artificiales escribiendo código de máquina de manera autónoma, y Hinton sostiene que, más temprano que tarde, terminarán teniendo conciencia de sí mismas, algo que algunos científicos predecían recién para fines de este siglo.
“Creo que estamos entrando en un período en el que, por primera vez en la historia, puede que tengamos cosas más inteligentes que nosotros”, sostuvo al recibir su premio.
Las noticias falsas impulsadas por la IA; cómo una IA sesgada podría perjudicar a quienes buscan empleo; el uso de la tecnología por parte de fuerzas policiales, y los robots autónomos en lugares de conflicto son otras advertencias de Hinton que pueden sonar exageradas, pero que de las que de a poco vamos teniendo algunas señales.
Como se ocupa de dejar claro la miniserie Years and years, el futuro no es algo que llegue de un día para el otro. Y el futuro de la IA en nuestras vidas ya está sucediendo.
Cinco gadgets que se esperan para 2025
Anteojos inteligentes
Samsung lleva varios años insinuando algún tipo de hardware de realidad aumentada. Esto ha llevado a muchos expertos del sector a arriesgar que 2025 será el año en que Samsung lance por fin su dispositivo tipo “gafas inteligentes”.
Joystick adaptado
Microsoft ya tiene un mando adaptado y algunos accesorios que hacen a su consola más accesible a los usuarios discapacitados. Se espera que este año vaya un paso más allá y lance un joystick adaptado para Xbox.
HDMI 2.2
La última versión de HDMI ya admite resoluciones de video de hasta 10K a 120 Hz de refresco, con HDR dinámico y hasta 48 Gbps de ancho de banda de datos. La que se espera para este año permitirá características aún más elevadas.
Robotaxis de Uber
Cruise, la firma de conducción autónoma de General Motors, ha anunciado la firma de un acuerdo plurianual con el gigante del transporte Uber para introducir sus robotaxis en esta plataforma en 2025.
Computadoras para IA
Los chips específicos optimizados para la IA en los que trabajan Nvidia e Intel para este año bajan los requisitos de potencia y procesamiento del hardware con IA integrada. La mala noticia es que las computadoras con esta capacidad serán más caras.