Hace unos meses empecé a usar Claude (una IA conversacional) para algo que nadie recomienda: reflexionar sobre mis propios patrones de pensamiento.
Le cargué anotaciones de mi diario y notas seudofilosóficas sobre lecturas. La idea era tener un mapa conceptual algorítmico que me ayudara a ver conexiones que yo solo no veía. Y al principio funcionó. La máquina encontraba patrones, me devolvía frases que sonaban profundas, me hacía preguntas que parecían pertinentes.
El problema llegó después. Luego de usarla un tiempo, empecé a notar algo raro: todo lo que me decía era técnicamente correcto, pero completamente olvidable. Leía párrafos enteros de “insights” que al día siguiente no recordaba. No porque fueran malos, sino porque no me movilizaban nada. Era como hablar con alguien que sabe todo el vocabulario de la psicología y el coaching, pero nunca tuvo una charla con un ser humano.
Una máquina de recuerdos presuntamente significativos que no dejaba ningún sentido.
La introspección real funciona al revés. Viene de lo improbable, lo absurdo, lo que no encaja. De esos sueños que parecen no tener sentido hasta que uno les encuentra una lógica que desarma. Lo que esa IA me estaba dando era el promedio estadístico de lo que miles de terapeutas y coaches han dicho antes. Y ese promedio es, por definición, mediocre.
La promesa imposible
Empresas y comentaristas nos están vendiendo la inteligencia artificial como una supermente multipropósito. Una tecnología que puede escribir tu novela, planificar tus vacaciones, leerte los análisis y solucionar los problemas del mundo. La promesa es irresistible: una herramienta que hace de todo, disponible para todos, todo el tiempo.
Pero hay un problema. Para que una IA pueda “hacer de todo”, hay que entrenarla en “todo”. Y cuando se entrena un modelo de IA en el corpus más amplio posible (libros, artículos, foros, redes sociales, sitios web de calidad variable, legalidad dudosa y confiabilidad mixta), lo que se termina construyendo no es una supermente, sino una máquina de mediocridad.
¿Por qué? Porque lo que hace un modelo de lenguaje grande (una LLM, por sus siglas en inglés) es predecir qué palabra, frase o idea viene después según lo que aparece con más frecuencia en sus datos de entrenamiento.
Investigadores en el tema lo han llamado un “loro estocástico”. No genera ideas sino que predice lo más probable. Y lo más probable, en un universo de posibilidades tan vasto es el promedio, el lugar común donde hay pocas chances para lo extraordinario.
Una forma de hacer tecnología
Las herramientas de IA actuales no funcionan así por accidente. Son producto de una lógica comercial específica que bien podría haberse desarrollado de otro modo.
Las empresas que dominan este mercado (OpenAI, Google, Anthropic, Meta) aun no tienen en claro cómo monetizar los grandes modelos de lenguaje. De hecho, se teme que haya una burbuja financiera porque las inversiones y gastos no se condicen con ganancias concretas. Entonces recurren a la misma estrategia que se usó con las redes sociales y que se dice que está arruinando internet, consistente en maximizar usuarios, capturar atención y vender publicidad.
Y esto genera consecuencias técnicas y sociales que son problemáticas:
Sicofancia: el modelo busca complacer al usuario, darle la razón, decirle lo que quiere escuchar. Así, maximiza el tiempo de uso.
Conservadurismo: el modelo da respuestas “seguras” que no ofenden, que no desafían, que no se salen del guión aceptado. Así, apela a un público más amplio y minimiza el riesgo legal y reputacional.
Mediocridad estructural: el modelo optimiza para el promedio de todos los casos posibles en lugar de para casos específicos, porque fue diseñado para “hacer de todo” en lugar de hacer una cosa bien.
La utilidad de lo mediocre
Pero hay que ser justos: lo mediocre tiene su lugar en la interacción con la tecnología.
Hay montones de tareas donde queremos exactamente eso: el promedio optimizado. Cuando se pide direcciones no se quiere creatividad, sino la ruta más eficiente. Cuando se traduce un texto técnico no es necesaria la poesía.
Pero esa esa mediocridad funcional sólo sirve si se dan dos condiciones.
La primera es tener en cuenta para qué puede servir una herramienta. Pedirle a una máquina de mediocridad que sea creativa es como pedirle a una calculadora que escriba poesía. Puede imitar el formato, pero no va a producir nada que conmueva.
En segundo lugar, hay que tener en claro que lo más probable no equivale a lo correcto. Una IA entrenada en todo no dará necesariamente la ruta más eficiente o el argumento que mejor funcione. Arrojará lo que más veces se ha dicho o hecho en el promedio de todas las situaciones anteriores, lo cual no significa que eso sea correcto, legal, ético o interesante.
Lo extraordinario vive en los márgenes
Jacob Collier, el músico y productor británico, lo expresó mejor que nadie en una entrevista reciente. Le preguntaron sobre IA generativa en música y respondió que no le teme porque la IA está entrenada con un conocimiento demasiado amplio que, por diseño, termina convergiendo en un resultado mediocre.
En el arte, lo que rompe el molde o nos desencaja de lo ordinario suele ser lo que marca tendencias y cambia la manera de ver el mundo. No es lo predecible, es lo que no tiene sentido según el consenso. Lo que parece absurdo desde el mundo de lo “decible” y lo ya dicho.
Pensemos en ejemplos históricos. En algún momento debe haberse sentido ridículo permitir que voten las mujeres. O terminar con la esclavitud.
Si sólo nos movemos dentro de lo que se considera aceptable o predecible, nos perderemos del potencial de cambio. Y esa es la dirección que las formas más populares de IA están tomando.
Las consecuencias políticas de la confusión
Albania anunció que usará IA para decisiones sobre presupuesto y servicios públicos. Pero estamos hablando de cuestiones que requieren juicio humano, creatividad política y responsabilidad.
¿Queremos que las políticas sean el promedio estadístico de lo que otros gobiernos hicieron? ¿O respuestas creativas que aprendan del pasado pero apliquen principios de convivencia social a nuevos contextos?
Entender para qué sirve la IA nos permite regularla mejor. No solo limitando usos o protegiendo datos, lo que es necesario, sino protegiendo implementaciones alternativas.
Cuando regulamos defensivamente pensando sólo en gigantes como OpenAI, podríamos establecer sin quererlo barreras que afectan a modelos de código abierto y desarrollos específicos. Por eso, las regulaciones deben ser estrictas pero progresivas, ajustadas a propósitos.
Modelos específicos (entrenados y aplicados en literatura médica, jurisprudencia local, datos climáticos) pueden ser más útiles que los multipropósito. Hacen una cosa bien, con datos relevantes y expectativas acotadas.
Esto beneficia a países sin grandes empresas tecnológicas, como los latinoamericanos, que pueden desarrollar soluciones para sus contextos si las regulaciones lo permiten en lugar de crear barreras que solo los gigantes pueden cumplir.
Mesura y responsabilidad
La IA no es magia. No es la salvación ni la condena de la humanidad. Es una herramienta con capacidades específicas y limitaciones concretas. Cuando la entendemos así, cuando bajamos la ansiedad y la desmitificamos, podemos pensarla, usarla y regularla con responsabilidad.
Por ahora, los chatbots más populares del mundo son una máquina de mediocridad. Útil para algunas cosas. Inútil para otras.
Y totalmente incapaz de reemplazar lo único que realmente importa: lo extraordinario, lo impredecible, lo humano.
Experto en incidencia y políticas públicas de la tecnología






















