Freddie Mercury comienza la canción Who wants to live forever como un lamento y declama: “no hay tiempo para nosotros, no hay lugar para nosotros”. Más allá de la inmortalidad, estas palabras resuenan con una idea que no deja de preocuparme.
En los últimos años, diversas voces han advertido sobre la caída en la natalidad humana. Pronostican que si las nuevas generaciones no dejan de adoptar perros en lugar de tener hijos, la cosa se pondrá fulera.
Pero mientras se prenden las alarmas y se pronostica que la humanidad desaparecerá si no nos reproducimos, los avances continuos en inteligencia artificial (IA) y la computación cuántica (CC) nos permitirán curar cada vez más enfermedades y aumentar la esperanza de vida.
¿Cuántos años? Dependerá de lo que se logre en genética y en regeneración celular. ¿150, 200, 300 años? Imposible saberlo.
Grandes preguntas
Entonces, ¿para qué queremos ampliar la cantidad de humanos si los reservaremos para los bancos de suplentes de la vida?
Hace unas décadas, la edad promedio de retiro de los empresarios rondaba entre los 60 y 65 años. Sin embargo, en las últimas décadas, con los avances en medicina, longevidad y tecnología, se ha visto un cambio notable.
![Warren Buffett](https://www.lavoz.com.ar/resizer/v2/SMEJS25J2NHVVALSQ4INEPTQXY.jpg?auth=f823198debd120ca5f6730be460970e0ca4578d3344502cba66c9bd87d3dd4eb&width=4352&height=3045)
Hoy, muchos prolongan su carrera hasta los 70, 75 o incluso 80 años si su estado de salud lo permite. O hasta casos como Warren Buffett (94 años), Rupert Murdoch (92 años cuando dejó el liderazgo de Fox) y otros empresarios que siguen activos mucho más allá de lo que era común antes.
¿Qué significa esto?
Si las mismas personas permanecen en el poder por décadas, la capacidad de adaptación a nuevas ideas podría reducirse. La innovación suele surgir de la disrupción y el pensamiento fresco, algo que podría verse limitado si el recambio es más lento.
La longevidad extendida también puede dificultar el ascenso de nuevas generaciones en estructuras de poder, generando un «techo de cristal» aún más sólido. En un mundo donde el poder político y corporativo se concentra en individuos que pueden vivir y trabajar 100 o más años, ¿cómo afectará esto la equidad y la distribución de oportunidades?
Por otro lado, una mayor longevidad podría generar un liderazgo con una visión más a largo plazo, al no estar limitado por horizontes de vida más cortos. Sin embargo, esto también podría llevar a una mayor resistencia al cambio, ya que quienes toman decisiones no sentirían la misma urgencia de preparar sucesores o arriesgarse con nuevas estrategias.
Decisiones inteligentes
Con sistemas de IA avanzados, un líder podría delegar muchas funciones en la inteligencia artificial, permitiéndole mantener el control sin necesidad de estar físicamente presente en la toma de decisiones diarias.
La consecuencia de esto podría ser una tecnocracia impulsada por IA, en la que las élites se vuelvan prácticamente inmortales en el ámbito del poder. Si la longevidad y la IA lo permiten, la democracia misma podría verse afectada.
¿Cómo se garantizará la alternancia en el poder en un mundo donde la biotecnología y la inteligencia artificial posibilitan una permanencia prolongada en roles clave?
Este fenómeno no es futurista; ya estamos viendo indicios en la política global, con líderes de avanzada edad manteniéndose en el poder gracias a avances en salud y tecnologías de gestión.
Lo mismo ocurre en el mundo corporativo, donde las decisiones estratégicas de grandes conglomerados están en manos de directores ejecutivos cada vez mayores, respaldados por tecnología que amplifica su capacidad operativa.
Máquinas y humanos
El desafío no es solo tecnológico, sino también ético y social. ¿Deberíamos establecer límites a la permanencia en el poder en un mundo donde la longevidad y la IA redefinen lo que significa ser productivo? ¿Cómo balanceamos la experiencia con la necesidad de renovación?
Nos preocupamos sin descanso por las regulaciones que deben aplicarse a la IA, cuando quizás deberíamos empezar a preocuparnos por las regulaciones sobre la humanidad 2.0.
Mi abuela, que se perdió el amanecer de la inteligencia artificial, me consolaba de niño cuando el miedo a lo sobrenatural se apoderaba de mí. “No tenés que tenerles miedo a los muertos, tenés que tenerles miedo a los vivos”.
Esa máxima, que de pequeño no me sirvió de mucho, quedó dando vueltas en mi cabeza. En una charla sobre IA, la resignifiqué: “No hay que tenerle miedo a la inteligencia artificial, hay que tenerle miedo a la inteligencia humana”.
* Tecnólogo, fundador y director ejecutivo de Iurika Intelligence