La ciencia dio un paso más hacia la comunicación directa entre el cerebro y la máquina. Un equipo de neurocientíficos chinos consiguió traducir la actividad cerebral en frases escritas en mandarín, marcando un hito global en el campo de la neurotecnología y la inteligencia artificial.
El desarrollo, liderado por investigadores de la Academia China de Ciencias, logró decodificar pensamientos con un 70% de precisión y convertirlos en texto legible a una velocidad de 50 caracteres por minuto. Se trata de uno de los experimentos más avanzados en el uso de IA para interpretar las señales neuronales del habla.
El hallazgo fue publicado en la revista Frontiers in Neuroscience y, según los especialistas, podría devolver la capacidad de comunicarse a personas que han perdido el habla por enfermedades neurológicas o lesiones.

A diferencia de investigaciones previas, casi todas centradas en el inglés, este decodificador fue entrenado para operar en mandarín, una lengua tonal en la que el significado depende de la entonación.
En el mandarín moderno, una sílaba puede tener entre 10 y 20 significados distintos según su tono. Por ejemplo, la sílaba “yi” puede interpretarse como “uno”, “justicia” o “médico”. Captar esas diferencias mediante impulsos eléctricos cerebrales representa un desafío técnico y lingüístico sin precedentes.
Para superar esa barrera, el equipo trabajó durante dos semanas con una paciente de 43 años con epilepsia. Mientras repetía 400 sílabas tonales por día, los científicos registraron su actividad cerebral mediante una red de 246 electrodos implantados en la corteza cerebral. Con esos datos, entrenaron una IA capaz de reconocer patrones neuronales vinculados a la entonación y al significado.
El resultado fue sorprendente: el sistema no solo predijo con precisión las sílabas, sino que también reconstruyó una voz sintética de la paciente, generada a partir de su propia actividad cerebral.
Hasta ahora, la mayoría de los decodificadores mentales se han diseñado para lenguas fonéticas. Sin embargo, existen más de 2.000 lenguas tonales en el mundo, habladas por casi el 30% de la población. Este avance amplía las posibilidades de la neurotecnología a millones de personas.
Los investigadores destacan el potencial médico de esta innovación: pacientes con parálisis, accidentes cerebrovasculares o trastornos del habla podrían recuperar su voz gracias a la combinación de IA y neurociencia.
No obstante, el avance también abre un debate ético. La posibilidad de interpretar pensamientos o emociones a partir de señales cerebrales plantea interrogantes sobre la privacidad mental.
Los científicos aseguran que su objetivo es puramente terapéutico y que están explorando la idea de “contraseñas mentales” que impidan el acceso no autorizado a la información cerebral. En paralelo, organismos internacionales analizan nuevas regulaciones para el uso de interfaces cerebro-computadora y el almacenamiento de datos neuronales.
Una frontera entre la mente y la máquina
En las últimas dos décadas, las interfaces neuronales han evolucionado de simples experimentos eléctricos a herramientas capaces de escribir, hablar o mover prótesis con el pensamiento. El nuevo decodificador chino avanza un paso más: conectar la mente con el lenguaje.

Este sistema no traduce idiomas, sino pensamientos, convirtiéndolos en palabras visibles. Un traductor universal que no une culturas, sino conciencias. Y que, aunque promete inclusión y libertad comunicativa, también nos obliga a preguntarnos hasta dónde queremos que las máquinas puedan oír lo que pensamos.



























