Lenguas minoritarias: el gran desafío

Vivimos en un planeta que se acerca con rapidez a los 8.000 millones de habitantes. De estos, unos cuantos miles de millones hablan algunas de las lenguas más usadas y reconocidas, básicamente el inglés (1.130 millones), el chino mandarín (1.100 millones), el hindi (615 millones), el español (535 millones). Les siguen otros como el francés, el árabe, el bengalí, el ruso o el portugués. De los alrededor de 7.000 idiomas que existen en el mundo (4.000 de los cuales son escritos) alrededor de 23 abarcan más de la mitad de la población.

Con esta base, la evolución de la tecnología ha permitido desarrollar sistemas automáticos de traducción instantánea que, poco a poco, va afinando sus resultados. Aún queda un largo trecho por recorrer, pero a nivel usuario ahora resulta sencillo acceder a traducciones básicas para entender significados esenciales, aunque en su mayoría exentos de matices.

Si las lenguas dominantes todavía tienen un amplio margen de mejora en este ámbito, es fácil imaginar la problemática que supone poder acceder a traducciones de lenguas minoritarias. Actualmente Google Translate es capaz de comunicar en unas 108 lenguas, y esa cifra va creciendo, pero queda por delante toda una miríada de lenguas de uso minoritario que no pueden ser accesibles a través de la tecnología y cuya difusión y traducción solo es posible con el componente humano.

Sin embargo ya se han puesto las primeras piedras para la construcción de sistemas capaces de aprender, interpretar y traducir significados de lenguas poco difundidas. La tecnología se basa en la inteligencia artificial y en sistemas de tipo “neural networking”. La idea de base es que, mientras que una persona necesita años para adentrarse en el conocimiento de una lengua extraña, con todos sus entresijos, un sistema de IA neuronal “aprende” en base a millones de parámetros las estructuras que hace servir cada lengua. Usando procesos previos de entrenamiento el sistema “captura” palabras subidas a la red en esas lenguas y comienza a ensayar modelos atribuyendo significados en función de otros datos contextuales. Los modelos neuronales pueden aprender a traducir entre lenguajes individuales sin recurrir a traducciones bilingües, es decir, recurriendo a otro idioma mayoritario de referencia. Los resultados son prometedores y han puesto de relieve la importancia que tiene el hecho de subir a la red contenidos en esas lenguas minoritarias. Contenidos que son la materia prima, el “alimento” para estas nuevas herramientas experimentales que más pronto que tarde revolucionarán el mundo de las lenguas minoritarias.

Surumbam
info@surumbam.com

Somos la empresa creativa concebida para ser parte de la solución.