BBC – El LaMDA (Language Model for Dialogue Applications, modelo de lenguaje para aplicaciones de diálogo en español) fue diseñado por Google en 2017 y tiene como base un transformer, es decir, un entramado de redes neuronales artificiales profundas.

«Esta red neuronal se entrena con grandes cantidades de texto. Pero el aprendizaje es por objetivo y se plantea como un juego. Tiene una frase completa pero le quitas una palabra y el sistema tiene que adivinarla», explica Julio Gonzalo Arroyo, catedrático de la UNED (Universidad Nacional de Educación a Distancia) en España e investigador principal del Departamento de procesamiento del lenguaje natural y recuperación de la información.



Juega consigo mismo. El sistema pone palabras por ensayo y error y, cuando se equivoca, como si fuera un cuadernillo de actividades infantiles, mira en las últimas páginas, ve la respuesta correcta y así va corrigiendo los parámetros, afinando.

«Los humanos somos relativamente fáciles de engañar», sostiene Gonzalo.

A la vez, «identifica el significado de cada palabra y pone atención a las palabras que la rodean», sostiene Gonzalo Arroyo.



Así se vuelve especialista en predecir patrones y palabras. Como ocurre con el texto predictivo en tu teléfono celular, solo que aquí ampliado a la enésima potencia, con una memoria mucho mayor.

Una enorme red neuronalque se entrena con grandes cantidades de texto, así es LaMDA.

Respuestas de calidad, específicas y con interés

Entérate más:  En Airbnb se acaba la fiesta, definitivamente

Pero LaMDA también crea respuestas fluidas, no acartonadas y, según Google, con la capacidad de recrear el dinamismo y reconocer los matices de una conversación humana. En resumidas cuentas: que no suenen a robot.

Esta fluidez es uno de los objetivos de Google, tal y como indican en su blog de tecnología. Y la consiguen, dicen, fijándose en que las respuestas sean de calidad, que sean específicas y haya interés.

Para que tengan calidad, deben tener sentido. Por ejemplo, si le digo a LaMDA «He empezado a tocar la guitarra» debería responder algo relacionado a esto y no cualquier cosa sin sentido.

Para que cumpla el segundo objetivo no debería contestar un «Está bien», sino algo tipo más específico como «Qué marca de guitarra te gusta más, ¿Gibson o Fender?».

Y para que el sistema dé respuestas que muestren interés, perspicaces, ya iría a un nivel más elevado como por ejemplo: «Una Fender Stratocaster es una buena guitarra, pero la Red Special de Brian May es única».

¿Cuál es el secreto para dar respuestas con ese nivel de detalle? Como decíamos, se autoentrena. «Después de leer billones de palabras tiene una capacidad extraordinaria para intuir cuáles son las palabras más adecuadas en cada contexto.»

Para los expertos en Inteligencia Artificial, transformers como LaMDA han supuesto un hito porque «permiten un procesamiento (de información, de textos) muy eficiente y han producido una auténtica revolución en el campo del Procesamiento del Lenguaje Natural».

Entérate más:  Google acuerda pagar por contenido de Wikipedia

Seguridad y sesgo
Otro de los objetivos en el entrenamiento de LaMDA, según Google, es que no cree «contenido violento o sangriento, promueva calumnias o estereotipos de odio hacia grupos de personas, o que contengan blasfemias», según contemplan en su blog sobre inteligencia artificial (AI).

También se busca que las respuestas estén basadas en hechos y haya fuentes externas conocidas.

«Con LaMDA estamos adoptando un enfoque comedido y cuidadoso para tener más en cuenta las preocupaciones válidas sobre la imparcialidad y la veracidad», dice Brian Gabriel, portavoz de Google.

Sostiene que el sistema ha pasado por 11 revisiones distintas de los Principios de la AI «junto con una rigurosa investigación y pruebas basadas en métricas clave de calidad, seguridad y la capacidad del sistema para producir declaraciones basadas en hechos».

¿Cómo se logra que un sistema como LaMDA no tenga sesgo ni mensajes de odio?

«La clave es seleccionar con qué datos (con qué fuentes textuales) se le alimenta», señala Gonzalo.

Pero no es sencillo: «Nuestra forma de comunicarnos refleja nuestros sesgos, y a su vez las máquinas los aprenden. Es difícil eliminarlos de los datos de entrenamiento sin quitarles representatividad», explica.

Es decir, pueden aparecer sesgos.

«Si le das noticias de la reina Letizia (de España) y en todas se comenta qué vestimenta lleva, es posible que, cuando se le pregunte al sistema por ella, repita este patrón machista y hable de la ropa y no de otras cosas», señala el experto.