• Inicio
  • Noticias
  • Entretenimiento
  • Deportes
  • Turismo
  • Tecnología
  • Lotería
domingo, 8 junio , 2025
Sin resultado
Ver Todos los Resultados
27 °c
Santo Domingo
Lun
Mar
Ensegundos.do
Sin resultado
Ver Todos los Resultados
  • Inicio
  • Noticias
  • Entretenimiento
  • Deportes
  • Turismo
  • Tecnología
  • Lotería
  • Inicio
  • Noticias
  • Entretenimiento
  • Deportes
  • Turismo
  • Tecnología
  • Lotería
Sin resultado
Ver Todos los Resultados
Ensegundos.do

Conozca la nueva red neuronal de Google

Por Waidy James
18 enero 2020
Tiempo de lectura:2 minutos de lectura
A A

Uno de los desafíos más grandes a la hora de hablar de inteligencia artificial es lograr que el sistema comprenda de manera efectiva y rápida el contexto. Entender contenido que se da en secuencias como ocurre en la música, los videos o en cualquier lenguaje requiere de una buena comprensión del contexto.

En el dominio del lenguaje, las redes neuronales de memoria a largo plazo (LSTM, por sus siglas en inglés) cubren suficiente contexto para traducir oración por oración de un texto. El modelo Transformer empleado por Google no solo mejoró el rendimiento en la traducción de oración por oración, sino que también podría usarse para generar artículos completos a través de un resumen de múltiples documentos; así como para producir fotos y música.

Banner Banco Popular

Ahora Google anunció la llegada de Reformer, una versión mejorada de Transformer. Este modelo está diseñado para manejar ventanas de contexto (se denomina así al rango de datos que se tienen en cuenta en la traducción) de hasta 1 millón de palabras, usando solo 16GB de memoria.

Reformer también puede procesar novelas completas y en un solo dispositivo.

El modelo combina dos técnicas para resolver los problemas de atención y asignación de memoria que limitan la aplicación de Transformer a ventanas de contexto largas. Reformer utiliza hash sensible a la localidad (LSH) para reducir la complejidad de asistir a secuencias largas; y capas residuales reversibles para usar de manera más eficiente la memoria disponible.

En Google hicieron una prueba con Reformer: lo emplearon para completar imágenes parciales. Cuando se le muestra al fragmento de fotos, el sistema es capaz de generar una imagen completa píxel por píxel.

SollSystems

Pero hay algo más: Reformer también puede procesar novelas completas y en un solo dispositivo. Google contó en su comunicado que Reformer pudo procesar la novela Crimen y el castigo de una sola vez.

Mira más..y mantente informado

La tierras raras, el arma de China en la guerra comercial con EEUU

Las restricciones chinas a la exportación de tierras raras ponen en jaque la industria automotriz

7 junio 2025
5 claves para hacer videos profesionales con un celular

5 claves para hacer videos profesionales con un celular

5 junio 2025
Nintendo moderniza «Mario Kart» para la salida de la Switch 2

Nintendo moderniza «Mario Kart» para la salida de la Switch 2

3 junio 2025

“En el futuro, cuando haya más conjuntos de datos con texto de formato largo para entrenar, técnicas como Reformer pueden hacer posible generar composiciones largas y coherentes”, se concluye en el texto.

BERT, el cambio en el algoritmo de Google que mejora las búsquedas

En septiembre de 2019 Google dio a conocer un cambio importante en su algoritmo que permite optimizar las búsquedas, por medio de la técnica denominada BERT, que favorece la interpretación de las frases en contextos. Y comenzaría a estar disponible en español, portugués entre otro y que desembarcaba, además, en más de 20 piases.

El gran aporte de BERT es que permite una interpretación bidireccional, es decir que para interpretar un término en contexto se tiene en cuenta tanto la palabra que le antecede como la que tiene a continuación.

Así, por ejemplo, en la oración “accedí a la clave bancaria”, el concepto “clave” es interpretado teniendo en cuenta el fragmento “accedí a” y “bancaria”. A esto se refiere el concepto de interpretación bidireccional.

BERT permite poder resolver algunas interpretaciones que, de otro modo, podrían resultar ambiguas. Si, por ejemplo, se escribe en el buscador “2020 turista a Tailandia necesita certificado vacuno” se entenderá con mayor precisión que la búsqueda es de información para saber si es condición tener este documento.

BERT también aprende a modelar las relaciones entre oraciones mediante el entrenamiento previo en una tarea que se puede generar a partir de cualquier corpus de texto.

Relacionado

La tierras raras, el arma de China en la guerra comercial con EEUU
Ciencia & Tecnología

Las restricciones chinas a la exportación de tierras raras ponen en jaque la industria automotriz

7 junio 2025
5 claves para hacer videos profesionales con un celular
Ciencia & Tecnología

5 claves para hacer videos profesionales con un celular

5 junio 2025
Nintendo moderniza «Mario Kart» para la salida de la Switch 2
Ciencia & Tecnología

Nintendo moderniza «Mario Kart» para la salida de la Switch 2

3 junio 2025
DeepSeek-R1: ¿La IA gratuita más capaz del momento? Descubre todo lo que ofrece
Ciencia & Tecnología

DeepSeek-R1: ¿La IA gratuita más capaz del momento? Descubre todo lo que ofrece

3 junio 2025
Anuncian apertura de 300 becas internacionales para jóvenes en tecnologías emergentes
Ciencia & Tecnología

Anuncian apertura de 300 becas internacionales para jóvenes en tecnologías emergentes

3 junio 2025
Científicos miden por primera vez la duración de un día en un exoplaneta: ocho horas
Ciencia & Tecnología

Científicos creen haber hallado un nuevo planeta enano en el sistema solar

29 mayo 2025
SollSystems

Banner Banco Popular

Presidencia

Banner Delta

Banner Mamoncito

Banner Delta 300x600

Banner Banreservas

Presidencia

  • Noticias
  • Entretenimiento
  • Ciencia & Tecnología
  • Deportes
  • Cine
  • El Mundo

© 2024 Ensegundos.do Todos los derechos reservados.

Sin resultado
Ver Todos los Resultados
  • Noticias
  • Entretenimiento
  • El Mundo
  • Ciencia & Tecnología
  • Deportes
  • Salud
  • Sociedad
  • Curiosidades
  • Cine
  • Lotería

© 2024 Ensegundos.do Todos los derechos reservados.