TopProfes

Encuentra toda la información nacional e internacional sobre españa. Selecciona los temas sobre los que quieres saber más

Google está trabajando para solucionar 2 molestas peculiaridades en su asistente de voz

“Hoy, cuando la gente quiere hablar con un asistente digital, piensan en dos cosas: qué quiero hacer y cómo formulo el mío para hacerlo”, dice Subramania. Creo que esto es muy antinatural. Existe una enorme carga cognitiva cuando la gente habla con asistentes digitales; La conversación natural es una forma de aliviar la carga cognitiva “.

Hacer que las conversaciones con el asistente sean más naturales significa mejorar la precisión de las referencias: su capacidad para asociar una frase con una entidad específica. Por ejemplo, si dices “Configura un temporizador para 10 minutos” y luego dices “Cámbialo a 12 minutos”, el asistente de voz debe entender a qué te refieres y resolverlo cuando dices “sí”.

Los nuevos modelos de NLU funcionan con tecnología de aprendizaje automático, específicamente Representaciones codificadas bidireccionales de convertidoresO BERT. Google dio a conocer esta tecnología en 2018 y la aplicó por primera vez a la Búsqueda de Google. La técnica de comprensión temprana del lenguaje se utiliza para deconstruir cada palabra en una oración por sí misma, pero BERT maneja la relación entre todas las palabras en la oración, lo que mejora en gran medida la capacidad para determinar el contexto.

Ejemplo de cómo BERT puede mejorar su búsqueda (Como se indica aquí) Al buscar “estacionamiento en una colina sin barrera”. Antes, los resultados todavía contenían colinas con límites. Después de habilitar BERT, las búsquedas de Google ofrecieron un sitio web que aconsejaba a los conductores que llevaran las ruedas al costado de la carretera.

Con los modelos BERT que ahora se utilizan para temporizadores y alarmas, Subramanya dice que el asistente ahora puede responder consultas relacionadas, como las modificaciones antes mencionadas, con una precisión cercana al 100 por ciento. Pero esta comprensión contextual superior todavía no funciona en todas partes: Google dice que poco a poco está incorporando formularios actualizados a más tareas como recordatorios y control de dispositivos domésticos inteligentes.

READ  Capcom anuncia Great Ace Attorney Chronicles para Switch, PS4 y Steam

Las mejoras de Google son drásticas, dice William Wang, director del Grupo de Procesamiento del Lenguaje Natural de la Universidad de California, Santa Bárbara, especialmente porque aplicar el modelo BERT para comprender el lenguaje hablado “no es muy fácil”.

“En todo el campo del procesamiento del lenguaje natural, después de 2018, con la introducción de este modelo BERT por parte de Google, todo cambió”, dice Wang. “BERT realmente entiende lo que sigue de forma natural de una oración a otra y cuál es la relación entre las oraciones. Estás aprendiendo una representación contextual de la palabra, las frases y las oraciones también, por lo que en comparación con el trabajo anterior antes de 2018, esto es más poderoso . “

La mayoría de esas mejoras pueden ir en temporizadores y alarmas, pero es usted voluntad Ver una mejora general en la capacidad del asistente de voz para comprender el contexto a escala. Por ejemplo, si le pregunta sobre el clima en Nueva York y sigue con preguntas como “¿Cuál es el edificio más alto allí?” ¿Y quién lo construyó? El asistente seguirá dando respuestas con conocimiento de la ciudad a la que se refiere. Esto no es completamente nuevo, pero la actualización hace que el asistente sea más hábil para resolver estos acertijos contextuales.

Nombres de los profesores asistentes

Video: Google

El asistente ahora también comprende mejor los nombres únicos. Si trataste de llamar o enviar un mensaje de texto a alguien con un nombre desconocido, es muy probable que haya sido necesario varios intentos o que no haya funcionado en absoluto porque el Asistente de Google no conocía la pronunciación correcta.

READ  A la venta: Botella de Burdeos de un millón de dólares vintage en el espacio