Google se burló de las gafas de traducción en los angeles semana pasada Conferencia de desarrolladores de Google I/Ocon los angeles promesa de que algún día podrás hablar con alguien que hable en un idioma extranjero y ver los angeles traducción al inglés en tus anteojos.
ejecutivos de los angeles empresa demostró las gafas en un video; mostró no solo “subtítulos ocultos” (texto en tiempo actual que deletrea en el mismo idioma lo que otra character está diciendo), sino también traducción de y hacia el inglés y el mandarín o el español, lo que permite a las personas que hablan dos idiomas diferentes mantener una conversación al mismo tiempo. permitir que los usuarios con discapacidad auditiva vean lo que otros les dicen.
Como {hardware} de Google Translate, las gafas resolverían un problema importante con el uso de Google Translate, que es: si u.s.a. los angeles traducción de audio, los pasos de audio de traducción en los angeles conversación en tiempo actual. Al presentar los angeles traducción visualmente, podría seguir las conversaciones de manera mucho más fácil y herbal.
A diferencia de Google Glass, el prototipo de gafas de traducción también es realidad aumentada (AR). Déjame explicarte lo que quiero decir.
Los angeles realidad aumentada ocurre cuando un dispositivo captura datos del mundo y, en función de su reconocimiento de lo que significan esos datos, les agrega información que está disponible para el usuario.
Google Glass no generation realidad aumentada, generation una pantalla de visualización frontal. Los angeles única conciencia contextual o ambiental con los angeles que podía lidiar generation los angeles ubicación. Según los angeles ubicación, podría dar indicaciones paso a paso o recordatorios basados en los angeles ubicación. Pero normalmente no podía recopilar datos visuales o de audio y luego devolver al usuario información sobre lo que estaba viendo o escuchando.
Las gafas de traducción de Google son, de hecho, AR al tomar datos de audio del entorno y devolver al usuario una transcripción de lo que se cube en el idioma elegido.
Los miembros de los angeles audiencia y los angeles prensa tecnológica informaron sobre los angeles función de traducción como los angeles aplicación exclusiva para estas gafas sin ninguna exploración analítica o crítica, por lo que pude ver. El hecho más evidente que debería haberse mencionado en cada informe es que los angeles traducción es solo una elección arbitraria para procesar datos de audio en los angeles nube. ¡Hay mucho más que las gafas podrían hacer!
Podrían procesar fácilmente cualquier audio para cualquier aplicación y devolver cualquier texto o audio para que lo consuma el usuario. ¿No es eso obvio?
En realidad, el {hardware} envía ruido a los angeles nube y muestra cualquier texto que los angeles nube devuelva. Eso es todo lo que hacen las gafas. Enviar ruido. Recibir y mostrar texto.
Las aplicaciones para procesar audio y devolver información contextual procesable o informativa son prácticamente ilimitadas. Las gafas podrían enviar cualquier ruido y luego mostrar cualquier texto devuelto desde los angeles aplicación remota.
El ruido incluso podría codificarse, como un módem antiguo. Un dispositivo que genere ruido o una aplicación de teléfono inteligente podría enviar pitidos y silbidos similares a R2D2, que podrían procesarse en los angeles nube como un código QR de audio que, una vez interpretado por los servidores, podría devolver cualquier información para que se muestre en las gafas. Este texto podría ser instrucciones para operar el equipo. Podría ser información sobre un artefacto específico en un museo. Podría ser información sobre un producto específico en una tienda.
Estos son los tipos de aplicaciones que estaremos esperando que visible AR entregue en cinco años o más. Mientras tanto, los angeles mayor parte podría hacerse con audio.
Un uso obviamente poderoso para las “gafas de traducción” de Google sería usarlos con el Asistente de Google. Sería como usar una pantalla inteligente con el Asistente de Google, un electrodoméstico que brinda datos visuales, junto con los datos de audio normales, de las consultas del Asistente de Google. Pero esos datos visuales estarían disponibles en sus anteojos, manos libres, sin importar dónde se encuentre. (Esa sería una aplicación de pantalla de visualización frontal, en lugar de AR).
Pero believe si las “gafas de traducción” estuvieran emparejadas con un teléfono inteligente. Con el permiso otorgado por otros, las transmisiones Bluetooth de datos de contacto podrían mostrar (en las gafas) con quién está hablando en un evento comercial y también su historial con ellos.
Por qué los angeles prensa tecnológica rompió Google Glass
Los críticos de Google Glass criticaron el producto, principalmente por dos razones. En primer lugar, una cámara frontal montada en los auriculares incomodaba a los angeles gente. Si estabas hablando con un usuario de Google Glass, los angeles cámara apuntaba directamente hacia ti, lo que te hizo preguntarte si estabas siendo grabado. (Google no dijo si sus “gafas de traducción” tendrían una cámara, pero el prototipo no tenía una).
En segundo lugar, el {hardware} excesivo y llamativo hacía que los usuarios parecieran cyborgs.
Los angeles combinación de estas dos transgresiones de {hardware} llevó a los críticos a afirmar que Google Glass simplemente no generation socialmente aceptable en compañía educada.
Las “gafas de traducción” de Google, por otro lado, no tienen cámara ni se ven como implantes de cyborg: se parecen mucho a las gafas ordinarias. Y el texto visual para el usuario no es visual para los angeles character con los angeles que está hablando. Parece que están haciendo contacto visible.
El único punto restante de inaceptabilidad social para el {hardware} de las “gafas de traducción” de Google es el hecho de que Google esencialmente estaría “grabando” las palabras de otros sin permiso, cargándolas en los angeles nube para traducirlas y presumiblemente reteniendo esas grabaciones como lo hace con otros productos relacionados con los angeles voz.
Aún así, el hecho es que los angeles realidad aumentada e incluso las pantallas de visualización frontal son súper convincentes, si los fabricantes pueden configurar correctamente los angeles función. Algún día, tendremos AR visible completo en anteojos de aspecto commonplace. Mientras tanto, las gafas AR correctas tendrían las siguientes características:
- Parecen gafas normales.
- Pueden aceptar lentes recetados.
- No tienen cámara.
- Procesan audio con IA y devuelven datos a través de texto.
- y ofrecen funcionalidad de asistente, devolviendo resultados con texto.
Hasta los angeles fecha, no existe tal producto. Pero Google demostró que tiene los angeles tecnología para hacerlo.
Si bien los subtítulos y los angeles traducción de idiomas pueden ser los angeles característica más atractiva, es, o debería ser, solo un caballo de Troya para muchas otras aplicaciones comerciales atractivas también.
Google no ha anunciado cuándo, o incluso si, las “gafas de traducción” se enviarán como un producto comercial. Pero si Google no los hace, alguien más lo hará, y resultará ser una categoría asesina para los usuarios comerciales.
Los angeles capacidad de las gafas ordinarias para darle acceso a los resultados visuales de los angeles interpretación de los angeles IA de quién y qué escucha, además de los resultados visuales y de audio de las consultas de los asistentes, cambiaría totalmente las reglas del juego.
Estamos en un período incómodo en el desarrollo de los angeles tecnología en el que las aplicaciones AR existen principalmente como aplicaciones para teléfonos inteligentes (donde no pertenecen) mientras esperamos anteojos AR móviles socialmente aceptables que están en muchos años en el futuro.
Mientras tanto, los angeles solución es clara: necesitamos gafas AR centradas en audio que capturen sonido y muestren palabras.
Eso es justo lo que demostró Google.
Derechos de autor © 2022 IDG Communications, Inc.
Pasaporte En Linea