Todo sobre el evento de IA de Google «en directo desde París» en 4 minutos en lugar de 40

Todo sobre el evento de IA de Google

El 8 de febrero de 2023, Google celebró un evento sobre IA titulado «En directo desde París». En este evento, altos empleados de Google anunciaron los avances de Google en el campo de la IA y cómo el mundo va a experimentar grandes cambios en el campo de la Búsqueda, Mapas, Artes & la cultura y los viajes.

Google AI

Google celebra este año su 25 aniversario. Este evento fue el primero del año 2023 y hubo algunas deficiencias que hemos enumerado al final de este artículo.

El evento completo de 40 minutos todavía se puede ver en YouTube haciendo clic en este enlace.

O en

Lea todo lo importante en 4 minutos.

¿Qué podemos esperar de Google en un futuro próximo?

El Bardo de Google

Google ha anunciado su nuevo servicio de chatbot de inteligencia artificial llamado Bard, que ya está causando sensación en el sector tecnológico. Bard utiliza la tecnología LaMDA (Modelo Lingüístico para Aplicaciones de Diálogo). Actualmente, aplicaciones como Bard y ChatGPT sólo dan una respuesta por pregunta.

Google Bardo

Google ha declarado que una variante «ligera» del modelo está disponible en una primera fase de pruebas antes de su lanzamiento completo. La fase de pruebas por parte de evaluadores internos y externos ya ha comenzado. Muchas preguntas pueden tener múltiples soluciones posibles, por lo que la nueva Búsqueda de Google ofrecerá tanto resultados de búsqueda convencionales como respuestas similares a las de ChatBot de IA.

Google Translate

Google Translate

Más de mil millones de personas en todo el mundo utilizan Google Translate en 133 idiomas. En el mundo real, los desplazados de Ucrania han encontrado en esta aplicación un salvavidas, ya que los refugiados se trasladan a muchos países diferentes de toda Europa. Google ha añadido recientemente 33 nuevos idiomas (corso, latín, yiddish, etc.) en el modo sin conexión para que los usuarios puedan comunicarse sin Internet.

Una novedad importante en la aplicación Google Translate es que pronto ofrecerá múltiples significados para las palabras que están diseñadas para utilizarse en más de un contexto. Esta función comenzará con el inglés, el alemán, el francés, el japonés y el español, y pronto aparecerá en más idiomas. Tomemos por ejemplo la palabra ‘Contenido’ se puede utilizar para sentirse feliz y describir el material (texto, vídeo, audio).

Multibuscador de lentes

Lente multisearch

Los usuarios de Google pueden consultar cualquier cosa en Internet haciéndole una fotografía o utilizando una imagen del banco de fotos de su dispositivo. La Lens se utiliza diez mil millones de veces al mes, lo que indica que la búsqueda visual ha dejado de ser una novedad para convertirse en una realidad. Los usuarios pueden buscar elementos específicos en imágenes o vídeos. Google Lens puede reconocer la estructura utilizando la capacidad de buscar el nombre de un edificio en un vídeo. Esta nueva funcionalidad de Lens estará disponible en los próximos meses.

Una de las principales atracciones del evento fue la multibúsqueda de Google Lens. Utilizar tanto texto como una imagen para buscar algo es la idea principal. Por ejemplo, puedes hacer una foto de una camisa e introducir el color en el que quieres comprarla. Esta función ha sido implementada por Google en todo el mundo.

Multibuscar cerca de mí

MultiSearch cerca de mí

Google también ha mostrado la «multibúsqueda cerca de mí», que permite buscar artículos como una comida concreta o un artículo específico cercano. De momento, sólo es accesible en Estados Unidos. Los usuarios de Android pronto podrán utilizar Google Lens para realizar búsquedas de texto e imágenes sin salir de la pantalla actual.

Vista inmersiva

Vista inmersiva

Immersive View, que se diseñó solo para lugares emblemáticos, ahora está disponible en cinco ciudades: Londres, Los Ángeles, Nueva York, San Francisco y Tokio. Los usuarios pueden sobrevolar virtualmente los edificios para inspeccionar las entradas, los patrones de tráfico e incluso las zonas más transitadas. Pueden acceder a Google Maps para ver las direcciones y hacer que las flechas de realidad aumentada de sus dispositivos proyecten las direcciones en lugares reales.

ubicación

Los usuarios pueden utilizar el control deslizante de tiempo para ver cómo aparece una ubicación en diferentes momentos. Los usuarios pueden incluso ver el aspecto de un lugar a distintas horas del día y en diferentes condiciones meteorológicas, así como cuando estaría menos concurrido. Los usuarios de Immersive View pueden incluso utilizar la aplicación para ver las cafeterías por dentro con el fin de explorar el lugar antes de visitarlo.

Los usuarios también pueden hacerse una idea de cómo es un lugar por dentro con Immersive View antes de llegar. Google lo hace con la ayuda de campos de radiancia neural (NeRF), un método de IA que crea una escena renderizada en 3D a partir de muchas fotos fijas tomadas desde varias perspectivas mediante el mapeo del color y la luz. Los recorridos que se pueden explorar se realizan con NeRF.

También se presentó Interior Live View, una solución de realidad aumentada para interiores, como aeropuertos y centros comerciales. Permite a los usuarios localizar rápidamente elementos como la recogida de equipajes, el ascensor más cercano o los patios de comidas. Se está introduciendo en 1.000 nuevos lugares, como centros comerciales, estaciones de tren y aeropuertos.

Filtro de carga para vehículos eléctricos

Filtro de carga EV

Google también está lanzando nuevas herramientas para ayudar a los conductores de vehículos eléctricos. Para viajes rápidos, Google Maps recomendará estaciones de carga, con un filtro «muy rápido». Al buscar lugares como hoteles o supermercados, también se mostrarán las estaciones de carga (si están disponibles). Estas funciones estarán disponibles para los VE con Google Maps integrado.

Google Arts & Cultura

Cultura

Google proporcionó una actualización sobre Woolaroo, una herramienta de traducción de fotos impulsada por IA que se presentó en mayo de 2021. Su objetivo es reconocer cosas en imágenes y proporcionar a los usuarios sus nombres en muchos idiomas en peligro de extinción.

lengua

Ahora se centra en utilizar el instrumento para preservar las contribuciones de las mujeres a la ciencia, entre otras cosas. El equipo de arte y cultura descubrió logros anteriormente ocultos de mujeres científicas mediante el uso de IA para evaluar fotografías y registros científicos históricos.

registros científicos

Google también empleó algoritmos de IA para analizar obras de arte conocidas, ofreciendo a los clientes una experiencia de RA que les permitía ver la obra hasta la última pincelada utilizando únicamente sus smartphones.

Algo picante: algunos defectos del evento de IA «En directo desde París» de Google

Vivir desde París

Todos los oradores estuvieron dando tumbos durante el evento.

Puede que este no sea un punto importante a la hora de juzgar el éxito de un evento, pero todos los ponentes presentes en varias secciones de los eventos fueron dando tumbos durante todo el evento mientras hablaban. Parecía que no estaban preparados para el evento o que el contenido del evento podría haber cambiado un poco después del Evento de Microsoft sobre la integración de Bing con ChatGPT que se celebró un día antes.

Google Bard No Fue El Centro De Atracción Del Evento.

La mayoría de nosotros esperábamos que Google Bard fuera el principal punto de discusión, pero sorprendentemente no hubo ninguna nueva revelación sobre Bard. Google había anunciado cierta información sobre Bard unos días antes de este evento y lo mismo se reiteró en el evento.

El Dispositivo de Pruebas Desapareció.

Si esperas que Google lleve a cabo un evento entonces probablemente sería impecable. Pueden ocurrir algunos fallos porque las cosas no salen siempre como se planean. Pero la desaparición de un dispositivo de pruebas demuestra la falta de preparación del evento. De ahí que nos perdiéramos la demostración de la función de búsqueda múltiple. Probablemente por eso el evento de 40 minutos se redondeó en 38 minutos.

Puede que Google Bard no sea preciso en todo momento.

La tecnología AI ChatBot es bastante nueva y podemos esperar cierto grado de imprecisiones por parte de Google Bard y sus rivales. Hay un ejemplo en particular, donde la demo publicada por Google sobre las respuestas de Bard a un niño de 9 años contiene un poco de información inexacta.

información inexacta

La Nasa afirma que el último punto es inexacto, ya que las primeras imágenes de un exoplaneta fueron tomadas por el telescopio espacial Hubble. (Artículo de referencia)

Tu opinión sobre el evento de inteligencia artificial «En directo desde París» de Google

Los nuevos proyectos emprendidos por Google resultan interesantes y más atractivos que la integración de Bing de Microsoft con el evento ChatGPT celebrado ayer. Tendremos que esperar algún tiempo para poder utilizar todas estas funciones impulsadas por la IA y luego observar por nosotros mismos cómo la IA hará que nuestras vidas sean mejores que antes.

Háganos saber en los comentarios si tiene alguna pregunta o recomendación. Estaremos encantados de ofrecerte una solución. Con frecuencia publicamos consejos, trucos y soluciones a problemas comunes relacionados con la tecnología. También puede encontrarnos en Facebook, Twitter, YouTube, Instagram, Flipboard y Pinterest.

¡Haz clic para puntuar esta entrada!
(Votos: 0 Promedio: 0)

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *