GeboArt.Dev



Google Gemini partió con el pie izquierdo, porque en las últimas horas se descubrió que una de las demostraciones en video de la nueva IA capaz de superar según a los de Mountain View a GPT-4, realizó un montaje.

En un artículo de opinión, Bloomberg dice que Google admite que para su video titulado «Hands-on with Gemini: Interacting with multimodal AI», no solo se editó para acelerar las salidas (lo que se declaró en la descripción del video), sino que la interacción de voz implícita entre el usuario humano y la IA era en realidad inexistente.

Hands-on with Gemini: Interacting with multimodal AI

¿Qué se ve en el video?: En 6 minutos muestra las capacidades multimodales de Gemini (indicaciones conversacionales habladas combinadas con reconocimiento de imágenes, por ejemplo). Aparentemente, Gemini reconoce las imágenes rápidamente, incluso para las imágenes que conectan los puntos, responde en segundos y rastrea un fajo de papel en un juego de taza y pelota en tiempo real. Claro, los humanos pueden hacer todo eso, pero esta es una IA capaz de reconocer y predecir lo que sucederá a continuación.

Sin embargo, en la descripción del video se puede leer: «Para los propósitos de esta demostración, la latencia se ha reducido y las salidas de Gemini se han acortado para mayor brevedad».

La demostración de video no ocurrió en tiempo real con indicaciones habladassino que usó fotogramas de imágenes fijas de imágenes sin procesar y luego escribió indicaciones de texto a las que Gemini respondió. «Eso es bastante diferente de lo que Google parecía estar sugiriendo: que una persona podría tener una conversación de voz fluida con Gemini mientras observaba y respondía en tiempo real al mundo que lo rodeaba», escribe Bloomberg.

La respuesta de Google

Really happy to see the interest around our “Hands-on with Gemini” video. In our developer blog yesterday, we broke down how Gemini was used to create it.

We gave Gemini sequences of different modalities — image and text in this case — and had it respond… pic.twitter.com/Beba5M5dHP

— Oriol Vinyals (@OriolVinyalsML) December 7, 2023

Pero para Google no hay engaño. La compañía señaló en una publicación de Oriol Vinyals, vicepresidente de investigación y líder de aprendizaje profundo en DeepMind de Google (también colíder de Gemini), que explica cómo el equipo hizo el video.

«Todas las indicaciones y salidas del usuario en el video son reales, acortadas para mayor brevedad», dice Vinyals. «El video ilustra cómo podrían ser las experiencias de usuario multimodo creadas con Gemini. Lo hicimos para inspirar a los desarrolladores».








Fuente


Descubre más desde GeboArt.Dev

Suscríbete y recibe las últimas entradas en tu correo electrónico.

Deja un comentario

Este sitio usa Akismet para reducir el spam. Aprende cómo se procesan los datos de tus comentarios.

Ir al contenido