El enfoque del hardware que google acaba de lanzar esta semana va mucho más alla de ser simplemente un buen hardware. Claro, el Google Pixel y Google Home son impresionantes pero lo realmente importante es el Asistente, el ayudante de inteligencia artificial que te ayuda con cualquier cosa y empodera todas tus interacciones.

Si no has visto todos los equipos que Google acaba de anunciar, puedes ver un resumen de 10 min en este video

Muchas personas juzgan al celular por su diseño, por su cámara, por su almacenamiento o demás datos técnicos como memoria RAM o procesador. Claro, todo esto es impresionante en el nuevo Google Pixel, pero eso no es lo más importante, eso no es lo que diferencia realmente a este celular, ni a todo el equipo nuevo que acaba de lanzar Google.

El asistente de Google es la verdadera innovación. El asistente es invisible en cuanto a diseño. Este conserje omnipresente trabaja en el fondo, prediciendo tus necesidades, procesando tus peticiones y ofreciendo respuestas precisas a tus preguntas. Nunca ves el engranaje que lo hace funcionar, simplemente escribes o dices un comando y lees o escuchas las respuestas precisas.

Esto requiere más que un smartphone, lo que explica todos los demás gadgets que Google anunció este martes. Pero como a Google le gusta decir, estos son los primeros días para un sistema multi-portal que incluye teléfonos como el Pixel y dispositivos como el Amazon Echo para los hogares. “Hace 5 años, si habláramos de esto, todos creerían que el celular sería la interfaz para todo” dice Alan Black, un maestro de ciencias computacionales del departamento de tecnologías del lenguaje en la universidad Carnegie Mellon.

Pero este no es el caso. Google quiere toda su interfaz intangible te siga a donde vayas, lo que requiere que lo tengas en tu bolsa, carro, cocina, etc., para que así esta tecnología pueda aprender todo sobre ti y darte una experiencia realmente personalizada. Hasta ahora, Google había dependido del hardware de compañías como Samsung, HTC y Motorola para utilizar su software.

Ahora, para poder distribuir masivamente su Inteligencia Artificial invisible, Google tiene que hacer sus propios productos. Dos de ellos son especialmente importantes: Pixel, que para muchos es una copia del iPhone (se los prometemos, no lo es) y Home, que tiene un ligero parecido a un refrescador de aire de Glade. Estos portales al asistente de google son atractivos, pero nada espectacular. “No hay nada muy disruptivo en ellos. El celular es simplemente una pieza de aluminio”, dice Mark Hung, un analista de tecnología en la firma de investigación Gartner. “Lo que realmente importa es que tienes la capacidad de usarlos naturalmente con una interfaz conversacional, como si estuvieras hablando con un humano”.

Estos dispositivos, en otras palabras, existen simplemente como vehículos para la Inteligencia Artificial de google. Rick Osterloh, jefe del departamento de nuevo Hardware en Google dice que Google decidió construir su propio Hardware para que la compañía pudiera “lograr sus metas sin preocuparse mucho de la tecnología que fuera necesaria”. En este caso “lograr sus metas” se refiere a ofrecer una experiencia enriquecedora de Inteligencia Artificial, algo para lo que Google ha pasado la mayor parte de su existencia preparándose.

Considera el banco de información de Google, llamado “Knowledge Graph”, que ha estado mejorando tus búsquedas en google desde el 2012. Hoy, contiene más de 70 billones de datos. El asistente de google tendrá acceso instantáneo a toda esta red de información y la interfaz conversacional va a mejorar cada día mientras observa y aprende de ti.

Esto explica por qué Google sugiere poner un “Home” en cada cuarto. “La manera de poner la inteligencia artificial frente a ti, es traerla al mundo fisico como Hardware”, dice Jon Mann, un diseñador de interacciones en Artefact. “Necesitas los puntos de acceso para que se sienta que realmente te sigue”. El día de hoy, tu punto de acceso principal probablemente es tu celular, y tu casa es uno de los únicos lugares en los que puedes no tenerlo contigo. Si Google logra convencerte de que distribuyas puntos de acceso alrededor de tu hogar, te puede entrenar a que llames al Asistente cuando necesites, para lo que necesites, en donde lo necesites.

Hacer que los usuarios usen interacciones intencionadas es clave para que la inteligencia artificial funcione. Por ejemplo, esta interacción típica con Spotify: Prende tu celular, abre Spotify, pulsa en buscar, escribe lo que quieres oír. Si estas escuchando en tu celular, ya terminaste. Cualquier cosa extra toma más trabajo. “Si quiero transmitir mi música a las bocinas de mi sala, eso toma múltiples pasos, y tengo que descubrir cuáles son los puntos de acceso de la aplicación” dice Mann. El asistente de Google podrá hacer todo esto con un simple comando, todo lo que tienes que decir es, “Reproduce la última cancion de The Weeknd, y el asistente reproducirá la música por medio de las bocinas que usas más comúnmente”.

Aquí es donde el modelo “Omnipresente” de google se pone interesante. Entre más puntos de acceso te rodeen, más aprenderá de ti el asistente. No solamente como pides ayuda, sino en donde y en que contexto. “Si Google logra ejecutar bien esto, realmente sería algo revolucionario” dice Hung. Google ya esta considerando como interactuar contigo de la mejor manera; Si dices una pregunta en tu casa, y varios puntos de acceso te escuchan, el más cercano a ti te dará la respuesta.

Esto, el Asistente de Google que toma su poder de los grandes avances de inteligencia artificial desarrollados por google, es la verdadera innovación en todo esto. Muchos podrán pensar “Pero esto ya existe en los iPhones y otros andoids por medio de Siri y Google now”, pero seamos honestos, ¿cuando fue la ultima vez que utilizaste a siri para algo más que pedirle que haga una llamada? Las tecnologías de interfaz conversacional que existían antes del Google asistant no son realmente controladas por inteligencia artificial, y no han logrado que nosotros, los usuarios, nos acostumbremos a interactuar conversacionalmente con nuestros dispositivos. Google, este martes, abrió una ventana a lo que es el futuro de la interacción humano-maquina.