OFI.com
El E-commerce para las empresas

Amazon Chips AI Para Alexa

Es posible que Amazon esté desarrollando chips de inteligencia artificial para Alexa.

The Information reportó que Amazon está trabajando en la construcción de chips I.A. para el dispositivo Echo, lo cual permitirá que Alexa analice información y obtenga respuestas más rápidamente.

Conseguir respuestas del usuario de una manera mucho más rápida, aunque sólo sea por unos cuantos segundos, podría parecer algo de poca importancia, pero para Amazon, una compañía que confía en capturar el interés del usuario en un momento crítico para ejecutar una venta, bajar ese tiempo de respuesta tan cerca cómo se pueda a cero parece ser lo suficientemente importante para dar la idea de que Amazon puede darte la respuesta que necesitas de manera inmediata; especialmente, si es un producto que probablemente comprarás en el futuro.  Amazon, Google y Apple se encuentran en el punto en el que los usuarios esperan tecnología que funcione lo haga rápidamente, y es probable que no sean tan indulgentes como lo son con otras compañías que dependen de problemas como el reconocimiento de imagen (como Pinterest, por ejemplo).

El tipo de hardware en el Echo probablemente estará dirigido hacia la deducción, tomando la información de entrada (como el habla) y ejecutando un montón de cálculos con muchísima rapidez para hacer que la información recibida adquiera sentido.  A menudo, muchos de estos problemas están basados en la raíz de un problema bastante simple y que pertenece a un área de las matemáticas llamada álgebra lineal; sin embargo, requiere de un número de cálculos bastante grande, y una buena experiencia de usuario exige que éstos se realicen rápidamente. La promesa de crear chips personalizados que funcionen muy bien para esta labor es que tú podrás realizarlo más rápido y con menor potencia, aunque existen muchos otros problemas que podrían surgir. Actualmente, hay un gran número de experimentos en marcha que buscan maneras de lidiar con esto, sin embargo, no está muy claro cuál será el resultado final del producto (en este punto, la mayoría está preautorizado).

De hecho, esto tiene mucho sentido si simplemente observamos lo que ya está en el mercado. Apple diseñó para el iPhone un GPU del cliente, y añadir este tipo de procesos de reconocimiento del habla al teléfono ayudará a que las expresiones recibidas sean analizadas más rápidamente, asumiendo que los modelos sean buenos y que formen parte del dispositivo. Las preguntas complejas -el tipo de oraciones larguísimas que dirías en la aplicación Hound sin motivo alguno- definitivamente necesitarán una conexión con la nube para guiarse a través de toda la estructura de la oración con el fin de determinar qué tipo de información realmente quiere esta persona. Pero pese a esto, mientras la tecnología mejore y se fortalezca, es posible que están preguntas sean más fáciles y rápidas.

El reporte de The Information también sugirió que es posible que Amazon esté trabajando en chips I.A. para AWS, lo cual estaría dirigido hacia al acondicionamiento de máquinas. Aunque en teoría esto no tenga sentido, no estoy 100% seguro de que sea una jugada que Amazon apoye por completo. Mi instinto me dice que el gran número de compañías que se están deshaciendo de AWS no necesitan un hardware de última tecnología para el entrenamiento de máquinas, y que estarán bien con los modelos de entrenamiento unas cuantas veces a la semana o al mes y aún así conseguirán los resultados que necesitan. Probablemente esto se podría realizar con una tarjeta Nvidia mucho más barata y no tendrían que lidiar con la resolución de los problemas que implica un hardware, como la disipación del calor. Dicho esto, e incluso aunque no se obtenga nada de ello, tiene sentido aventurarse un poco en esta área dado el interés que muestran otras compañías.

Amazon se negó a hacer comentarios sobre el tema. Mientras tanto, esto parece ser algo a lo que se debe prestar mucha atención, pues todos parecen estar tratando de adueñarse de la interfaz de voz para los dispositivos inteligentes -ya sea en casa, o en el caso de AirPods, incluso en tus oídos-. De hecho, gracias a los avances en el reconocimiento de habla, la voz resultó ser la verdadera interfaz para la tecnología, tal y como esperaban las industrias. Solamente nos llevó un poco llegar a este punto.

Existen un gran número de experimentos en desarrollo en esta área (experimentado con los patrones) cuya promesa es crear una nueva generación hardware que pueda manejar los problemas I.A. más rápido y con mayor eficiencia sin consumir tanta energía, o incluso con un menor espacio. Compañías como Graphcore y Cerebras Systems se ubican a lo largo del mundo, y tienen una valoración cercana al billón de dólares. Muchas personas en la industria se refieren a esta explosión como Calcular 2.0., por lo menos si evoluciona como los inversores esperan que lo haga.

 

Leave A Reply

Your email address will not be published.