Hot!

Cómo Google está impulsando a la IA del mundo


Después de ayudar a definir la era moderna de internet con Search y Android, Google ya está a la vanguardia de la próxima ola en investigación y desarrollo informático: AI. Muchos consideran que la inteligencia artificial y las computadoras de redes neuronales son el siguiente paso en la informática, lo que permite nuevos casos de uso y un cálculo más rápido para resolver problemas que actualmente no se pueden resolver. El gigante de las búsquedas, que ahora se autodenomina " AI primero ", ha liderado la adopción de estas nuevas tecnologías de varias maneras.

Los algoritmos de redes neuronales y el aprendizaje automático ya están en el corazón de muchos de los servicios de Google. Filtran el correo no deseado en Gmail, optimizan la publicidad dirigida y analizan su voz cuando habla con el Asistente de Google o con su Altavoz. Dentro de los teléfonos inteligentes, ideas como Google Lens y Bixby de Samsung muestran el poder del procesamiento de la visión "AI". Incluso empresas como Spotify y Netflix están utilizando los servidores de nube de Google para adaptar el contenido a sus usuarios.

La plataforma en la nube de Google está en el centro de sus esfuerzos (y los de terceros) para utilizar esta área de informática cada vez más popular. Sin embargo, este nuevo campo requiere nuevos tipos de hardware para funcionar de manera eficiente, y Google ha invertido mucho en su propio hardware de procesamiento, que llama una unidad de procesamiento de tensor de nube (Cloud TPU). Este hardware personalizado está empaquetado en los servidores de Google y ya impulsa el ecosistema de AI actual y en expansión. pero como funciona?


TPU vs CPU: buscando una mejor eficiencia
Google reveló su TPU de segunda generación  en Google I / O a principios de este año, ofreciendo un mayor rendimiento y una mejor escala para clusters más grandes. El TPU es un circuito integrado específico de la aplicación. Es un silicio personalizado diseñado específicamente para un caso de uso particular, en lugar de una unidad de procesamiento general como una CPU. La unidad está diseñada para manejar cálculos comunes de aprendizaje automático y redes neuronales para entrenamiento e inferencia; específicamente transformaciones de multiplicación de matriz, producto de punto y cuantificación, que generalmente tienen solo 8 bits de precisión.

Si bien este tipo de cálculos se pueden realizar en una CPU y, a veces, incluso de manera más eficiente en una GPU, estas arquitecturas están limitadas en términos de rendimiento y eficiencia energética cuando se escala a través de los tipos de operación. Por ejemplo , los diseños optimizados de multiplicación de enteros IEEE 754 de 8 bits pueden tener hasta 5.5X más de energía y 6 veces más eficiencia de área que los diseños optimizados de coma flotante de 16 bits. También son 18.5 veces más eficientes en términos de energía y 27 veces más pequeños en términos de área que la multiplicación FP de 32 bits. IEEE 754 es el estándar técnico para cálculos de coma flotante utilizados en todas las CPU modernas.

0 comentarios:

Publicar un comentario