O mais recente chip de IA da Microsoft pode superar o domínio da Nvidia?
| DOURADOS AGORA/REDAçãO
A Microsoft acaba de dar um grande passo no mundo da inteligência artificial (IA) ao introduzir um novo chip de IA chamado Azure Maia. Esse movimento é um divisor de águas para a Microsoft, pois significa que agora ela pode usar sua própria tecnologia em vez de depender da Nvidia, um nome bem conhecido em chips de IA.
Entendendo o que tudo isso significa. Recentemente, a Microsoft revelou o Azure Maia, um chip que foi projetado para lidar com algumas tarefas de IA realmente difíceis. Essas tarefas incluem coisas como treinar a IA para entender e usar a linguagem e responder a perguntas complexas. Até agora, a Microsoft dependia da Nvidia, especialmente de sua poderosa GPU H100, para essas tarefas.
Mas o Azure Maia é ainda mais impressionante – ele é fabricado usando um processo de ponta de 5 nanômetros e possui impressionantes 105 bilhões de transistores. Para comparação, o H100 da Nvidia tem 80 bilhões de transistores. Normalmente, mais transistores significam maior potência e velocidade, o que pode ser um divisor de águas na indústria, levando muitos a investir em ações dentro do setor de tecnologia.
A Microsoft planeja começar a usar o Azure Maia em seus data centers no início do próximo ano. Inicialmente, ele estará alimentando grandes serviços como o Bing, o Microsoft 365 e os serviços do Azure OpenAI. Isso é muito importante, pois mostra que a Microsoft está realmente se empenhando na IA e quer tornar seus serviços mais inteligentes e rápidos.
Mas o problema é o seguinte: a Microsoft ainda não compartilhou a velocidade ou a potência desse novo chip. Eles disseram que darão mais detalhes e números de desempenho quando o Azure Maia estiver funcionando. Além desse chip de IA, eles também estão lançando um processador de uso geral chamado Azure Cobalt. Esse processador é baseado em um projeto da Arm, outra grande empresa do mundo da tecnologia.
É importante observar que a Microsoft não é a única a fazer isso. A nuvem do Google tem seu próprio chip de IA chamado TPU, e a Amazon Web Services tem algo chamado Trainium. Portanto, é como uma corrida no mundo da tecnologia para ver quem consegue criar os melhores chips de IA.
Mas o que isso significa para a Nvidia, a empresa que costumava fornecer chips de IA para a Microsoft? Bem, ela ainda é um grande negócio em IA. Sua GPU H100 está em alta demanda e custa cerca de US$ 25.000 cada. Ela é popular porque é poderosa e os desenvolvedores estão acostumados a trabalhar com o software da Nvidia, o CUDA.
O CUDA é como um kit de ferramentas que torna a criação de aplicativos de IA mais fácil e rápida, e existe há mais de dez anos. Portanto, a Nvidia tem uma forte base de apoio no mundo da IA.
No entanto, a Nvidia não está de braços cruzados. Recentemente, a empresa anunciou sua nova GPU H200 Tensor Core, que, segundo ela, é até 90% mais rápida que a H100. Essa nova GPU estará disponível no segundo trimestre de 2024.
A Microsoft está lançando seu próprio chip de IA, o Azure Maia, e isso é muito importante. É como se eles estivessem dizendo: “Ei, nós mesmos podemos fazer isso e talvez até melhor!” Esse chip está configurado para tornar os serviços de IA da Microsoft, como o Bing e o Microsoft 365, mais rápidos e inteligentes. É um movimento ousado, mostrando que eles não estão apenas seguindo a multidão, mas liderando o caminho na tecnologia de IA.
E não se esqueça de que a Nvidia, a principal opção para as necessidades de IA da Microsoft, não está apenas observando de fora. Ela ainda é uma potência em IA com sua nova GPU H200 no horizonte, prometendo ainda mais velocidade e potência.
No mundo da tecnologia, isso é como uma corrida amigável em que todos estão tentando superar uns aos outros com chips de IA melhores e mais rápidos. Empresas como Microsoft, Google, Amazon e Nvidia estão avançando, tornando a IA mais rápida e mais poderosa. É um momento empolgante para a tecnologia, e é provável que todos vejam alguns desenvolvimentos muito legais em IA e computação em nuvem no futuro próximo.