A GlobalFoundries, uma empresa que fabrica chips para terceiros, incluindo AMD e General Motors, anunciou anteriormente uma parceria com a Lightmatter. Harris diz que sua empresa está “trabalhando com as maiores empresas de semicondutores do mundo, bem como com hiperscaladores”, referindo-se às maiores empresas de nuvem como Microsoft, Amazon e Google.
Se a Lightmatter ou outra empresa conseguir reinventar a fiação de projetos gigantes de IA, um gargalo importante no desenvolvimento de algoritmos mais inteligentes poderá desaparecer. O uso de mais computação foi fundamental para os avanços que levaram ao ChatGPT, e muitos pesquisadores de IA veem o aumento da escala do hardware como sendo crucial para avanços futuros no campo – e para a esperança de algum dia alcançar o objetivo vagamente especificado de artificial. inteligência geral, ou AGI, significando programas que podem igualar ou exceder a inteligência biológica em todos os sentidos.
Conectar um milhão de chips à luz pode permitir algoritmos várias gerações além da tecnologia de ponta atual, diz o CEO da Lightmatter, Nick Harris. “O Passage permitirá algoritmos AGI”, sugere ele com segurança.
Os grandes data centers necessários para treinar algoritmos gigantes de IA normalmente consistem em racks cheios de dezenas de milhares de computadores que executam chips de silício especializados e um espaguete de conexões principalmente elétricas entre eles. Manter treinamentos para IA em tantos sistemas – todos conectados por fios e switches – é um enorme empreendimento de engenharia. A conversão entre sinais eletrônicos e ópticos também impõe limites fundamentais à capacidade dos chips de executar cálculos como um só.
A abordagem da Lightmatter foi projetada para simplificar o tráfego complicado dentro dos data centers de IA. “Normalmente você tem um monte de GPUs, e depois uma camada de switches, e uma camada de switches, e uma camada de switches, e você tem que atravessar essa árvore” para se comunicar entre duas GPUs, diz Harris. Em um data center conectado pela Passage, diz Harris, cada GPU teria uma conexão de alta velocidade com todos os outros chips.
O trabalho da Lightmatter no Passage é um exemplo de como o recente florescimento da IA inspirou empresas grandes e pequenas a tentar reinventar hardwares importantes por trás de avanços como o ChatGPT da OpenAI. A Nvidia, fornecedora líder de GPUs para projetos de IA, realizou sua conferência anual no mês passado, onde o CEO Jensen Huang revelou o mais recente chip da empresa para treinamento de IA: uma GPU chamada Blackwell. A Nvidia venderá a GPU em um “superchip” composto por duas GPUs Blackwell e um processador CPU convencional, todos conectados usando a nova tecnologia de comunicação de alta velocidade da empresa chamada NVLink-C2C.
A indústria de chips é famosa por encontrar maneiras de extrair mais poder de computação dos chips sem torná-los maiores, mas a Nvidia optou por contrariar essa tendência. As GPUs Blackwell dentro do superchip da empresa são duas vezes mais poderosas que seus antecessores, mas são feitas aparafusando dois chips, o que significa que consomem muito mais energia. Essa compensação, além dos esforços da Nvidia para unir seus chips com links de alta velocidade, sugere que atualizações para outros componentes-chave para supercomputadores de IA, como o proposto pela Lightmatter, poderiam se tornar mais importantes.