há aproximadamente um ano e meio, a startup de controle quântico quantum machines e a gigante da tecnologia nvidia anunciaram uma parceria significativa cuja intenção era unir a plataforma de computação quântica dgx quantum da nvidia com o avançado hardware de controle quântico da quantum machines. na época, os detalhes sobre os progressos dessa colaboração eram escassos, mas recentemente, os resultados começaram a surgir, levando a indústria de computação quântica um passo mais próximo do tão almejado computador quântico com correção de erros. em uma apresentação realizada este ano, as duas empresas demonstraram que, utilizando um modelo de aprendizado por reforço disponível comercialmente e executado na plataforma dgx da nvidia, conseguiram otimizar o controle dos qubits em um chip quântico da rigetti, mantendo o sistema calibrado de maneira eficiente.
yonatan cohen, cofundador e diretor de tecnologia da quantum machines, destacou que a meta da empresa sempre foi utilizar motores computacionais clássicos para controlar processadores quânticos. até então, esses motores eram pequenos e limitados, mas a poderosa plataforma dgx da nvidia mudou esse cenário, permitindo avanços significativos. cohen reafirmou que o objetivo último é executar a correção de erros quânticos, embora a equipe ainda não tenha atingido esse estágio. a colaboração, no entanto, concentrou-se na calibração, um aspecto crucial para o funcionamento eficiente de processadores quânticos, especificamente na calibração dos chamados “pulsos π” que controlam a rotação de um qubit dentro de um processador quântico.
a princípio, pode parecer que a calibração é um problema que pode ser resolvido uma única vez, ajustando o processador antes de executar um algoritmo. no entanto, a realidade é bem mais complexa. “se examinarmos o desempenho dos computadores quânticos atualmente, podemos observar uma alta fidelidade”, afirmou cohen. “mas, na prática, os usuários geralmente não operam o computador na melhor fidelidade, pois há uma constante deriva”. ele enfatizou que, se for possível recalibrar o sistema com frequência utilizando técnicas modernas e hardware sofisticado, será possível melhorar o desempenho e manter a fidelidade em níveis altos por períodos prolongados, algo essencial na correção de erros quânticos.
ajustar continuamente esses pulsos em tempo quase real representa uma tarefa extremamente exigente em termos computacionais. uma vez que cada sistema quântico apresenta pequenas variações, esse é um desafio que pode ser abordado com a ajuda do aprendizado por reforço. sam stanwyck, gerente de produtos da nvidia para computação quântica, abordou essa questão ao afirmar que, à medida que os computadores quânticos evoluem e se escalonam, surgem problemas que se tornam gargalos, exigindo alta capacidade computacional. a correção de erros quânticos é um dos maiores desafios nesse contexto e é vital para desbloquear a computação quântica tolerante a falhas. stanwyck enfatizou que não havia sistema anterior à dgx quantum que pudesse oferecer a latência mínima necessária para realizar esses cálculos de forma eficiente.
os resultados iniciais desta colaboração revelaram que mesmo pequenas melhorias na calibração podem proporcionar aumentos exponenciais na correção de erros. “o retorno sobre o investimento em calibração dentro do contexto da correção de erros quânticos é exponencial”, comentou ramon szmuk, gerente de produtos da quantum machines. “se você melhorar a calibração em 10%, isso resulta em um desempenho de erro lógico exponencialmente melhor em qubits lógicos compostos por múltiplos qubits físicos”. essa perspectiva fornece uma enorme motivação para que se priorize uma calibração eficiente e rápida.
vale ressaltar que esse é apenas o início de um processo de otimização e colaboração. o que a equipe realizou foi a simples aplicação de algoritmos disponíveis comercialmente para determinar qual apresentava o melhor desempenho (neste caso, o td3). ao todo, o código realmente utilizado na execução do experimento consistia em apenas cerca de 150 linhas. é importante mencionar que isso depende de todo o trabalho realizado pelas duas equipes para integrar os diversos sistemas e construir a pilha de software necessária. para os desenvolvedores, essa complexidade pode ser disfarçada, e as duas empresas preveem a criação de cada vez mais bibliotecas de código aberto ao longo do tempo, permitindo a exploração desse amplo conjunto de ferramentas.
szmuk também ressaltou que, para este projeto, a equipe trabalhou apenas com um circuito quântico básico, mas que essa abordagem pode ser generalizada para circuitos mais complexos. se é possível realizar esse processo com um único portão e um qubit, ele é igualmente aplicável a um sistema mais abrangente com cem qubits e mil portões. “considero que o resultado individual foi um pequeno passo, mas um passo significativo na direção da solução dos problemas mais relevantes da computação quântica”, complementou stanwyck. “a computação quântica útil exigirá a integração estreita da supercomputação acelerada — um dos maiores desafios de engenharia. assim, ser capaz de realizar isso em um computador quântico e ajustar um pulso de forma que não seja apenas otimizado para um computador quântico pequeno, mas sim em uma plataforma escalável e modular, nos coloca realmente no caminho de resolver algumas das questões mais importantes da computação quântica.”
finalizando, stanwyck confirmou que as duas empresas pretendem continuar essa colaboração e disponibilizar essas ferramentas a um número crescente de pesquisadores. com a chegada dos chips blackwell da nvidia no próximo ano, eles terão uma plataforma computacional ainda mais poderosa para desenvolver esses avanços na tecnologia.