A Razer apresentou sua visão para o futuro do desenvolvimento de jogos durante o evento GDC Festival of Gaming, com a apresentação intitulada “Future of Play”. O destaque da conferência foi a introdução de uma nova infraestrutura tecnológica baseada em inteligência artificial, que conecta software, hardware e experiências imersivas em um ecossistema unificado para desenvolvedores.
Segundo dados apresentados pela empresa, o mercado global de games deve alcançar US$ 206,5 bilhões até 2028, com quase quatro bilhões de jogadores em todo o mundo. Nesse cenário, a Razer aposta na inteligência artificial como uma ferramenta para acelerar o desenvolvimento de jogos sem comprometer a qualidade.
Durante a apresentação, a empresa revelou três novas soluções principais: Razer AVA, Razer QA Companion-AI e Razer Adaptive Immersive Experience.
O primeiro destaque foi o Razer AVA, um assistente baseado em IA que evoluiu do antigo Project AVA apresentado em 2025. A nova versão utiliza agentes inteligentes capazes de transformar a intenção do usuário em fluxos de trabalho automatizados, conectando diferentes aplicativos, serviços e dispositivos.
Com o sistema Razer Inference Control Plane, o assistente consegue distribuir tarefas entre modelos de IA executados localmente ou na nuvem, reduzindo latência e melhorando o desempenho em operações complexas. O AVA também poderá integrar serviços de terceiros e até coordenar tarefas entre diferentes usuários.
Outra tecnologia apresentada foi o Razer QA Companion-AI, uma solução voltada para automação de testes e garantia de qualidade no desenvolvimento de jogos. A ferramenta agora conta com detecção de bugs baseada em visão computacional, capaz de analisar vídeos de gameplay para identificar problemas gráficos, físicos ou de animação.
Além disso, o sistema pode gerar casos de teste automaticamente a partir de documentos de design ou prompts de desenvolvedores, reduzindo significativamente o tempo necessário para validação de builds. A ferramenta também dispensa integração complexa, funcionando sem necessidade de SDKs ou alterações no código.
O terceiro destaque da apresentação foi o Razer Adaptive Immersive Experience, um sistema multissensorial que combina háptica adaptativa, iluminação dinâmica e áudio espacial em tempo real.
A tecnologia faz parte do ecossistema WYVRN da Razer e utiliza recursos como Razer Sensa HD Haptics, Razer Chroma RGB e THX Spatial Audio+ para criar experiências imersivas sincronizadas com o gameplay.
Entre os recursos está o Dynamic Haptics, que converte automaticamente o áudio do jogo em feedback tátil, criando respostas físicas que acompanham eventos e ambientes dentro da experiência.
De acordo com Quyen Quach, vice-presidente de software da Razer, o objetivo da empresa é garantir que a inteligência artificial amplie a criatividade dos desenvolvedores, em vez de substituí-la.
Com essas novas ferramentas, a Razer busca construir uma infraestrutura completa que conecta hardware, software e serviços, permitindo que estúdios criem experiências mais ricas e acelerem seus fluxos de desenvolvimento.
O sistema Razer AVA já está com inscrições abertas para testes beta no Razer Cortex, enquanto o Razer Adaptive Immersive Experience terá seu lançamento realizado em fases ao longo de 2026.
