NVIDIA acaba de presentar microservicios de producción para NVIDIA Avatar Cloud Engine (ACE) que permiten a los desarrolladores de juegos, herramientas y middleware integrar modelos de IA generativa de última generación en los avatares digitales de sus juegos y aplicaciones.
Los nuevos microservicios ACE permiten a los desarrolladores crear avatares interactivos utilizando modelos de IA como NVIDIA Audio2Face (A2F), que crea animaciones faciales expresivas a partir de fuentes de audio, y NVIDIA Riva Automatic Speech Recognition (ASR), para crear aplicaciones personalizables de habla y traducción multilingüe utilizando IA generativa .
Entre los desarrolladores que han adoptado ACE se encuentran Charisma.AI, Convai, Inworld, miHoYo, NetEase Games, Ourpalm, Tencent, Ubisoft y UneeQ.
«Las tecnologías de IA generativa están transformando prácticamente todo lo que hacemos, y eso también incluye la creación de juegos y la jugabilidad», afirma Keita Iida, vicepresidente de relaciones con los desarrolladores en NVIDIA. «NVIDIA ACE abre nuevas posibilidades a los desarrolladores de juegos al poblar sus mundos con personajes digitales realistas y eliminar la necesidad de diálogos preestablecidos, lo que proporciona una mayor inmersión en el juego.»
Los principales desarrolladores de juegos y avatares interactivos adoptan NVIDIA ACE
Los principales desarrolladores de juegos y avatares interactivos son pioneros en el uso de ACE y las tecnologías de IA generativa para transformar las interacciones entre jugadores y personajes no jugables (PNJ) en juegos y aplicaciones.
«Según Tencent Games, «Este es un momento clave para la IA en los juegos. «NVIDIA ACE y Tencent Games ayudarán a sentar las bases que llevarán a los videojuegos avatares digitales con personalidades e interacciones individuales y realistas».
NVIDIA ACE da vida a los personajes de los juegos
Históricamente, los PNJ se han diseñado con respuestas y animaciones faciales predeterminadas. Esto limitaba las interacciones con los jugadores, que tendían a ser transaccionales, de corta duración y, como resultado, omitidas por la mayoría de los jugadores.
En palabras de Purnendu Mukherjee, fundador y consejero delegado de Convai: «Los personajes generativos impulsados por IA en mundos virtuales desbloquean varios casos de uso y experiencias que antes eran imposibles». «Convai está aprovechando Riva ASR y A2F para permitir NPCs realistas con tiempos de respuesta de baja latencia y animación natural de alta fidelidad».
Para mostrar cómo ACE puede transformar las interacciones de los NPC, NVIDIA ha trabajado con Convai para ampliar la demo NVIDIA Kairos, que debutó en Computex, con una serie de nuevas funciones y la inclusión de microservicios ACE.
En la última versión de Kairos, Riva ASR y A2F se utilizan ampliamente, mejorando la interactividad de los PNJ. El nuevo marco de Convai permite ahora a los PNJ conversar entre ellos y les da conocimiento de los objetos, lo que les permite recoger y entregar objetos en las zonas deseadas. Además, los PNJ pueden guiar a los jugadores hacia objetivos y atravesar mundos.
Los microservicios Audio2Face y Riva Automatic Speech Recognition ya están disponibles. Los desarrolladores de avatares interactivos pueden incorporar los modelos individualmente a sus procesos de desarrollo.