2024-10-07
한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina
it house berichtete am 7. oktober, dass es sich bei nvidia ace (avatar cloud engine) um eine reihe von technologien handelt, die entwicklern dabei helfen können, generative ki zu nutzen, um lebensechte virtuelle digitale charaktere zu erstellen. mit der unterstützung von ace können gewöhnliche nicht-spieler-charaktere (npcs) in dynamische interaktive charaktere verwandelt werden, die gespräche initiieren oder spieler bei der suche nach neuen aufgaben unterstützen können.
auf dem seattle unreal festival 2024 veröffentlichte nvidia ein neues geräteseitiges unreal engine 5-plug-in für nvidia ace, das es entwicklern erleichtert, ki-gesteuerte metahuman-charaktere auf windows-pcs zu erstellen und bereitzustellen.
laut it house kann ein plug-in namens audio2face-3d basierend auf audioeingaben in echtzeit eine präzise lippensynchronisation und gesichtsausdrücke erzeugen, wodurch die mimik digitaler menschen natürlicher und lebendiger wird.
erwähnenswert ist, dass die ace-technologie nicht nur realistische gesichtsanimationen generiert, sondern auch über leistungsstarke fähigkeiten zum kontextverständnis verfügt. mit der retrieval augmented generation (rag)-technologie sind digitale menschen in der lage, basierend auf gesprächsverlauf und kontext natürlicher und logischer zu reagieren.
diese integration mit unreal engine 5 ermöglicht es entwicklern, die ace-technologie einfacher auf die spieleentwicklung anzuwenden. nvidia stellt außerdem beispielprojekte zur verfügung, um entwicklern eine klare anleitung zu geben, die ihnen den schnellen einstieg erleichtert.