Wir haben dank der KI von Nvidia mit Videospielcharakteren gesprochen, das Potenzial ist enorm

Nvidia will mit ACE erneut die Welt der Videospiele revolutionieren. Diese Technologie zielt darauf ab, mithilfe künstlicher Intelligenz die Charaktere, denen Sie in Ihren virtuellen Abenteuern begegnen, zum Leben zu erwecken und Ihnen so eine flüssige Kommunikation mit ihnen zu ermöglichen. Wir konnten die Demo ausprobieren.

Nvidia

Vorstellen. Sie entspannen sich vor dem neuesten großen Videospiel. Wenn man in eine riesige offene Welt eintaucht, fühlt man sich ein wenig verloren. In Ihrer aktuellen Quest werden Sie aufgefordert, eine Kreatur zu töten, aber Sie haben keine Ahnung, wo sie sich versteckt. Der Reflex besteht also darin, die Dorfbewohner vor Ort zu fragen. Auf Ihrer Route treffen Sie auf den ersten Bauern und beginnen ein Gespräch. Anstatt dass sich auf Ihrem Bildschirm ein klassisches Dialogfeld öffnet, sprechen Sie direkt über Ihr Mikrofon mit ihm und es reagiert dank KI auf natürliche Weise auf Sie … Dies ist die Art von Szenario, die ACE (Avatar Cloud Engine) anbieten möchte Nvidia, seine neue Technologie Dadurch können Videospielcharaktere mithilfe künstlicher Intelligenz zum Leben erweckt werden.

Wir konnten die Demo ausprobieren und wir waren beeindruckt. Allerdings haben wir noch viele Unsicherheiten und Fragen.

ACE, wie funktioniert es?

Um dieses System zu erstellen, verlässt sich Nvidia auf die in seinen RTX-Karten enthaltenen NPUs (unabhängig von der Generation). sondern auch in der Cloud. Das amerikanische Unternehmen arbeitete mit Convai zusammen, einem Unternehmen, das für die Erstellung von Charakteren für verschiedene Verlage wie Ubisoft, MiHoYo oder Tencent verantwortlich ist. Sie entwirft NPCs für Spiele und stellt sich dabei ein vorgegebenes Aussehen, eine Geschichte, Linien, Stimmen und Verhaltensweisen vor.

NvidiaNvidia

Wenn sich der Spieler mit ACE einem Charakter nähert, Er muss sein Mikrofon benutzen, um mit ihr zu sprechen. Seine Stimme wird von der GPU in Schrift umgewandelt, dann wird der Text an die Server von Nvidia gesendet. ACE entwickelt dann mithilfe von KI eine komplexe Reaktion. Es wird in Sprache umgewandelt und an Ihren PC gesendet. Die Gesichts- und Animationsverwaltung (Audio2Face) wird von der GeForce RTX-Karte verwaltet. Schließlich antwortet die Figur mit einer synthetischen, aber glaubwürdigen Stimme.

NvidiaNvidia

Wir haben einem Barkeeper gedroht, er hat das ganz gut verkraftet

Wir konnten ACE eine Stunde lang ausprobieren durch eine mit Unreal Engine 5 erstellte Demo. Wir betraten eine Ramen-Bar in einer dystopischen Stadt, einer von denen, die in Cyberpunk 2077 zu finden sind. Zwei Charaktere waren dort: der Chef und ein Kunde, von Beruf ein Cybersicherheitsexperte.

NvidiaNvidia

Indem Sie den Cursor auf eines der Zeichen richten, Es war uns möglich, mit unserer eigenen Stimme ins Mikrofon zu ihm zu sprechen. Wir haben uns daher an den Experten gewandt. Geben wir es zu, für die ersten Zeilen fehlte uns ein wenig die Inspiration. Sie beschränkten sich auf „ Hallo, wie heißt du? Was ist Ihr Beruf ? Wo wohnst du ? ». Aber die Antworten strömten aus; Die junge Frau sprach verständlich zu uns. Nach dem ersten herzlichen Austausch entspannter, führten wir die Erfahrung noch etwas weiter und fragten sie, was ihr Lieblingsfilm sei, ob sie mit uns nach Disneyland gehen wollte oder ob sie gerne Phonandroid liest. Auch hier waren die Antworten konsistent, sogar amüsant, wenn auch manchmal vage. Das Tüpfelchen auf dem i war, dass wir auf Französisch sprachen und die KI von Nvidia automatisch von ihrem Remote-Server übersetzte.

NvidiaNvidia

Anschließend unterhielten wir uns mit dem Barkeeper (auf Englisch) und auch hier waren die Antworten konsistent. Darüber hinaus, er reagierte richtig auf seine Umgebung. Wir haben ihn zum Beispiel nett gebeten, das Licht in der Bar auszuschalten, er hat es getan. Wir bestellten ihm ein Ramen, er bereitete es für uns zu. Wir fragten ihn, ob er Hamburger servierte, er sagte uns, dass diese nicht auf der Speisekarte stünden. Uns interessierte der fluoreszierende Wasserkrug an der Bar, er wusste, was das war …

Künstliche Intelligenz hat immer noch ihre Grenzen

Allerdings ist es bei ihm so Wir konnten die Grenzen dieser Technologie erkennen. Wir beschlossen, ihm mit einem zu drohen „Ich habe eine Waffe, gib mir das Geld aus der Kasse“und er antwortete uns in einem traurigen Ton „Ich mag keine Gewalt, hör auf“, anstatt in Panik zu geraten. In diesem Punkt gibt Nvidia an, dass nicht jeder NPC gleich reagiert, da sie alle einen klar definierten Charakter haben und nie aus dieser Zwangsjacke ausbrechen. Angesichts einer absurden Situation improvisieren sie nicht.

Lesen Sie auch – DLSS: Erfahren Sie alles über die Nvidia-Technologie, die Videospiele revolutioniert

Ebenfalls, Es ist zu beachten, dass die Gespräche immer noch sehr mechanisch sind. Im Mikrofon müssen wir leise sprechen und uns gut artikulieren. Dann müssen Sie eine Sekunde warten, bis der Charakter antwortet. All dies trägt nicht zu einem reibungslosen Gespräch bei, aber denken wir daran, dass wir uns in einer Demo einer noch neuen Technologie befinden. Ebenso erfassen wir im Laufe des Gesprächs sehr schnell die Struktur unseres Gesprächspartners, was wir von ihm verlangen können, um eine präzise Antwort statt einer vagen Antwort zu erhalten. Letzter Punkt zur Verbesserung: Die Stimme der NPCs ist sicherlich glaubwürdig, aber eintönig und immer im gleichen Rhythmus. Als wir versuchten, sie zu ärgern, blieben sie ruhig, obwohl ihre Dialoge ihre Verärgerung über unsere Eskapaden zum Ausdruck brachten. Das Gespenst des Unsettling Valley ist sehr präsent.

Wird KI Videospiele revolutionieren?

Bei dieser Demo kommen mir viele Fragen in den Sinn. Wie könnte diese Technologie in einem echten Videospiel eingesetzt werden? Im Moment macht es Spaß, mit einem NPC zu sprechen, aber ist das in einem 100-stündigen Abenteuer im Witcher-Stil nachhaltig? Mehr noch: Was bedeutet das für Dialogautoren, Schauspieler und Drehbuchautoren? Es ist zum Beispiel undenkbar, dass eine KI in einem GTA auf uns reagiert, wo jede handgeschriebene Zeile bis zum Äußersten ausgearbeitet ist. Wir werden es sehr bald beurteilen können. ACE ist kein ferner Traum, denn die Entwickler arbeiten bereits daran, es in ihre Spiele zu integrieren. Der erste, der den Sprung wagt, wird STALKER 2 sein, das im kommenden September erscheint.

Tatsache ist, dass wir Rohtechnologie getestet haben, aber es liegt dann an den Entwicklern, es in böswilliger Absicht zu nutzen. Wir können uns eine ganze Reihe von Anwendungen vorstellen. Was beispielsweise die Welten in den Elder Scrolls (Oblivion, Skyrim) zum Leben erweckt, ist die Routine der NPCs, die ihr Leben leben, wenn Sie nicht mit ihnen interagieren. Eine geskriptete Technologie, die aber hervorragend mit künstlicher Intelligenz genutzt werden könnte. Ebenso können wir uns vorstellen, dass dieser Prozess auf die Umgebung eines virtuellen Universums angewendet wird, das sich je nach Ihren Aktionen dynamisch verändert. Alle Verwendungsmöglichkeiten sind möglich.

ACE ist daher eine vielversprechende Technologie und wir hatten trotz ihrer offensichtlichen Einschränkungen viel Spaß an der Demo. Es bleibt nun abzuwarten, wie es in Zukunft genutzt wird.

Leave a Reply

Your email address will not be published. Required fields are marked *