cerca CERCA
Mercoledì 26 Giugno 2024
Aggiornato: 21:25
10 ultim'ora BREAKING NEWS

Computex 2024

Nvidia presenta la nuova frontiera degli esseri umani digitali

Gli avatar sono progettati per interagire con gli utenti in modo molto simile agli esseri umani reali, utilizzando il riconoscimento vocale, l'animazione facciale e persino gesti corporei

Nvidia presenta la nuova frontiera degli esseri umani digitali
03 giugno 2024 | 15.27
LETTURA: 2 minuti

Nvidia ha annunciato la disponibilità dei suoi microservizi di intelligenza artificiale generativa, Nvidia Ace, destinati ad accelerare la prossima ondata di esseri umani digitali. Queste tecnologie stanno già trasformando settori come il servizio clienti, il gaming e l'assistenza sanitaria, semplificando la creazione, l'animazione e la gestione di avatar digitali realistici per un'interazione più naturale e coinvolgente. Gli esseri umani digitali sono rappresentazioni virtuali altamente realistiche di persone, create attraverso tecnologie avanzate di intelligenza artificiale e grafica. Questi avatar sono progettati per interagire con gli utenti in modo molto simile agli esseri umani reali, utilizzando il riconoscimento vocale, l'animazione facciale e persino gesti corporei per rendere le conversazioni e le interazioni più immersive e naturali. Grazie a Nvidia Ace, queste interazioni diventano ancora più sofisticate, avvicinandoci a un futuro in cui interagire con i computer sarà naturale come parlare con una persona.

Nvidia Ace include diverse tecnologie avanzate che lavorano insieme per creare questi esseri umani digitali. Ad esempio, Nvidia Riva fornisce riconoscimento automatico del parlato, conversione testo-parlato e traduzione automatica neurale. Queste funzionalità permettono agli avatar di comprendere e rispondere alle richieste vocali in modo preciso e contestuale. Nvidia Nemotron, un modello di linguaggio avanzato, contribuisce alla comprensione del linguaggio e alla generazione di risposte appropriate, migliorando ulteriormente l'interazione. Un altro elemento chiave è Nvidia Audio2Face, che consente l'animazione facciale realistica basata su tracce audio. Questo significa che gli avatar possono esprimere emozioni e rispondere visivamente alle conversazioni, rendendo l'interazione più vivida e autentica. Inoltre, Nvidia Omniverse RTX permette di simulare pelle e capelli realistici in tempo reale, migliorando ulteriormente l'aspetto degli avatar.

Nvidia ha anche introdotto nuove tecnologie come Audio2Gesture, che genera gesti corporei basati su tracce audio, e Nemotron-3 4.5B, un modello linguistico di piccole dimensioni progettato per l'inferenza IA su dispositivi RTX con bassa latenza. Jensen Huang, fondatore e CEO di Nvidia, ha dichiarato: "Gli esseri umani digitali rivoluzioneranno le industrie. I progressi nei modelli di linguaggio multimodali e nella grafica neurale, forniti da Nvidia Ace al nostro ecosistema di sviluppatori, ci avvicinano a un futuro di computazione basata sulle intenzioni, dove interagire con i computer sarà naturale come interagire con gli esseri umani". In precedenza, Nvidia ha fornito Ace come microservizi NIM per i data center. Ora, sta espandendo questa offerta con Ace PC NIM per l'implementazione su una base installata di 100 milioni di PC e laptop RTX AI. Questa espansione include il modello Nemotron-3 4.5B, progettato per funzionare su dispositivi con livelli di precisione simili ai grandi modelli di linguaggio eseguiti nel cloud.


Riproduzione riservata
© Copyright Adnkronos
Tag
Vedi anche


SEGUICI SUI SOCIAL



threads whatsapp linkedin twitter youtube facebook instagram
ora in
Prima pagina
articoli
in Evidenza