Durante un'apparizione nel podcast di Lex Fridman, Jensen Huang ha sorpreso la comunità tecnologica con un'affermazione dirompente: secondo lui, l'intelligenza artificiale generale (AGI) è già stata raggiunta. Le sei parole del numero uno di NVIDIA hanno fatto il giro dei circoli tech in poche ore, generando discussioni accese su cosa significhi veramente aver toccato questa pietra miliare da tempo annunciata come imminente.

Ma il capolavoro della contraddizione arriva pochi minuti dopo nello stesso episodio. Quando Fridman gli chiede se l'AGI rappresenti un sistema capace di svolgere il nostro lavoro—incluso fondare, sviluppare e gestire un'azienda tecnologica dal valore miliardario—Huang fa marcia indietro. La possibilità che centomila agenti artificiali intelligenti potessero costruire NVIDIA è, a sua detta, esattamente dello zero percento. Una dichiarazione che pone un interrogativo inquietante: se l'intelligenza artificiale non riuscisse a replicare ciò che fa un capo azienda ai vertici di una multinazionale, in quale senso potremmo affermare di aver raggiunto l'AGI?

Durante la conversazione, Huang esamina i progressi concreti nel settore degli agenti autonomi, citando OpenClaw e il suo improvviso successo virale. L'utilizzo di questi strumenti da parte degli utenti si moltiplicherebbe, sostiene, e non esclude che qualcuno possa sviluppare un influencer sintetico, un'esperienza social interattiva o perfino un'evoluzione digitale del Tamagotchi che conquisti il mercato di massa. Tuttavia, aggiunge con realismo, molti di questi esperimenti hanno vita breve: gli utenti li provano con entusiasmo iniziale, ma gradualmente perdono interesse.

Il nodo centrale della questione riguarda l'assenza di consenso su cosa sia davvero l'AGI. Il termine rimane vago, indicando genericamente un'intelligenza artificiale equiparabile o superiore a quella umana, una definizione così ampia da risultare praticamente inutile. Può un sistema che supera gli esami di medicina essere considerato AGI? E un'IA capace di scrivere codice al livello di uno sviluppatore junior? O addirittura un modello incapace di contare le lettere di una parola? La comunità tech non ha trovato una risposta univoca.

Recentemente, i principali protagonisti del settore hanno tentato di marcare le distanze dal termine AGI, coniando definizioni alternative che ritengono meno inflazionate, sebbene il significato sostanziale rimanga invariato. La questione non è puramente semantica: il contratto tra OpenAI e Microsoft include clausole contrattuali esplicite legate al conseguimento dell'AGI, con importi considerevoli in gioco. Quando il vertice dell'azienda che fornisce i chip su cui funziona praticamente tutta l'infrastruttura mondiale dell'intelligenza artificiale afferma il raggiungimento dell'AGI, i mercati finanziari reagiscono. Tuttavia, dichiarazioni autocontraddittorie come quella di Huang sollevano dubbi legittimi sulla fondatezza di simili proclami.