Non serve un potenziamento futuristico perché l’intelligenza artificiale modifichi profondamente l’economia: i modelli esistenti e quelli più economici e performanti in fase di sviluppo stanno per mutare quasi tutti i segmenti del mercato del lavoro. Le loro sorprendenti capacità su testo, immagini e video minacciano i professionisti creativi—scrittori, progettisti, fotografi, architetti, animatori e pubblicitari—e i lavoratori che usano fogli di calcolo—analisti finanziari, consulenti, contabili e preparatori fiscali. Persino i settori più protetti come legge, medicina e università sono vulnerabili: l’AI può analizzare grandi quantità di informazioni e offrire consigli o percorsi formativi a costi ridotti, con un livello che sta rapidamente colmando il divario con gli esperti tradizionali.
Non mancano dubbi sulla potenza futura di questi sistemi e sui tempi di sviluppo. Dario Amodei di Anthropic e Sam Altman di OpenAI indicano che un’intelligenza artificiale generale (AGI) potrebbe arrivare in appena uno o due anni. Yann LeCun di Meta rimane scettico, sostenendo che gli algoritmi attuali non dispongono di comprensione fisica di base, memoria durevole, ragionamento coerente né lungimiranza strategica. Un recente studio di Apple ha mostrato che le prestazioni odierne restano nei limiti dei dati usati per l’addestramento. Pur se l’innovazione si fermasse da domani, la trasformazione è già in corso.
I leader aziendali hanno ora la responsabilità di prevedere come l’automazione ridisegnerà le loro attività. Serve individuare i compiti destinati a essere rimpiazzati e mettere a punto una roadmap per trasferire l’impresa verso offerte e processi con maggior valore intellettuale prima che i tempi stringano.
Università e imprese dibattono da tempo su quali ruoli siano a più alto rischio. Alcuni casi sono lampanti: i veicoli a guida autonoma potranno presto sostituire milioni di autisti di taxi, autobus e camion. Nel frattempo, la traduzione automatica, buona parte della scrittura creativa, il design grafico e perfino attività di codifica standard vengono già svolti da sistemi intelligenti.
In febbraio Anthropic ha pubblicato dati d’uso sorprendenti: sebbene l’interfaccia a chat sia stata pensata per affiancare l’utente, circa il 43% delle operazioni consiste nel chiedere direttamente all’AI di portare a termine un compito, anziché ricevere un supporto analitico. Questo peso crescerà con l’arrivo di agenti modulari in grado di scambiarsi dati e coordinarsi secondo protocolli come MCP. I settori regolamentati o sorvegliati da sensori—leggi, vincoli fiscali, compliance e flussi di dati—sono i primi candidati all’adozione completa di macchine.
Nel 2018 Ajay Agrawal, Joshua Gans e Avi Goldfarb hanno illustrato che, man mano che l’AI progredisce, l’ultimo baluardo di vantaggio umano sarà il giudizio: la capacità di valutare alternative e decidere sotto incertezza. Quel concetto però pone un rompicapo: come isolare con precisione cosa si intende per giudizio in ogni contesto?
Attività oggi legate al giudizio umano—selezionare un protocollo terapeutico, esaminare un contratto legale o scrivere una sceneggiatura che colga lo spirito di un’epoca—potrebbero passare a macchine che sfruttano dataset sempre più ricchi e potenza di calcolo superiore. Non è escluso che molti utenti prediligano un consulente digitale: lavora 24 ore su 24 a costi contenuti e, salvo rare eccezioni, assicura un’esecuzione uniforme. Per distinguere i compiti destinati all’automazione immediata da quelli che richiedono progressi futuri bisogna ripartire dalle radici della disciplina.
Negli anni 2000 Fei-Fei Li individuò un collo di bottiglia nella visione artificiale: gli algoritmi restavano “affamati” di pixel, poiché disponevano di troppe poche immagini per competere con le performance umane. La sua risposta fu diretta: fondò ImageNet, un archivio gigantesco di immagini etichettate grazie al lavoro di Amazon Mechanical Turk. Il vero colpo di scena arrivò nel 2010, quando abbinò al database una classifica pubblica, trasformando il campo in una vera arena di confronto tra ricercatori.
Per due anni i progressi furono lenti. Poi, nel 2012, Alex Krizhevsky, Ilya Sutskever e Geoffrey Hinton spiazzarono la concorrenza: con appena due schede NVIDIA GTX 580, il loro team di Toronto addestrò una rete neurale convoluzionale in pochi giorni, dimostrando che bastavano risorse contenute per determinare un cambiamento epocale nella visione artificiale.
Quel risultato interruppe un lungo periodo di stallo nel settore, posizionò le reti neurali al centro del progresso e rivelò un modello tuttora seguito: raccogliere dati rilevanti—nel caso di ImageNet oltre quattordici milioni di immagini—utilizzare metriche per misurare i risultati e infine nutrire il sistema con dati e capacità di calcolo fino all’apprendimento autonomo.
Il metodo si applica ogni volta che si possono a) definire l’ambiente di apprendimento e raccogliere il materiale necessario—testi, immagini e video, migliaia di chilometri di guida o flussi sensoriali; b) fissare un obiettivo misurabile, esplicito (“il modello è riuscito a prevedere la parola successiva?”) o implicito (estratto osservando il comportamento umano); c) fornire potenza di calcolo per allenamenti rapidi.
Combinando questi tre ingredienti si ottiene un motore di automazione universale. Due tendenze alimentano la spirale: i modelli possono creare infiniti esempi sintetici—come “miglia di guida” virtuali per scenari rari—e l’AI è ormai incorporata in telefoni, veicoli e altri dispositivi, svolgendo il ruolo di sensore intelligente a basso costo.
Quando un fenomeno si traduce in numeri, l’AI lo assimila e lo ripropone su vasta scala, mentre la tecnologia abbassa costantemente il prezzo di questa conversione. La misurazione diventa più rapida, discreta e onnipresente. Di conseguenza ogni compito quantificabile si trasforma in potenziale candidato all’automazione.
Lo studio di Zvi Griliches del 1957 sui semi ibridi rappresenta una chiave interpretativa: inizialmente i coltivatori usarono i semi costosi solo nei terreni migliori, dove il maggior raccolto giustificava i costi. Con il progredire della tecnologia, l’adozione si estese anche alle parcelle meno redditizie. Con l’AI avviene qualcosa di simile: quando convertire la realtà in dati è oneroso, si punta ai casi più profittevoli—contrasto alle frodi, trading algoritmico, manutenzione predittiva—finché la riduzione dei costi rende vantaggiosa la copertura di ogni attività.
Abbattendo le barriere di misurazione, l’AI impone rilevazioni sempre più dettagliate: modelli leggeri corrono accanto ai sensori, riducono latenza e carico di rete, e i dati sintetici colmano le lacune quando le condizioni reali sono difficili da registrare. Ogni frazione di errore eliminata si somma in milioni di decisioni, trasformando in risorsa margini apparentemente minuscoli.
Non solo disporremo di intelligenza a basso costo, ma estenderemo la misurazione a parti sempre più vaste della realtà, espandendo e aggiornando continuamente ciò che l’AI può coprire. Siamo immersi in un’epoca di “intelligenza basata su metriche artificiali”, dove ogni elemento quantificabile finisce in lista d’attesa per l’automazione.
Restano aree inespugnabili per ora: catturare un’immagine di un buco nero con il telescopio Event Horizon, esplorare la fisica alle scale più estreme, sondare il mantello terrestre profondo, gli abissi oceanici o i processi cellulari nel cervello. Privacy, etica e normative frenano la raccolta dati, e occorre trasparenza sul ragionamento prima di affidarsi a un modello. In aggiunta molti utenti continuano a ricercare il contatto con un professionista in carne e ossa.
Si apre poi il dominio dell’incertezza knightiana, dove non esistono probabilità definite: far decollare una startup, investire in progetti altamente speculativi, contenere un patogeno emergente, stabilire politiche monetarie durante una svolta normativa, elaborare codici etici per l’AI, inventare un nuovo linguaggio artistico, lanciare un trend moda o realizzare un film in grado di fondere generi in modo dirompente. In questi scenari serve l’originalità del pensiero umano per costruire ipotesi senza precedenti.
Il panorama è in continuo mutamento: compiti escono dall’elenco non appena diventano misurabili, e ne emergono di nuovi a ritmo serrato. Ogni trasformazione scatena tensioni sociali ed economiche, concentrando ricchezze e reputazione tra pochi protagonisti. Eppure l’AI porta un doppio vantaggio: democratizza l’apprendimento e agisce da mentore privato, offrendo più strumenti a chi aspira alle cime. I ruoli professionali evolveranno costantemente e qualsiasi metodo che renda l’ignoto misurabile si diffonderà alla velocità di un meme.
I manager che guidano le loro organizzazioni devono guardare oltre i fogli di calcolo: sviluppare competenze non riconducibili a un numero, affrontare problemi inediti e valorizzare elementi intangibili—fiducia, senso estetico, sfumature dell’esperienza—e conservare la determinazione di proseguire anche quando ogni metrica ordina di “attendere”. Occuparsi solo di ciò che si può quantificare significa cedere terreno a chi punta su ciò che sfugge a ogni modello.
Amar Bose, ingegnere e fondatore della Bose Corporation, lo dimostrò con chiarezza: mentre gli altri si concentravano sui valori di targa, lui studiava come la musica risuonasse in ambienti reali, un aspetto invisibile alle statistiche, e riscrisse le regole dell’industria audio.
Il suggerimento è questo: sostenere iniziative dall’esito incerto, premiare team capaci di ripensare le sfide e affrontare l’ignoto, spostare talenti in ruoli a elevata incertezza—tra ricerca, nuovi mercati e rapporti complessi con clienti, partner e regolatori. Serve programmare spazi di autonomia creativa e momenti di incontro tra gruppi per far scoccare intuizioni inattese. Quella zona di ambiguità volontaria non è un peso da sopportare, ma un punto di forza strategico. Solo chi saprà equilibrare l’attenzione a ciò che si può misurare—e, ancor più cruciale, a ciò che resta fuori dai numeri—sarà pronto a cogliere per tempo il prossimo cambiamento.