Per decenni, l’econometria classica è stata una guida per governi, banche centrali e imprese che devono basare le loro decisioni sulle previsioni economiche. Questa scienza basava le sue elaborazioni su una premessa in apparenza logica: l’evoluzione futura segue gli schemi del passato, cioè in pratica lo sviluppo futuro segue un trend lineare come continuazione del passato. Questo modello è quindi rappresentabile con un insieme di relazioni matematiche stabili che riflettono il comportamento aggregato degli agenti economici.
Ma questa logica fallisce drammaticamente quando avvenimenti non prevedibili mutano totalmente lo scenario economico. In questo caso i modelli econometrici tradizionali non sono più in grado di fare previsioni affidabili perché all’improvviso lo scenario futuro muta radicalmente rispetto ai modelli del passato. Una situazione che si è già verificata più volte, ma che nel modo di oggi è quasi una realtà quotidiana. È come cercare di prevedere il traffico di domani basandosi solo sui dati di ieri: funziona se niente cambia, ma fallisce se c’è uno sciopero dei trasporti o un corteo o evento grave.
La deglobalizzazione, il rapido sviluppo tecnologico e i conflitti internazionali internazionale hanno creato un contesto economico profondamente instabile, dove le vecchie certezze non valgono più. Con un termine matematico possiamo dire che siamo in un punto di rottura. Così come sono stati proprio dei punti di rottura gli anni ’70 e il 1992, quando le regole del gioco economico sono cambiate improvvisamente.
Ricordiamo la crisi petrolifera degli anni Settanta, quando lo shock dei prezzi del greggio sconvolse tutte le previsioni economiche dell’epoca. I modelli tradizionali, calibrati su decenni di stabilità energetica, si rivelarono completamente inadeguati di fronte a un cambiamento così radicale. Allo stesso modo, la crisi monetaria europea del 1992, con il crollo della sterlina britannica e la speculazione contro la lira italiana, colse di sorpresa gli economisti che avevano costruito i loro modelli sull’assunto di cambi stabili garantiti dagli accordi europei.
In entrambi i casi, il metodo classico ha mostrato il suo tallone d’Achille: la consuetudine di prevedere il futuro solo come evoluzione lineare del passato. Quando eventi particolari o rotture sistemiche cambiano radicalmente lo scenario, questi modelli non solo perdono precisione, ma possono generare errori clamorosi, che portano a decisioni politiche ed economiche disastrose.
Dal metodo deduttivo a quello induttivo
Questi errori pericolosi rendono necessario trovare nuove soluzioni che possano dare risposte attendibili a tutte le organizzazioni che hanno bisogno di pianificare su basi attendibili.
Il passaggio dall’econometria classica all’Intelligenza Artificiale rappresenta un vero e proprio cambio di paradigma. Mentre l’approccio tradizionale parte dalla teoria per poi testarla sui dati seguendo un modello deduttivo, l’Intelligenza Artificiale crea schemi direttamente dai dati, seguendo un approccio induttivo. Non ha bisogno di una teoria economica predefinita: l’algoritmo AI esamina i dati e definisce la funzione che minimizza l’errore predittivo, anche se questa funzione è non lineare e spesso molto complessa.
Questa differenza è fondamentale. L’econometria tradizionale si basa sulla semplicità e garantisce l’interpretabilità dei risultati: ogni coefficiente deve avere un significato economico chiaro, ogni relazione deve poter essere spiegata in termini teorici. Al contrario l’AI si basa sulla complessità per massimizzare la precisione. Un modello è valido se prevede con accuratezza eventi futuri anche su dati mai visti prima, anche se la teoria non è comprensibile.
La matematica della complessità
La differenza tecnica tra i due approcci è evidente in particolare nel modo con cui gestiscono le relazioni tra variabili. L’econometria classica presuppone la linearità: se aumenti una variabile di un’unità, l’effetto sulla variabile dipendente rimane costante, come una linea retta su un grafico. Questo rende i calcoli semplici e i risultati facilmente spiegabili. Ma la realtà economica è raramente così lineare. Strumenti come le reti neurali o i modelli di machine learning catturano invece soglie, interazioni complesse e rendimenti marginali variabili.
Consideriamo ad esempio l’effetto dell’istruzione sullo stipendio: in un modello lineare, l’impatto di un master viene trattato come una costante addizionale. In un modello di Intelligenza Artificiale, l’algoritmo può scoprire che l’effetto di un master è praticamente nullo in assenza di esperienza lavorativa, ma diventa significativo quando combinato con specifiche competenze tecniche. Queste interazioni non lineari riflettono molto più fedelmente la complessità del mondo reale.
Le reti neurali raggiungono questo risultato attraverso meccanismi sofisticati che le distaccano nettamente dalla matematica lineare. Ogni neurone applica funzioni di attivazione che permettono al modello di attivarsi solo dopo determinate soglie, imitando fenomeni economici reali come il punto di pareggio, dove i profitti non aumentano finché non si coprono i costi fissi.
Inoltre le reti neurali identificano automaticamente le interazioni tra variabili attraverso la struttura a strati senza bisogno che queste siano specificate manualmente: ogni strato successivo combina le informazioni dello strato precedente, creando concetti sempre più astratti e complessi che la matematica lineare non potrebbe descrivere senza un lavoro analitico enorme.
Perché l’AI sta prevalendo
L’Intelligenza Artificiale non sostituisce l’econometria ovunque, ma domina in ambiti specifici per ragioni ben precise.
Innanzitutto, c’è una differenza di obiettivo: l’econometria classica mira a capire il “perché” di un fenomeno economico, mentre l’Intelligenza Artificiale punta a predire “cosa” accadrà.
In secondo luogo, i due approcci lavorano con dati molto diversi. L’econometria tradizionale gestisce campioni piccoli e strutturati, mentre il machine learning opera con i Big Data: non solo dati economici tradizionali, ma anche testi, immagini, post sui social, ricerche su Google, ecc. Milioni di righe di informazioni provenienti da fonti eterogenee, inclusi i dati sul sentiment, cioè l’umore e le opinioni espresse da consumatori e investitori online che influenzano le decisioni economiche.
La flessibilità rappresenta un altro elemento cruciale. L’econometria classica è rigida, vincolata da assunzioni forti che devono essere rispettate affinché i risultati siano validi. L’Intelligenza Artificiale, invece, si adatta ai dati, modificando la propria struttura interna per catturare ogni sfumatura delle informazioni disponibili.
Infine, c’è la questione dei costi e dei tempi. L’econometria accademica tradizionale comporta un approccio burocratico con necessità di referenze e con lunghi processi di validazione. Un modello strutturale classico può richiedere mesi per essere sviluppato e giustificato. L’Intelligenza Artificiale, pur richiedendo una notevole potenza di calcolo, ha cicli di sviluppo molto più rapidi: un modello predittivo può essere pronto in poche settimane.
È ormai evidente la validità dei metodi di Intelligenza Artificiale per migliorare le previsioni econometriche. L’approccio ingegneristico dell’IA, meno vincolato alla teoria astratta e più orientato all’efficacia pratica, si sta rivelando particolarmente adatto a un mondo caratterizzato da discontinuità e cambiamenti rapidi. In questo contesto, la validazione empirica del modello attraverso la sua capacità di prevedere accuratamente dati mai visti diventa più importante della giustificazione teorica di ogni singola variabile.
Non si tratta di abbandonare completamente l’econometria classica, che conserva un valore inestimabile per comprendere i meccanismi causali profondi dell’economia. Si tratta piuttosto di riconoscere che in un mondo sempre più complesso, volatile e ricco di dati, abbiamo bisogno di strumenti più sofisticati e adattabili. L’Intelligenza Artificiale offre questi strumenti, permettendoci di navigare l’incertezza con maggiore sicurezza, anche quando il futuro rifiuta ostinatamente di assomigliare al passato.
Il prezzo dell’efficacia: la scatola nera
Tuttavia, questa efficienza nell’arrivare a risultati migliori ha un prezzo: il grande vantaggio dell’econometria classica resta l’interpretabilità. Quando una banca centrale decide di alzare i tassi d’interesse, deve poter spiegare il perché di quella scelta usando coefficienti chiari e relazioni trasparenti. L’Intelligenza Artificiale può prevedere con notevole precisione che ci sarà inflazione, ma spesso non è in grado di spiegare il meccanismo economico sottostante. È come una “scatola nera”: un sistema che funziona bene, ma di cui non comprendiamo appieno i processi interni.
Questo limite ha spinto allo sviluppo di un nuovo approccio ibrido: l’econometria del machine learning. Questa disciplina emergente cerca di unire il meglio dei due mondi, utilizzando algoritmi di Intelligenza Artificiale per stimare con maggiore precisione gli effetti causali, mantenendo però un’attenzione alla possibilità di interpretare e spiegare i risultati. È un approccio pragmatico, che riconosce sia i limiti dei modelli tradizionali sia i rischi di affidarsi ciecamente a sistemi opachi.
