Le verità sfuggenti dell'econometria
di Lucio Picci
Kéiron, settembre 2000.
Nel 1931 fu fondata l’Econometric Society, ed ebbe ufficialmente inizio uno dei programmi scientifici più avvincenti del secolo che si è chiuso: quello dell’econometria, il cui obiettivo, nelle parole di Ragnar Frisch, doveva essere “l’avanzamento della teoria economica nelle sue relazioni con la statistica e con la matematica”1.
Da allora, l’econometria si è guadagnata un ruolo di rilievo nell’accademia, al punto che nei curricula di economia negli Stati Uniti essa, con macroeconomia e microeconomia, costituisce una delle tre aree del sapere trasmesso nei primi due anni di corsi. Parte importante di una tale fortuna è dovuta alla collocazione ottenuta dalla disciplina econometrica, nel passaggio obbligato che vi è tra le teorie, sviluppate deduttivamente a partire da assunzioni di tipo assiomatico, e la loro credibilità scientifica, che deriva in buona misura dalla possibilità di verificarle empiricamente.
Ragnar Frisch sosteneva che uno dei tratti essenziali del programma di ricerca econometrico avrebbe dovuto essere l’unificazione tra l’elaborazione teorica, l’approccio matematico e l’analisi dei dati. Oggi la teoria economica è in gran parte espressa in forma matematica, ma l'econometria è solo in parte responsabile di questo risultato. Inoltre, l’obiettivo di unificazione tra elaborazione teorica e analisi empirica in qualche misura è uscito dalla visuale del progetto di ricerca econometrico, nel momento in cui esso si è candidato, con successo, a fungere da strumento per la verifica empirica delle teorie, che sono prodotte in modo tendenzialmente indipendente. Per questo, si può affermare che la disciplina econometrica abbia ottenuto il suo status al costo di abbandonare, almeno in parte, i propositi dei suoi padri fondatori (o di alcuni di essi). Contemporaneamente, è proprio una tale virata, verso il tema della valutazione della congreunza tra la teoria e i fatti, un problema non certo specifico alla disciplina economica, che ha reso l'ambito di interesse dell'econometria più ampio, e i suoi risultati metodologici di interesse generale.
L’analisi dei dati “non va mai fatta per la prima volta”
Sul successo di un tale programma di ricerca vi sarebbe da dubitare, se si prendono in considerazione alcuni titoli di contributi metodologici di noti studiosi. “Togliamo l’imbroglio dall’econometria”, gridava l’econometrico Edward Leamer nel 1978, lamentando che “le stime econometriche sono come le salsicce: è meglio non assistere alla loro preparazione”. Due anni dopo, l’econometrico David Hendry si domandava se l’econometria fosse scienza o, piuttosto, alchimia. Più recentemente, Lawrence Summers lamentava una “illusione scientifica nella macroeconomia empirica”2.
Questi autorevoli dubbi, per di più provenienti dall’interno della disciplina, valgono ad indicare che la risposta econometrica al problema empirico è difficoltosa. Al contempo, la quantità e la qualità delle energie che sono state impiegate nel progetto di ricerca econometrico è tale da permettere una congettura: è il problema generale dell'analisi dei dati ad essere irto di ostacoli. Se si escludono casi particolari in cui la complessità è limitata, come quelli dei più semplici esempi di fisica riportati nei libri di testo, l’analisi dei dati è questione sempre problematica. Lungi dal rappresentare una comoda risposta a disposizione dell’economista in cerca di rispettabilità scientifica per le sue teorie, l’analisi empirica ha una natura quasi sfuggente, e un carattere ambiguo innervato da infinite sottigliezze. Alchimia o arte, l’analisi dei dati è sicuramente questione talmente delicata e complessa che, come dicono gli econometrici “non dovrebbe esser mai fatta per la prima volta”.
Le dubbie implicazioni economiche delle macchie solari
Appurato che gli econometrici, se non altro, non difettano di autoironia, è utile ripercorrere alcune tappe della storia dell’econometria che corrispondono alla comprensione di alcuni problemi generali dell’analisi empirica. Si tratta di sviluppi che in parte antecedono la data di nascita formale della disciplina econometrica e che comprendono, tra gli altri, gli studi di tipo statistico che, a partire dalla fine del diciannovesimo secolo, avevano tentato di valutare in termini quantitativi le caratteristiche e le periodicità del ciclo economico3. Anni difficili per la ricerca statistica empirica, vincolata sia dalla scarsità dei dati – basti pensare che i sistemi di contabilità nazionale furono sviluppati a partire dagli anni trenta – sia dall’assenza di strumenti di calcolo elettronici.
Le difficoltà erano aggravate dallo stato ancora immaturo della teoria statistica, all’interno della quale una serie di temi essenziali per la costruzione della teoria econometrica moderna non erano ancora sufficientemente sviluppati. Tra questi, l’interpretazione da assegnare all’analisi di correlazione, sviluppata verso la fine del diciannovesimo secolo in ambito biometrico da Francis Galton e da Karl Pearson e presto adottata dagli economisti. Vi era ancora confusione tra il concetto di associazione tra due variabili, come misurato, per esempio, dal coefficiente di correlazione, e la presenza di un rapporto di causalità tra l’una e l’altra variabile; per esempio, si tendeva a ritenere che una correlazione elevata indicasse le presenza di un rapporto di causalità4.
Vittima di questa situazione, oltre che di una ostinazione che rasentò la patologia e che si guadagnò la derisione da parte di molti colleghi, fu William Stanley Jevons che, negli anni ’70 e ’80 del diciannovesimo secolo, spese una parte considerevole della sua reputazione scientifica propugnando una sua teoria sulla dipendenza del ciclo economico dal ciclo di undici anni delle macchie solari, tramite una loro presunta influenza sulle condizioni metereologiche e sulla produzione agricola. Il metodo adottato da Jevons per l’analisi dell’evidenza empirica era prevalentemente grafico, nel tentativo di scoprire una coincidenza tra gli andamenti del ciclo economico e le oscillazioni cicliche dell’attività solare.
Jevons non fu del resto l’unico a intrattenere convinzioni bizzarre sulla natura delle oscillazioni economiche; basti ricordare Henry Ludwell Moore e la sua teoria secondo la quale il ciclo economico era conseguenza non delle macchie solari, ma delle posizioni orbitali del pianeta Venere. Interferendo con l’irradiazione solare, Venere avrebbe provocato una “ionizzazione negativa”, causa di cicli dell’attività piovosa e, conseguentemente, della produzione agricola.
Per quanto queste teorie possano ricordare qualche copione di B-movie della fantascienza degli anni ’50, esse avevano una ragione d'essere, e un punto in comune, nel tentare di individuare, per il fenomeno del ciclo economico, una regione esterna al sistema economico stesso, in un'epoca in cui non esistevano possibilità teoriche concrete di elaborare una teoria del ciclo economico endogena al sistema. Sbaglieremmo a liquidare quel tentativo con un sorriso di sufficienza: si trattò di un programma di ricerca a suo modo rispettoso dell’onorato principio della parsimonia. Era molto più semplice ricercare per l'esistenza del ciclo dei motivi, per quanto improbabili, all’esterno del sistema economico, piuttosto che elaborare una teoria che trovasse le ragioni del ciclo all'interno del sistema economico stesso, per la quale non esistevano ancora i presupposti teorici. Il principio di parsimonia si applica sempre ad opzioni teoriche concretamente disponibili: nel caso di Jevons e di Moore, esso non fu di aiuto alla sensatezza dell’analisi empirica.
Un cavalluccio a dondolo
Furono necessari alcuni decenni perché le opzioni teoriche si ampliassero al punto da permettere una spiegazione del ciclo economico che fosse interna al sistema. Questi sviluppi, ad opera principalmente di Ragnar Frisch, Jan Tinbergen e Trygve Haavelmo a cavallo tra gli anni ’30 e ’40, fornirono alla neonata econometria moderna un apparato concettuale matematico e statistico potente e in grado di segnarne lo sviluppo per i decenni a seguire.
Riassumiamone brevemente le caratteristiche. Frisch, nel 1933, introdusse il cosiddetto modello del "cavalluccio a dondolo"5. Si trattava di un semplice modello matematico del ciclo economico, in cui le variabili economiche rilevanti erano determinate in modo dinamico, vale a dire anche dai valori passati di altre variabili, e da uno "shock" esterno. Questi shock esterni, o impulsi, erano casuali, e costituivano la vera novità introdotta da Frisch: la loro azione casuale, applicata a un modello dinamico, risultava in un andamento ciclico dell'attività economica. Come nel caso di un cavalluccio a dondolo che, se colpito da un bastone, inizia a oscillare in modo molto diverso rispetto al movimento del bastone stesso.
Se il contributo di Frisch permise di spiegare il ciclo in termini delle caratteristiche interne al sistema, fu Jan Tinbergen, nel corso degli anni '30, ad applicare queste idee alla costruzione di modelli econometrici dell'economia olandese prima, e americana poi6. Haavelmo, in seguito, completò questo apparato concettuale, introducendo il concetto che divenne noto con il nome di "distribuzione di Haavelmo", la legge della probabilità congiunta dei dati osservati, che permise, tra l'altro, di realizzare una coerente verifica empirica delle teorie economiche inglobate nel modello.
Negli stessi anni si determinarono alcune delle caratteristiche metodologiche dell'econometria destinate a rimanere nel tempo. Essendo l'economia una scienza per lo più non sperimentale, il concetto di "esperimento naturale" permise di identificare uno dei compiti principali della ricerca empirica: individuare quelle situazioni in cui variazioni accidentali, decise dalla natura, permettono di identificare un esperimento idoneo a verificare empiricamente una certa teoria. Contemporaneamente, si comprese meglio come determinate tecniche statistiche, a iniziare dall'analisi di regressione multipla, servissero per "depurare" una relazione di interesse dagli effetti di altre variabili rilevanti all'interno della relazione stessa, ma non di immediato interesse7.
La conquista della luna e della piena occupazione.
Questi ed altri contributi tra gli anni '30 e gli anni '40 posero le basi per la successiva crescita della disciplina econometrica nel corso degli anni '50 e '60. La disponibilità dei calcolatori elettronici, a partire dagli anni '50, aprì una nuova frontiera di applicazione alle tecniche econometriche, ora in grado di costruire modelli empirici statistico-matematico dei sistemi economici non più limitati a poche equazioni, ma comprendenti centinaia e talvolta migliaia di equazioni, empiricamente determinate, ciascuna rappresentante un aspetto della vita economica, tutte insieme a descrivere l'intera economia.
Le possibilità, del resto, erano state evidenziate già da Tinbergen nel 1937. Disponendo di un sistema matematico dinamico in grado di rappresentare il sistema economico, era possibile non soltanto verificare statisticamente la validità delle teorie economiche ma anche, una volta scelto il modello, utilizzarlo per prevedere l'andamento futuro delle variabili di interesse, e per valutare l'impatto sulle stesse di diverse opzioni di politica economica.
Negli anni '60, la disponibilità dei calcolatori elettronici permise di sfruttare queste possibilità, e di condurre esercizi di "controllo ottimo", tesi a stimare il valore delle variabili di politica economica - come la quantità di moneta e le aliquote fiscali - tali da ottimizzare una funzione di "benessere sociale", determinata positivamente, per esempio, dal tasso di crescita economico, e negativamente dalla disoccupazione e dall'inflazione.
Nello stesso decennio era in corso il progetto Apollo. In un discorso memorabile per visione e per l'impatto che ebbe, il 25 maggio 1961 il presidente degli Stati Uniti John Kennedy chiese al Congresso e al suo paese la disponibilità a realizzare un ingente piano di investimenti con l'obiettivo di portare, entro la fine del decennio, un uomo sulla luna. L'obiettivo fu raggiunto nel luglio del 1969. La realizzazione del progetto Apollo dipese dalla disponibilità di calcolatori elettronici in grado di risolvere i complessi problemi di ottimizzazione della rotta del missile, calcolandone, in ogni momento, gli aggiustamenti più opportuni. Si trattava di decidere le manovre degli astronauti, utilizzando un modello derivato dalle leggi della fisica, in modo da ottimizzare una "funzione obiettivo" in cui comparivano, per esempio, il carico utile, che doveva essere adeguato al trasporto della navicella con il suo equipaggio, e il tempo di viaggio, dal quale dipendeva l'ammontare delle provviste necessarie.
Nei medesimi anni, scienziati di astronautica e di econometria utilizzavano gli stessi calcolatori elettronici, modelli di derivazione ugualmente scientifica, e tecniche di ottimizzazione concettualmente analoghe, per due missioni così apparentemente diverse: Regolare nel migliore dei modi il viaggio di un missile per portarlo con sicurezza sulla luna, e indietro, e calibrare, con altrettanta attenzione e sicurezza ingegneristica, i retrorazzi della politica economica verso quel sentiero virtuoso di sviluppo e di piena occupazione a cui miravano, fiduciose, le socialdemocrazie degli anni '60.
Le crisi degli anni '70
Le ultime fasi della guerra del Vietnam, la crisi del sistema monetario internazionale, sino allo scandalo Watergate e alla crisi petrolifera che seguì il conflitto arabo-israeliano dell'ottobre 1973, segnarono la fine del clima che aveva accompagnato la realizzazione del progetto Apollo. Nel dicembre del 1972 si ebbe l'ultima missione umana sulla luna; poco più tardi, la reazione nei confronti dei modelli macroeconometrici, delle loro simulazioni e delle loro previsioni, si trasformò da entusiastica a molto critica. Le previsioni dei modelli fallirono sistematicamente di prevedere le crisi della metà degli anni '70; contemporaneamente, una serie di sviluppi teorici minò le basi delle pratiche econometriche allora in uso.
I modelli econometrici furono oggetto di attacchi convergenti. Innanzitutto, si mise in dubbio la fondatezza del modo in cui i diversi pezzi della teoria economica erano stati tradotti in modelli empirici. Diversi ricercatori, utilizzando gli stessi dati, pervenivano a formulazioni empiriche delle teorie anche molto diverse tra loro; l'intera tecnica econometrica appariva essere come una pratica dall'esito sostanzialmente aleatorio e i dati un qualcosa che, come ebbe a dire Leamer, "se sottoposti a tortura abbastanza a lungo, avrebbero confessato"8 qualunque opinione dell'econometrico aguzzino. Oltre a questo, le stesse fondamenta dell'utilizzo dei modelli macroeconometrici per valutare l'impatto delle diverse opzioni di politica economica furono messe in dubbio da chi, seguendo quella che sarebbe divenuta nota come la "critica di Lucas9", sostenne che i coefficienti stimati delle equazioni dei modelli allora prevalenti non erano costanti rispetto alle diverse opzioni di politica economica, e per questo non potevano essere utilizzati per valutare gli effetti delle stesse.
Una parte importante del dibattito che si sviluppò allora concerneva il problema della specificazione del modello. Diversi studiosi notarono che, per giudicare un buon modello, non era sufficiente osservare quanto bene questo spiegasse il fenomeno oggetto di studio. A questo proposito, David Hendry, interrogandosi sulla eventuale natura alchimistica della scienza econometrica, mostrò un semplice modello econometrico in cui le variazioni della moneta erano spiegate accuratamente dalla quantità cumulata di precipitazioni piovose in Inghilterra durante gli stessi anni. La possibilità di trovare dei modelli apparentemente molto buoni, ma in realtà privi di senso, era nota da tempo10. Fu però negli anni '70 e '80 che gli econometrici, oltre ad afferrare le sfumature del problema, elaborarono un insieme di strumenti in grado di permettere una distinzione tra effettivi legami tra le variabili, e correlazioni cosiddette “spurie”.
In seguito a questi e ad altri sviluppi, così come il programma spaziale si ridiresse verso missioni meno spettacolari rispetto alle conquiste degli anni '60, allo stesso modo, i missili dell'econometria, dopo diversi anni di riflessione e di ripensamento, furono orientati verso mete meno ambiziose. Non si ripartì da zero: a nessun econometrico, per esempio, venne in mente di tentare di spiegare l'andamento delle attività degli econometrici in base ai cicli delle esplorazione spaziale. Al contrario, gli econometrici riuscirono a rivisitare criticamente alcuni dei contributi principali alla disciplina, apportati nel corso dei decenni precedenti, per sviluppare un approccio costruttivo al problema della scelta dei modelli per l'analisi empirica. Tra questi, essenzialmente, il concetto di "distribuzione di Haavelmo", la prima formulazione esplicitamente e coerentemente probabilistica dei modelli econometrici. Fu un ritorno alle radici statistiche dell’econometria, e più in particolare alla formulazione della legge di probabilità congiunta dei dati osservati, che permise di sviluppare un approccio costruttivo alla formulazione dei modelli e all’analisi dei dati che ha dato risposte a molte delle critiche degli anni precedenti e, almeno in parte, ha diminuito il grado di indeterminatezza dell’analisi.
Econometria: alchimia o scienza?
Malgrado gli sviluppi e gli innegabili progressi compiuti dal programma di ricerca econometrico durante gli ultimi decenni, e nonostante il contributo fondamentale dell’odierna ubiquità delle risorse di calcolo e di strumenti software in grado di sfruttarle adeguatamente, l'analisi econometrica dei dati non fornisce, generalmente, risposte scolpibili sulla pietra. Diversi studiosi tuttora pervengono a formulazioni contrastanti di modelli empirici tendenti alla spiegazione del medesimo fenomeno, talvolta utilizzando gli stessi dati; risultati contraddittori, con le relative polemiche e talvolta faide scientifiche, tengono occupati gli editori delle riviste scientifiche. Nulla di nuovo sotto al sole, si dirà. Da questo punto di vista, l'esperienza del programma di ricerca econometrico propone un insegnamento generale circa la difficoltà dell’analisi empirica, a prescindere dal suo ambito di applicazione, e della natura sfuggente dei suoi risultati.
La disciplina econometrica è parte di un paradigma scientifico, quello della moderna scienza economica, che nel secolo che si è chiuso è riuscito ad affermarsi come il più scientifico tra gli studi sociali. Una parte considerevole di un tale successo è dovuto al perfezionamento e all’oggettiva solidità interna del suo processo assiomatico-deduttivo, e ai progressi dell'econometria che hanno permesso di presentare le teorie economiche come assoggettabili a verifica empirica. Il riconoscimento, primo e sino ad ora unico caso tra le scienze sociali, del premio Nobel all'economia, dimostra simbolicamente il successo del programma di ricerca. L'attribuzione del primo di questi premi, nel 1969, a Ragnar Frisch e a Jan Tinbergen per i loro contributi alla fondazione della moderna econometria, testimonia inequivocabilmente il ruolo che questa ha avuto nel permettere all'intera disciplina economica il raggiungimento del suo status attuale di scientificità11.
Se i paradigmi scientifici occupano spazi, simbolici ma non per questo meno reali, si può argomentare che la disciplina economica abbia realizzato, con incredibile successo, una politica espansionistica ed egemonica rispetto alle altre scienze sociali. Sul successo con cui è stata perseguita una tale egemonia verso le discipline confinanti, notiamo, tra i tanti esempi possibili, che il programma di ricerca delle "scelte razionali" nelle scienze politiche, oggi tra i più importanti, basato sull'approccio assiomatico-deduttivo, fu iniziato da un economista12. Sull’apparente facilità con cui l’espansione della disciplina economica è avvenuta, consideriamo che quell’economista allora era un giovane che non aveva ancora terminato il suo dottorato di ricerca. L'econometria stessa ha influenzato i metodi di analisi empirica di altre discipline, come testimonia, per esempio, lo sviluppo della "cliometria", che utilizza le tecniche econometriche per verificare empiricamente le teorie storiche13.
Si discute dei limiti della disciplina economica odierna, e della giustificazione del suo successo. Almeno in parte, i successi dei programmi scientifici non sono legati a meriti oggettivi, e alla capacità di descrivere realtà fattuali, quanto piuttosto al loro prevalere, rispetto ad altri, come costruzioni sociali. Se anche fosse, il successo oggettivo del paradigma scientifico dell'economia moderna dimostrerebbe, oltre alla sua capacità di convincere, una misura di preminenza sulle alternative disponibili e concorrenti, e la qualità percepita delle soluzioni adottate, relativamente a quelle proposte dalle altre scienze sociali. La ricca contaminazione con le altre scienze sociali che un tale successo ha reso possibile, ha garantito nel contempo agli economisti la frequentazione di un ambito ampio di problemi empirici in grado di sottoporre a valutazione critica gli strumenti di volta in volta sviluppati.
Per questi motivi, il programma econometrico come si è sviluppato dagli anni trenta del secolo scorso sino ad oggi, con il suo carattere in parte scientifico, e in parte forse ancora alchimistico, indica un messaggio di rilevanza generale per chiunque sia interessato all'analisi empirica di teorie. Esclusi casi molto semplici, possibili per esempio in applicazioni sperimentali particolarmente elementari della fisica, l’analisi dei dati avviene generalmente in contesti caratterizzati da una complessità elevata, e per questo motivo non è mai semplice. Lungi dal fornire risposte chiare allo studioso in cerca della credibilità scientifica che deriva dalla verificabilità delle sue teorie, le verità dell’analisi empirica, anche dopo oltre un secolo di sviluppo ininterrotto delle tecniche di analisi dei dati, rimangono spesso ambigue e sfuggenti.
Note
1 Econometrica, 1933, p.1.
2 Edward Leamer, 1978, “Let’s take the con out of econometrics”, American Economic Review, 73, 31-43; David Hendry, 1980, “Econometrics: Alchemy or Science?”, Economica, 47, 387-406; Lawrence H. Summers, 1991, The Scientific Illusion in Empirical Macroeconomics, Scandinavian Journal of Economics 93(2), 129-148.
3 Come evidenziato nel bel libro di Mary S. Morgan, 1990, The History of econometric ideas, Cambridge University Press, Cambridge.
4 Come nel libro di testo di Bowley del 1901, dove correlazioni superiori a 0.6 erano interpretate come derivanti dalla presenza di una relazione causale (citato in Morgan, 1990, p. 137).
5 Ragnar Frisch, 1933, "Propagation Problems and Impulse Problems in Dynamic Economics", in Economic Essays in Honour of Gustav Cassel, London, Allen & Unwin
6 Jan Tinbergen, 1937, An Econometric Approach to Business Cycle Problems, Paris; Hermann & Cie, e Jan Tinbergen, Statistical Testing of Business-Cycle Theories, Geneva: League of Nations.
7 La prima regressione multipla in economia fu utilizzata dall'economista italiano Benini nel 1907, per stimare la domanda di caffè come funzione sia del suo prezzo, che del prezzo dello zucchero (citato in Hashem Pesaran, 1987, Econometrics, The New Palgrave: A Dictionary of Economics, The Macmillan Press, Londra). L'adozione della tecnica di regressione multipla era ovviamente limitata dall'assenza di adeguati strumenti di calcolo: Luis H. Bean, nel 1929, indicava in otto ore di lavoro il tempo necessario per stimare una regressione con quattro variabili esplicative (citato in Morgan, 1990, p. 139).
8 Edward Leamer, 1978, cit.
9 Robert E. Lucas, (1976), "Econometric Policy Evaluation: A Critique", Carnegie-Rochester Conference Series on Public Policy 1, 19-46.
10 Yule, G.U. (1926) "Why do we sometimes get Nonsense Correlations Between Time-Series", Journal of the Royal Statistical Society", 89, 1-64.
11 Haavelmo, per aver partecipato allo stesso programma di ricerca, vinse il Premio Nobel per l'economia nel 1989.
12 Downs, Anthony. 1957. An Economic Theory of Democracy. New York: Harper and Row.