Fai una donazione

Questo sito è autofinanziato. L'aumento dei costi ci costringe a chiedere un piccolo aiuto ai lettori. CHI NON HA O NON VUOLE USARE UNA CARTA DI CREDITO può comunque cliccare su "donate" e nella pagina successiva è presente (in alto) l'IBAN per un bonifico diretto________________________________

Amount
Print Friendly, PDF & Email

moneta e credito

Alla ricerca di una migliore teoria macroeconomica

di Heinz D. Kurz e Neri Salvadori*

Abstract: Questo articolo sottolinea che un certo numero di elementi costitutivi della moderna macroeconomia e dei risultati che ne derivano non sono sostenibili. Il riferimento è alle presunte “microfondazioni” della teoria e, in particolare, all’uso di funzioni di produzione macroeconomiche e al metodo dell’“agente rappresentativo”. Le “leggi” semplici e apparentemente non invasive della domanda di input e dell’offerta di output non sono sostenibili in generale. I macroeconomisti sono spesso orgogliosi di sviluppare le loro argomentazioni in termini di una versione ridotta della teoria dell'equilibrio generale, ma si comportano come se ignorassero che la stabilità dell’equilibrio economico generale non può essere dimostrata in condizioni sufficientemente generali. Una ulteriore fonte di instabilità del sistema economico è riscontrabile nel carattere dirompente del cambiamento tecnologico

7255a6 292676b0e411445d877cb8205d3fc76dIn un saggio recente dal titolo provocatorio “Rethinking Stabilization Policy: Evolution or Revolution?”, Olivier J. Blanchard e Lawrence H. Summers (2017, ripubblicato in questo numero: Blanchard e Summers, 2019) affermano che il manifesto fallimento della teoria macroeconomica dominante nel dar conto della “Grande Recessione” conseguente alla crisi finanziaria innescata dal crollo del segmento subprime del mercato immobiliare statunitense del 2007-2008 dovrebbe indurre i macroeconomisti contemporanei a cambiare in modo sostanziale i loro modelli interpretativi della realtà.1

Sfortunatamente, come si evince dal titolo stesso del loro lavoro, Blanchard e Summers non si sbilanciano e non ci dicono esplicitamente se il cambiamento che essi ritengono necessario sia da interpretarsi nel senso di una semplice “evoluzione” oppure se vada ricercata una vera e propria “rivoluzione”. In ogni caso, i due autori non lasciano dubbi sul fatto che, a loro avviso, mere operazioni cosmetiche, di piccoli aggiustamenti al margine, non siano sufficienti allo scopo di colmare il gap fra teoria e realtà macroeconomica. Essi sottolineano infatti come una analisi più approfondita della complessità del settore finanziario e della sua intrinseca instabilità sia solo il primo passo: “la lezione da trarre va ben oltre e dovrebbe costringerci a mettere in dubbio alcune credenze consolidate” (Blanchard e Summers, 2019, p. 172, corsivo nostro). Le “convinzioni tanto care” agli economisti contemporanei a cui Blanchard e Summers si riferiscono includono sia la presunzione che le economie di libero mercato siano in grado di autoregolarsi in modo tutto sommato ottimale, considerati i vincoli istituzionali, informativi etc. cui sono sottoposte, sia la presunzione che shock temporanei non possano avere effetti permanenti sul PIL pro capite di medio-lungo termine (ibidem).

Invero, ci sono molte altre convinzioni oltre le due sopra ricordate a cui la maggioranza dei macroeconomisti tiene particolarmente e che meritano di essere menzionate in questo contesto. Tali convinzioni possono infatti aiutare a spiegare cosa esattamente è successo e perché, e soprattutto cosa si può fare in termini di policy per mitigare la propensione innata del sistema economico alla instabilità.2

Alcune di queste convinzioni sono già state evidenziate e criticate da Emiliano Brancaccio (2017; cfr. anche Brancaccio e Califano 2018) e da molti altri autori, tra cui Paul Krugman, Paul Romer e Joseph Stiglitz per citare solo i nomi più noti. In questo contributo intendiamo evidenziare e analizzare criticamente due ulteriori convinzioni: in primo luogo, la presunzione che nella parte ‘reale’ del modello la domanda e l’offerta di una data merce, sia essa un bene di consumo o il servizio di un fattore produttivo, si ‘comportino bene’ ossia abbiano forma e posizione sul piano prezzo-quantità tali da garantire l’esistenza, la stabilità e l’unicità dell’equilibrio; in secondo luogo, la presunzione che il progresso tecnico sia di natura tale da poter essere assorbito dal sistema economico senza dar luogo a marcate e prolungate oscillazioni cicliche (come, ad es., sostenuto, fra gli altri, da Joseph A. Schumpeter, [1912] 1934; 1939).

La tesi che argomenteremo in quanto segue è che entrambe le convinzioni di cui sopra non possono essere sostenute in generale. In altri termini, i modelli macroeconomici ‘mainstream’ rappresentano casi particolari di situazioni di equilibrio le cui predizioni (e implicazioni di policy) non sopravvivono o almeno vanno adeguatamente qualificate non appena le ipotesi di base su cui tali modelli sono costruiti vengono allentate. In quanto segue mostreremo infatti che i percorsi che conducono alla instabilità, alle crisi e alle oscillazioni cicliche sono decisamente più numerosi e significativi di quanto molti macroeconomisti sembrano comunemente ritenere.

Iniziamo commentando brevemente alcuni presupposti fondamentali della moderna macroeconomia, presupposti che, a nostro avviso, sono alla base dei suoi deludenti risultati in chiave di spiegazione e previsione dei fenomeni economici. In ogni caso, tali presupposti mostrano un deficit empirico di microfondazioni, con buona pace dei macroeconomisti contemporanei che, sulla scorta di Lucas (1976), ritengono i propri modelli ‘microfondati’ analiticamente superiori a quelli elaborati dalla prima generazione degli economisti keynesiani negli anni ’50 e ’60 del secolo scorso.

In larga parte della macroeconomia moderna è ancora ipotizzato che esista un ‘agente rappresentativo immortale’ e che l’analisi del comportamento di tale agente possa costituire la base su cui erigere l’intero edificio teorico.3 In secondo luogo, si assume che questo agente si trovi di fronte delle condizioni tecniche di produzione che possano essere rappresentate da una funzione di produzione e che lui conosca tale funzione di produzione macroeconomica che è anche di un tipo ben specifico, come vedremo fra breve. In terzo luogo, si assume la validità di una specifica variante della Legge degli sbocchi o Legge di Say, secondo cui (in un’economia chiusa) la spesa totale per investimenti è in media pari al risparmio aggregato di pieno impiego. Un corollario significativo di questa specifica variante della Legge di Say è che, in media, la produzione effettiva segue strettamente la produzione potenziale. In termini di policy, ciò significa che le politiche di stabilizzazione congiunturale dal lato della domanda risultano di gran lunga meno significative e degne di attenzione analitica delle politiche dal lato dell’offerta volte a stimolare la crescita del PIL potenziale.

Il punto in questione va sottolineato. Come vedremo infra, alcuni economisti classici quali Smith e Ricardo adottavano una interpretazione differente della cosiddetta Legge degli sbocchi, interpretazione da cui non discende che l’unico equilibrio possibile del sistema economico sia quello di pieno impiego e da cui non discende che disturbi ciclici dal lato della domanda abbiano unicamente effetti transeunti sul PIL di equilibrio di medio-lungo periodo.

 

1. Microfondazioni?

I sostenitori della moderna macroeconomia neoclassica (e neokeynesiana) sono in genere orgogliosi di basare le proprie analisi su solide “microfondazioni”. Purtroppo, un esame più attento mostra come questo sentimento di orgoglio sia mal riposto. Uno sguardo al contributo di Robert Lucas ci mostra cosa è successo e perché.4 Come è noto, Lucas ha utilizzato una versione semplificata del modello di equilibrio generale intertemporale per trovare delle risposte ai tradizionali quesiti della macroeconomia. Per Lucas ciò implicava l’uso di strumenti analitici innovativi per affrontare problemi che l’analisi keynesiana del secondo dopoguerra e la relativa macro-econometria non erano stati in grado di affrontare efficacemente proprio per la mancanza dei suddetti strumenti analitici. In altri termini, la nuova macroeconomia lucasiana veniva presentata come una innovazione della ‘cassetta degli attrezzi’ dell’economista. Tuttavia, una indagine più accurata mostra che si è trattato di un cambiamento molto più radicale che un semplice ‘progresso’ negli strumenti analitici utilizzati. In realtà i cambiamenti introdotti implicarono un fondamentale riorientamento della macroeconomia, della sua portata e del suo contenuto, e quindi una discontinuità sostanziale con ciò che la macroeconomia era stata fino ai primi anni ’70. Con Lucas, la macroeconomia diventa una teoria che focalizza l’attenzione essenzialmente sul lungo periodo e privilegia come modello di riferimento il modello di equilibrio economico generale walrasiano (vedi Kurz, 2010). È nel lungo periodo infatti che, per Lucas, ci si può aspettare che tutti i mercati, incluso il mercato del lavoro, funzionino secondo le predizioni del modello walrasiano. In quest’ottica, si arriva ad adottare l’ipotesi eroica, assurta al rango di assioma, che tutti i mercati siano in equilibrio walrasiano in ogni momento e soprattutto che “we have a cleared labor market at every point in time” (Lucas, 2004, p. 16). Questo assunto elimina alla radice il problema che una volta era stata la raison d’être della macroeconomia keynesiana, ovvero spiegare quando e perché si generi disoccupazione involontaria in equilibrio e cosa si può fare al riguardo.5 In altri termini, una parte significativa della macroeconomia moderna è teoria di pieno impiego tout court. Pertanto, i lavori di Lucas (e associati) hanno comportato non una evoluzione bensì una ‘rivoluzione’ in senso stretto, ossia un ritorno a una impostazione teorica basata sulla variante neoclassica della Legge di Say, un’impostazione che prevede, anzi impone di analizzare tutti i mercati dell’economia fra cui il mercato del lavoro in termini di funzioni di domanda e di offerta dal comportamento ‘regolare’ (“well-behaved”).

È giunto il momento di chiarire le differenze teoriche fra la variante classica e quella neoclassica della Legge di Say. Come si vedrà queste due differenti interpretazioni della Legge di Say nascono da due paradigmi teorici radicalmente differenti.6

Negli economisti classici la Legge di Say è stata discussa nell’ambito del problema se le decisioni di risparmio comportino ipso facto decisioni di accumulazione di capitale della stessa entità. Mentre i percettori di salario tipicamente spendono integralmente il proprio reddito in beni di consumo (non solo e non necessariamente necessaries ma anche luxuries nei periodi di ‘alti salari’), i percettori di profitti e rendite potrebbero tesaurizzare in forma liquida una parte dei propri redditi in quanto tipicamente tali redditi eccedono la sussistenza. In tal caso, il risparmio non si tradurrebbe in nuova accumulazione di beni capitali e potrebbe materializzarsi il demone malthusiano dell’eccesso di produzione generalizzato di merci (general glut of commodities). Sia Smith che Ricardo escludono il fenomeno della tesaurizzazione del risparmio in forma liquida e dunque escludono che il processo di accumulazione del capitale possa arrestarsi per quella che oggi chiameremmo una carenza di domanda aggregata di merci. Ma, e qui sta il nocciolo della questione, per Smith e Ricardo è la domanda di merci riproducibili che si adegua spontaneamente alla produzione di merci per cui il pieno impiego del capitale non implica il pieno impiego della forza lavoro. Questo è il motivo per cui per un economista Classico non vi è contraddizione fra affermare la validità della Legge di Say e, nel contempo, analizzare situazioni di disoccupazione o sottooccupazione nel mercato del lavoro.

Per contro, l’approccio di Lucas alla macroeconomia presuppone che l’investimento aggregato sia sempre uguale al risparmio di pieno impiego, cioè alla quantità di risparmio che deriverebbe dal pieno utilizzo di tutte le risorse produttive, capitale e lavoro. Assume che non vi siano problemi di coordinamento intertemporale fra decisioni di risparmio, visto come mero differimento nel tempo di decisioni di consumo, e decisioni di produzione di beni capitali nuovi che non possano essere risolti dal sistema dei prezzi di equilibrio walrasiano intertemporale. Pertanto, se non vi è discrepanza tra investimenti pianificati e risparmi pianificati, non vi è neanche alcun problema di domanda effettiva aggregata di merci. Eppure, il mercato del lavoro può essere in equilibrio walrasiano “in ogni istante temporale” solo se non solo le imprese si aspettano di essere in grado di vendere in qualsiasi momento ciò che viene prodotto da una forza lavoro pienamente occupata, ma anche che esse siano effettivamente in grado di fare ciò in qualsiasi momento. Ossia, se e solo se le grandezze pianificate ex ante coincidono con le grandezze realizzate ex post. Ma perfino un’osservazione casuale sul mondo reale ‘lì fuori’ mostra come sia infondata l’idea che il mercato del lavoro sia in equilibrio in ogni momento. Lucas ha giustificato la sua ipotesi riguardo la natura dell’equilibrio nel mercato del lavoro in termini di un’ulteriore ipotesi, ossia l’esistenza di un “banditore” che agisce “molto rapidamente” e che miracolosamente riesce a ridurre la logica “di un qualsiasi tipo di dinamica” a quella di un’economia in cui tutti i fattori produttivi sono persistentemente pienamente impiegati (Lucas, 2004, p. 23). Quindi, per ipotesi, fallimenti della mano invisibile del mercato, problemi di domanda effettiva, disoccupazione involontaria et alia similia sono stati rimossi dal quadro.

La figura dell’“agente rappresentativo” invocato in gran parte della macroeconomia dominante ai tempi della Grande Moderazione è particolarmente problematica. In primo luogo, ha di fatto eliminato il problema della distribuzione interpersonale del reddito dall’agenda dell’economista. Come è noto, per David Ricardo il problema principale di cui si deve occupare l’economia politica è studiare come il reddito prodotto in una data nazione in un dato istante temporale si distribuisce fra le varie classi sociali che a vario titolo hanno contribuito alla sua produzione sotto forma di salari, profitti e rendite e come la distribuzione del reddito fra le classi sociali cambi nel corso del tempo. Ovviamente, l’agente rappresentativo non ha motivo di preoccuparsi se il suo reddito è costituito da salari o profitti o rendite, in quanto tutti i tipi di reddito sono i suoi e, di conseguenza, l’economista può disinteressarsi del problema di Ricardo. Con una pluralità di agenti eterogenei, le cose sono molto diverse e note “dispute” (Adam Smith, [1776] 1976, Libro I, cap. viii, par. 12) sulla distribuzione del reddito riappaiono.7

In secondo luogo, non è mai stato dimostrato che il comportamento dell’agente rappresentativo possa essere derivato da una molteplicità di comportamenti di agenti eterogenei attraverso un processo coerente di aggregazione. Forni e Lippi (1997) hanno inoltre richiamato l’attenzione su una trascuratezza della macroeconomia moderna: la natura aggregata dei dati utilizzati. I modelli macroeconomici standard postulano agenti che massimizzano intertemporalmente ed elaborano equazioni dinamiche che collegano variabili economiche come consumo, reddito, investimento, tasso di interesse e occupazione. Quindi analizzano le proprietà di queste equazioni come la cointegrazione, la causalità di Granger e le restrizioni sui parametri. L’assunzione di agenti identici o omogenei induce il teorico della macroeconomia ad analizzare queste proprietà direttamente su dati aggregati. Ma questo pone un problema enorme, come diventa chiaro quando l’ipotesi di omogeneità viene analizzata sui dati disaggregati. L’abbandono dell’ipotesi di omogeneità mostra che, a parte casi fortuiti, la causalità granulosa unidirezionale della cointegrazione, le restrizioni sui parametri cadono vittima dell’aggregazione. Forni e Lippi concludono che la macroeconomia moderna non può pretendere di possedere microfondazioni solide.8

Se gli agenti hanno incentivi diversi e hanno preferenze diverse e soprattutto se fronteggiano vincoli diversi nei vari mercati in cui operano, essi tipicamente si comportano in modo diverso a seconda, tra l’altro, della distribuzione del reddito e della ricchezza. Tutto questo è escluso in buona parte dei modelli dominanti la moderna macroeconomia. Quindi, l’agente preso in considerazione è erroneamente chiamato “rappresentativo”: non rappresenta una varietà di agenti diversi, ma uno solo.9 Il gregge e le singole pecore che costituiscono il gregge si comportano al medesimo modo, e soprattutto il comportamento del gregge è semplicemente n-volte il comportamento della singola pecora rappresentativa ovvero non esistono proprietà del comportamento aggregato emergenti rispetto alle proprietà del comportamento individuale. In breve, il concetto di herd behaviour non ha diritto di cittadinanza nei modelli con agente rappresentativo.

Una conseguenza di ciò è che la macroeconomia utilizza coraggiosamente un’assunzione implicita di ceteris paribus: qualunque cosa accada nel sistema economico, l’agente rappresentativo non ne è impressionato. È come una roccia tra le onde, massimizzando incessantemente l’utilità intertemporale su un orizzonte temporale infinito. Il sistema economico, qualunque cosa faccia, lo fa in modo ottimale, quindi come potrebbe mai andare fuori strada? Ex hypothesi questo è impossibile.

Passiamo a considerare la funzione di produzione macroeconomica utilizzata in gran parte della letteratura macroeconomica moderna. La funzione di produzione viene tipicamente e erroneamente definita “aggregata”. Tuttavia, non è mai stato dimostrato che possa essere costruita attraverso un processo di aggregazione coerente a partire dai processi di produzione a livello microeconomico. In effetti, è stato dimostrato (Fisher, 1992) che questa aggregazione può realizzarsi solo in presenza di condizioni estremamente speciali per quanto riguarda la sottostante struttura microeconomica. La discussione di due casi elementari sarà sufficiente per individuare la natura dei problemi coinvolti. Il lettore consideri innanzitutto la funzione di produzione a tre fattori: F(k1 , k2 , m), dove k1 e k2 sono due input di capitale e è lavoro. Il problema è se esiste un “indice” del capitale, cioè se esistono una funzione G(k1 , k2) e una funzione di produzione a due fattori H(K, m), tali che:

F(k1, k2, m) = H(G(k1, k2), m).

Fisher (1992, p. 46) richiama l’attenzione su una condizione necessaria e sufficiente (riguardante una proprietà delle derivate seconde della funzione di produzione). Non c’è bisogno di riprodurre qui tale condizione. Notiamo solo che da un punto di vista strettamente economico non c’è alcun argomento a favore dell’adozione di tale condizione: essa, infatti, implica semplicemente una riduzione arbitraria della dimensione dello spazio di tutte le possibili funzioni di produzione.

Un altro semplice caso è il seguente. Consideriamo due funzioni di produzione a tre fattori: Fi(k1i, k2i, mi), dove k1 e k2 sono input di capitale e mi sono input di lavoro, le immagini delle funzioni Fi(k1i, k2i, mi) non devono essere scalari: possono essere vettori. Il problema è se esiste un “indice” di capitale, cioè se esiste una funzione G(k11 + k12 , k21 + k22) e una funzione di produzione a due fattori H(K, m1 + m2) che dipende solo da ‘capitale’ e lavoro tali che:

Schermata del 2019 09 23 14 47 24

Anche in questo caso la condizione necessaria e sufficiente è molto forte. Inoltre, nel caso particolare in cui l’impresa 1 produce solo merce 1 e l’impresa 2 produce solo merce 2, “the production possibility frontier for the entire system will consists only of flats; relative output prices will be fixed […] and it is hardly surprising that output aggregation is possible” (Fisher, 1992, p. 135). Se, inoltre, il lavoro è l’unico fattore primario, cioè se tutte le merci, tranne il lavoro, sono prodotte, la funzione di produzione aggregata esiste se e solo se la teoria del valore-lavoro è valida! Questo è un risultato che ha giocato un ruolo significativo nella controversia fra le due Cambridge sulla teoria del capitale (per un resoconto sommario, vedi Harcourt, 1972 e Kurz e Salvadori, 1995, cap. 14). A questo argomento è dedicata la prossima sezione.

 

2. Il problema del capitale

Dalla controversia sul capitale fra le due Cambridge sono emersi una serie di risultati analitici che vanno contro le “convinzioni tanto amate” dai teorici neoclassici in tema di distribuzione del reddito e scelta delle tecniche produttive. In estrema sintesi, i risultati sono i seguenti.10

Il risultato che in quegli anni attirò una notevole attenzione fra i partecipanti al dibattito è la possibilità del ‘ritorno delle tecniche’ (reswitching) ovvero la possibilità che una intera tecnica (o sistema di produzione) possa essere ottimale a due differenti valori del saggio del profitto, mentre non è ottimale per valori intermedi. La conseguenza è che le varie tecniche, ossia le varie combinazioni di lavoro e capitale, non possono generalmente essere ordinate in modo monotono con il saggio di profitto (o piuttosto col rapporto ⁄ , dove è il saggio di salario reale e è il saggio di profitto). Da tale risultato all’apparenza di natura meramente logico-formale discendono una serie di conseguenze ‘spiacevoli’ per la teoria marginalista della produzione e distribuzione del reddito. In particolare, la direzione del cambiamento delle “proporzioni fra gli input” e non può essere correlata in modo univoco ai cambiamenti nelle variabili distributive e . Ciò contraddice il principio neoclassico della sostituzione fra fattori produttivi, normalmente invocato sia in microeconomia che in macroeconomia, ossia un principio che rientra a pieno titolo fra le “cherished beliefs” di Blanchard e Summers. Secondo tale principio, un aumento (diminuzione) del saggio di salario rispetto al saggio di profitto induce i produttori che intendono minimizzare i costi di produzione ad impiegare proporzionalmente meno (più) lavoro, che in seguito all’aumento di ⁄ è diventato l’input relativamente più costoso, e più ‘capitale’, che è diventato l’input relativamente meno costoso. Ossia, in seguito all’aumento di ⁄ , dovremmo osservare l’impiego di tecniche produttive maggiormente ‘capitalistiche’. Di conseguenza, dovremmo osservare un aumento del numero di lavoratori disoccupati in quanto ‘sostituiti’ da macchine.

Il principio di sostituzione è alla base delle funzioni standard, non a caso definite “well-behaved”, di domanda dei servizi dei fattori inversamente elastiche rispetto al prezzo dei medesimi. Di contro, con il fenomeno del reswitching la funzione di domanda di un fattore potrebbe non essere inclinata verso il basso in tutto il suo dominio in quanto può presentare tratti con inclinazione positiva. Pertanto, una diminuizione del salario reale potrebbe non necessariamente implicare un aumento della quantità domandata di lavoro, contrariamente a quanto sostenuto dalla teoria neoclassica. I risultati della controversia sul capitale sono stati occasionalmente definiti come sterili, poco più che dei curiosa matematici, e comunque irrilevanti ai fini della comprensione di quanto accade nel “mondo reale lì fuori” e ai fini della definizione di politiche attive per il lavoro (vedi i riferimenti in Kurz e Salvadori, 1995, cap. 14). Tuttavia, il risultato in esame mostra che così non è. Se l’occupazione aggregata aumenta in seguito ad un incremento piuttosto che ad una diminuzione del salario reale, la saggezza convenzionale suggerirebbe al policy-maker una medicina che, lungi dal curare, finirebbe con il peggiorare la malattia della disoccupazione involontaria.

Il ‘ritorno delle tecniche’ fu accolto con incredulità nei circoli neoclassici e fece sì che Paul Samuelson chiedesse a uno dei suoi studenti, David Levhari, di dimostrarne l’impossibilità (vedi Levhari, 1965). Luigi Pasinetti, Pierangelo Garegnani e altri hanno dimostrato che la dimostrazione di Levhari era viziata. Considerato con il senno di poi, e vi è una certa ironia in questo, il contributo di Levhari finì con il rafforzare la posizione dei critici della teoria neoclassica.

Oltre al ritorno delle tecniche, un altro risultato a lungo discusso fu l’inversione del valore del capitale, capital reversing. Il fenomeno del capital reversing concerne la possibilità che la relazione tra il rapporto capitale/lavoro (K ⁄L) o fra capitale/prodotto (K⁄Y) e il rapporto fra saggio di profitto e saggio di salario ( r⁄w ) sia crescente, contrariamente a quanto la macroeconomia neoclassica sostiene. Anche in questo caso, la proporzione fra gli input non necessariamente è in ogni suo tratto inversamente correlata alla proporzione fra i “prezzi dei fattori”. Inoltre, il consumo pro-capite (cioè per unità di lavoro impiegata) e il saggio di profitto-saggio di interesse possono essere positivamente correlati, contrariamente alla convenzionale saggezza neoclassica che vuole il risparmio e non il consumo pro-capite crescente, o comunque non-decrescente, al crescere di . In definitiva, i comportamenti ‘perversi’ o non “well-behaved” potrebbero essere più comuni di quanto il vangelo neoclassico preveda.11

Giunto a questo punto il lettore potrebbe chiedersi in cosa esattamente consista la critica della teoria neoclassica portata avanti dagli economisti di Cambridge (UK). Si tratta solo di mettere in luce una serie di risultati analitici, per quanto significativi e di ampia portata, oppure vi è dell’altro? Al livello più profondo, la critica alla teoria neoclassica esprime una confutazione della Weltanschauung neoclassica di come funziona l’economia di libero mercato: il tipo di “forze” che essa seleziona (in particolare, le preferenze dei singoli agenti presi in isolamento gli uni dagli altri) a scapito di altre forze (come ad es. il potere economico), la metodologia individualistica adottata e il metodo analitico utilizzato. Più specificamente, implica un attacco ad un uso illegittimo della “clausola del ceteris paribus” che non tenga debito conto delle condizioni stringenti che devono valere affinché si possa cambiare il prezzo di una sola merce o di un solo fattore produttivo per volta senza che nulla altro cambi nel sistema dei prezzi. Se queste condizioni non valgono, allora al variare di un prezzo anche altri prezzi devono variare: i ceteris cessano di essere paribus. Pertanto, i risultati ottenuti usando in modo improprio la clausola del ceteris paribus nel senso sopra spiegato sono destinati ad essere fuorvianti, non solo quantitativamente, ma anche qualitativamente: possono condurre il teorico a postulare forme funzionali di relazioni tra variabili economiche che sono significativamente differenti da quelle derivate in un quadro di equilibrio generale. È superfluo sottolineare che i risultati conseguiti da una analisi di equilibrio parziale condotta in spregio delle condizioni che ne garantiscono la validità teorica risultano essere una guida altamente inaffidabile in sede di decisioni di politica economica.

Alla luce dei risultati emersi nel corso della controversia sulla teoria del capitale, le convenzionali ‘leggi’ microeconomiche della domanda di input e dell’offerta di output risultano altamente problematiche. L’apparato convenzionale di analisi della domanda e dell’offerta si dimostra molto meno solido di quanto molti economisti contemporanei siano inclini a pensare.

Le implicazioni di questi ‘risultati negativi’ per la teoria neoclassica vanno ben al di là delle tematiche del valore e della distribuzione, il che non dovrebbe sorprendere più di tanto visto che queste tematiche costituiscono il fulcro dell’analisi economica. In ogni caso, anche altri ambiti dell’economia politica, quali ad esempio la teoria del commercio internazionale, la teoria della crescita e dello sviluppo, la teoria della tassazione etc., sono finiti sotto la lente di ingrandimento dei critici di Cambridge (UK) e dintorni.

Come è ovvio, non sono mancate le risposte da parte degli autori che si considerano, o sono in genere considerati, come appartenenti all’economia cosiddetta mainstream. Paul Samuelson ha ammesso la correttezza della critica nel suo articolo “A Summing up” (Samuelson, 1966). Lui e Edwin Burmeister erano particolarmente affascinati dalla possibilità di una relazione positiva tra il consumo pro-capite e il tasso di interesse. Questa fu vista come la più sorprendente di tutte le ‘perversioni’ stabilite nella controversia fra le due Cambridge. Nelle sue Marshall Lectures Robert Lucas (2002), comprensibilmente, avvertì il bisogno di definire in cosa esattamente consisteva l’oggetto della controversia sul capitale e, una volta definito l’oggetto del contendere, chi avesse ragione. Secondo Lucas, l’oggetto del contendere riguardava la natura, eterogenea o meno, del capitale. Se il nocciolo della questione era se il capitale fosse costituito o meno da mezzi di produzione eterogenei, egli ammise – bontà sua! – che “da tempo la questione è stata risolta in favore della sponda inglese dell’Atlantico” (Lucas, 2002, p. 56, nostra traduzione). Pace Lucas, l’eterogeneità dei beni capitali non è mai stata oggetto di disputa fra le due Cambridge! Sorprendentemente, però, Lucas aggiunse che il capitale fisico deve essere trattato come se fosse un bene omogeneo. Lucas ha giustificato questa svolta radicale insistendo sul fatto che il capitale fisico, al pari del capitale umano, “andrebbe considerato una forza, non direttamente osservabile, che possiamo postulare al fine di considerare in maniera unitaria alcune cose che possiamo osservare” (ibidem, le prime tre enfasi e la traduzione sono nostre; vedi anche Lucas, 1988, p. 36). La svolta di Lucas solleva questioni metodologiche complesse che qui non possiamo debitamente affrontare. Ci limitiamo a chiederci se esistano dei limiti e eventualmente quali essi siano all’arbitrio dell’economista teorico nel selezionare gli assiomi su cui costruire i propri modelli interpretativi della realtà. In ogni caso, resta il fatto che Lucas scelse di affrontare il problema del capitale nella teoria neoclassica ignorandolo tout court.

Andreu Mas Colell (1989), d’altra parte, ha sottolineato che la relazione tra il rapporto capitale/lavoro e il tasso di rendimento del capitale può avere praticamente qualsiasi forma.

Ciò implica che la “funzione di domanda” del capitale in termini di saggio di interesse potrebbe non essere inclinata negativamente nel punto in cui interseca una determinata “funzione di offerta” di capitale. L’equilibrio risultante, ammesso che sia unico, sarebbe instabile. A questo punto, il lettore può lecitamente chiedersi, con Marshall, quale sia il potere esplicativo di un equilibrio instabile.

Col passare del tempo, un numero crescente di economisti seguì le orme di Lucas e semplicemente scelse di ignorare i risultati delle controversie fra le due Cambridge riguardo la teoria del capitale. Tale scelta ha comportato che oggi la conoscenza del problema è bassissima, in particolare fra gli economisti più giovani. Questi ultimi di norma posseggono solo vaghe nozioni su cosa si discuteva, sui risultati conseguiti e su come questi potrebbero influenzare il loro lavoro di ricerca.

Tuttavia, i problemi che affliggono l’economia neoclassica non si fermano qui. Come mostriamo nella sezione seguente, anche in un contesto di saggio di interesse (o saggio di profitto) nullo, le “credenze consolidate” non possono generalmente essere sostenute, come hanno dimostrato Arrigo Opocher e Ian Steedman nel loro recente libro Full Industry Equilibrium (2015; si veda anche il simposio ad esso dedicato nel 2017 in Metroeconomica).

 

3. L’economia neoclassica alla prova di un saggio di profitto nullo

Opocher e Steedman mostrano numerosi casi in cui i produttori possono scegliere da un insieme dato di tecniche alternative e in cui gli imprenditori walrasianamente non fanno né profitti né perdite (ossia vale la zero-profit condition nota a tutti gli studenti di teoria dell’impresa in concorrenza perfetta nel lungo periodo), e nondimeno le “laws of input demand” (Hicks, 1939; Samuelson, 1947) derivate a livello microeconomico in un contesto di equilibrio parziale non sono vere in generale. Un cambiamento nel prezzo di mercato del servizio di un input primario (come terra o lavoro) può indurre, ad esempio, un cambiamento qualitativo nell’uso degli input, inclusi gli input a loro volta prodotti di vario tipo.

Opocher e Steedman stabiliscono i seguenti risultati:

  • Nel caso di un numero arbitrario di soli input primari o di soli due input (almeno uno dei quali è prodotto) non sorge alcun problema: le leggi convenzionali della domanda di input prevedono correttamente gli effetti di sostituzione.
  • Con più di due input (almeno uno dei quali è prodotto) una variazione parametrica nel prezzo di un input comporta una varietà di effetti compensatori in altri prezzi attraverso adeguamenti dei costi e dei prezzi in tutta l’economia.
  • Esiste una differenza fondamentale tra input primari ossia non-prodotti e input prodotti: mentre il prezzo di mercato di un input primario o aumenta o diminuisce rispetto a tutti gli altri prezzi di input, il prezzo di mercato di un input prodotto aumenta rispetto ad alcuni prezzi di input mentre diminuisce rispetto ad altri.
  • Questo è il motivo per cui nessuna “law of input demand” può prevedere il cambiamento qualitativo nell’uso di un input prodotto, anche se tutte le coppie di input presenti nell’economia in esame sono sostituti nel senso di Hicks.
  • Ne consegue che una semplice relazione tra l’uso di un input prodotto e il suo prezzo di mercato (in termini di qualche numéraire), come è tipicamente assunto nei libri di testo microeconomici e macroeconomici e nelle analisi empiriche, non ha alcun significato teorico.

Può accadere, ad esempio, che un aumento del saggio di salario sia associato ad un aumento dell’occupazione del lavoro per unità di prodotto – una possibilità contemplata, per esempio, già da Schumpeter, il quale, tuttavia, non disponeva dei mezzi analitici per dimostrare formalmente questa possibilità. In tal modo otteniamo al livello di una singola impresa e di un singolo settore dei fenomeni che ricordano in qualche modo il ritorno delle tecniche e dell’inversione del valore del capitale, ossia fenomeni che riguardano il livello dell’economia nel suo complesso. Le “leggi” apparentemente semplici e ‘naturali’ della domanda di input e dell’offerta di output sono violate. Come è noto, nel 1848 John Stuart Mill scrisse: “per fortuna, non c’è niente riguardo le leggi del Valore che rimanga a un autore contemporaneo o futuro da risolvere; la teoria sull’argomento è completa” ([1848] 1965, Libro III, cap. 1, nostra traduzione). A oltre un secolo e mezzo di distanza Opocher e Steedman mostrano che questa affermazione è ancora lungi dall’essere vera.

Le implicazioni dei risultati ricordati in questa sezione e nella precedente sono che le curve di domanda e di offerta potrebbero non essere “well-behaved” e che i mercati potrebbero non essere stabili nel senso che una deviazione dall’equilibrio potrebbe attivare forze che tendono ad amplificare invece che smorzare gradualmente tale deviazione. La presunzione che i singoli mercati e l’economia nel suo complesso tendano spontaneamente all’equilibrio e, a fortiori, la presunzione per cui nella situazione di equilibrio spontaneamente raggiunta tutte le opportunità di scambio mutuamente vantaggiose siano sfruttate dagli agenti non possono essere generalmente sostenute. Tale conclusione è emersa in vario modo e per vie differenti nella letteratura, anche quella prodotta da economisti vicini o comunque non-ostili al mainstream.12 Va sottolineato però che questi ultimi tendono a trattare gli aspetti problematici della teoria ‘ricevuta’ al pari del “caso dei beni di Giffen” nella teoria del consumo, minimizzandone così la portata.13

Nella sezione seguente forniamo un ulteriore argomento per cui la presunzione che l’economia tenda spontaneamente sempre all’equilibrio dovrebbe essere abbandonata. Ci riferiamo ai processi che conducono alla generazione di prodotti/processi innovativi.

L’innovazione implica quelli che Joseph Alois Schumpeter definiva processi di “distruzione creativa”. Questi processi possono essere dirompenti e destabilizzare l’economia.

 

4. Innovazione: una fonte di instabilità e di comportamento ciclico

Secondo Schumpeter ([1912] 1934) le innovazioni sono “the overwhelming fact” nella storia economica del capitalismo. Lo sviluppo economico procede in modo eminentemente non-lineare, a salti e strappi, è necessariamente ciclico, e comporta ripetutamente situazioni in cui la stabilità globale del capitalismo è messa in discussione. Schumpeter era convinto che l’alternarsi delle fasi cicliche sia in genere il risultato di cambiamenti fondamentali (shock) la cui genesi è da rintracciare nella parte reale dell’economia, i mercati finanziari agendo come meri amplificatori degli impulsi iniziali. A suo avviso, la Grande Depressione degli anni ’30 del secolo scorso è un raro esempio di ‘tempesta perfetta’ dovuta alla sfortunata coincidenza temporale fra le fasi recessive di tre diversi tipi di cicli: il Kondratieff, lo Juglar e il Kitchin. In particolare, la riduzione dei profitti nei settori elettrico, chimico e automobilistico alla fine degli anni ’20 e all’inizio del 1930 riflettevano la fase finale di un ciclo di Kondratieff e culminarono nella Grande Depressione (Schumpeter, 1939, p. 754). Delli Gatti et al. (2012) hanno focalizzato l’attenzione su specifici eventi e rigidità che hanno esacerbato la Grande Depressione: gli effetti del cambiamento tecnico in agricoltura negli anni ’30. La crescente meccanizzazione dei processi produttivi in agricoltura, insieme ai costi elevati di riallocazione intersettoriale dei disoccupati ‘tecnologici’ e a una domanda anelastica di beni agricoli, hanno comportato una drastica riduzione dei redditi agrari. La riduzione dei redditi agrari ha comportato effetti recessivi a cascata in altri settori dell’economia americana. Gli effetti distruttivi del processo creativo delle innovazioni possono a volte essere talmente grandi da scuotere le fondamenta stesse della società e dell’economia di libero mercato. Come è noto, il sistema non si avvitò su sé stesso sino a implodere solo grazie al New Deal lanciato da Franklin Delano Roosevelt (anche se alcuni commentatori fanno notare che la ripresa definitiva dell’economia statunitense si ebbe solo grazie al keynesismo militare indotto dalla partecipazione degli USA alla Seconda Guerra Mondiale). La recente crisi finanziaria ed economica ha ancora una volta dimostrato in modo impressionante la vulnerabilità delle nostre economie, e mentre c’è chi crede che si tratti di un fenomeno puramente finanziario, al contrario c’è motivo di pensare che il cambiamento tecnico nel settore manifatturiero e la scarsa capacità di assorbimento del sistema nel suo insieme sia di grande importanza per comprendere quello che è successo (vedi ancora Delli Gatti et al., 2012 e la bibliografia da loro citata).

Per circa un secolo dalla pubblicazione degli Elements di Leon Walras non è stato possibile rispondere in modo soddisfacente alla questione della stabilità di un equilibrio economico generale (EEG). In altri termini, la convinzione largamente diffusa fra gli economisti mainstream riguardo la stabilità dei sistemi di mercato non era supportata da alcuna prova teorica convincente. Le cose sono cambiate nella prima metà degli anni ’70 con i contributi di Hugo F. Sonnenschein, Rolf Mantel e Gérard Debreu. Purtroppo, i risultati conseguiti da questi autori hanno finito per evidenziare la fragilità della visione convenzionale. In breve: è possibile dimostrare la stabilità di EEG solo se introduciamo sulla scena ipotesi molto forti sulle funzioni di eccesso di domanda aggregata accanto a quelle standard della teoria dell’EEG. Queste ipotesi aggiuntive implicano che gli agenti possiedono un’infinità di informazioni! La ragione di questo risultato negativo va ricercata nella interdipendenza dei diversi mercati: qualunque cosa accade in un dato mercato può influenzare ciò che accade in tutti gli altri mercati per poi ripercuotersi sul primo mercato, e così via. Il processo in genere comporta effetti di reddito. Pertanto, i salari più bassi nel mercato del lavoro determinano una minore domanda di beni di consumo, che a sua volta causa una minore domanda di lavoro, e così via. In un certo senso i flussi circolari di spesa del reddito che caratterizzano un’economia di libero mercato ostruiscono il funzionamento ‘regolare’ contemplato dalla visione convenzionale. Il risultato negativo relativo alla stabilità ha spinto diversi economisti, tra cui Martin Hellwig (2009, p. 340) e Alan Kirman (2011), a considerare la teoria dell’equilibrio generale della varietà Arrow-Debreu come un programma di ricerca fallito.14

Ciò che vale per la teoria dell’equilibrio generale propriamente detta si applica a maggior ragione alla moderna macroeconomia, che si vanta di rappresentare una versione semplificata della prima.

Arrow aveva da tempo espresso il suo disincanto per la teoria per la quale è stato insignito del premio Nobel. Ha sottolineato la difficoltà, se non l’impossibilità, di prevedere gli eventi economici futuri, dato che gli agenti economici basano le loro decisioni sulle loro aspettative riguardo al comportamento di tutti gli altri, che a loro volta si basano sulle proprie aspettative, ecc. Ciò richiede, come Keynes aveva sottolineato in particolare per quanto riguarda i mercati finanziari, di formulare aspettative sulle aspettative degli altri. L’economista, che cerca di predire lo sviluppo di un’economia, si trova quindi di fronte al compito erculeo di prevedere tutte queste aspettative interconnesse. Come Keynes aveva chiarito grazie alla famosa metafora del concorso di bellezza nel Capitolo 12 della sua Teoria Generale, e come il caso di Sherlock Holmes e Moriarty esemplifica in modo netto, assumere perfetta informazione conduce a formidabili difficoltà filosofiche.

Arrow ha insistito sul fatto che un sistema economico di mercato, per essere perfetto, avrebbe bisogno dell’esistenza di mercati per tutti i prodotti e servizi e tutti i possibili stati del mondo da oggi fino alla fine dei tempi. Tuttavia, non esiste un insieme completo di mercati nel senso di Arrow. In particolare, non possono esistere oggi mercati per beni e servizi che oggi non sono ancora stati inventati, e così torniamo al ruolo delle innovazioni: il grande tema di Schumpeter. Questo è il motivo per cui Arrow ha preso le distanze da un assunto fondamentale alla base della teoria dell’EEG – un’ipotesi sostenuta con forza anche da Hayek e dai suoi seguaci – cioè che i prezzi contengano tutte le informazioni necessarie di cui i singoli agenti hanno bisogno per prendere (buone) decisioni. Contro questa ipotesi Arrow ha sottolineato come una grande quantità di informazioni importanti non passa attraverso il sistema dei prezzi. Questo è esemplificato dai prezzi in un mercato finanziario immediatamente prima che scoppi una bolla. Questi prezzi dicono molto poco sul valore “vero” delle risorse. Da queste considerazioni risulta che non è possibile sostenere “l’ipotesi del mercato efficiente” per quanto riguarda i mercati finanziari.

In una conferenza che Arrow ha tenuto alla Banca nazionale austriaca il 22 ottobre 2013, ha sottolineato come le innovazioni comportino delle serie difficoltà per le ipotesi generalmente accettate nella teoria dell’EEG e possano portare al fenomeno del contagio e del comportamento imitativo (herd behaviour):

Un fattore chiave nell’organizzazione dell’economia è il set di credenze che ognuno ha riguardo gli altri. Le persone cambiano le proprie credenze con la ricerca, il calcolo, l’analisi, e quando si analizza la questione correttamente, questo da luogo a considerevoli anomalie rispetto alle teorie standard che io e molti altri abbiamo sviluppato. Quindi in un certo senso mi trovo in difficoltà rispetto al lavoro che ho fatto in passato (Volantino che annuncia la conferenza di Arrow, Austrian National Bank).

È forse interessante notare che un professionista della politica monetaria, l’ex governatore della Bank of England, Mervyn King, arrivò alla visione ultra critica: “It is hubris to think that we understand how the economy works, we don’t.” Il suo giudizio si applica naturalmente alla macroeconomia convenzionale (e non a una qualsiasi delle visioni eterodosse).

Passiamo ora brevemente a considerare l’ultimo punto sollevato da Blanchard e Summers, cioè se gli shock temporanei possono avere effetti a lungo termine. Da un punto di vista keynesiano o kaleckiano la risposta è ovvia.

 

5. Effetti a lungo termine degli eventi di breve periodo

Come notato da Sraffa (1960), esiste un punto di vista alternativo a quello neoclassico sui meccanismi di funzionamento di un’economia di mercato e sul ruolo dei prezzi. Tale punto di vista, sviluppato dagli economisti classici si concentra su quelle caratteristiche di un sistema economico che non dipendono dal cambiamento né della proporzione fra i fattori produttivi né nella scala di produzione. Pertanto, il punto di vista classico, al contrario di quello neoclassico, non è vincolato a dover costruire e analizzare economie controfattuali in cui avvengono cambiamenti virtuali infinitesimi. Il metodo classico di fare teoria economica conduce a risultati analitici sostanzialmente differenti da quelli raggiunti dalla teoria neoclassica.

In particolare, nella teoria classica non vi è alcuna presunzione che il sistema economico tenda alla piena occupazione delle sue risorse produttive, in particolare del lavoro. La disoccupazione involontaria del lavoro è piuttosto vista come un fenomeno normale non solo nel breve, ma anche nel lungo periodo in un’economia concorrenziale; si veda in questo contesto in particolare la discussione di Ricardo sulla riduzione della domanda di lavoro a causa dell’introduzione e della diffusione di macchinari e di altre forme di progresso tecnico.

Anche i modelli macroeconomici neo-keynesiani prevedono una disoccupazione persistente in equilibrio. Blinder (1987, p. 134) si era retoricamente chiesto: “e se ci fosse una tendenza sistematica dell’output ad essere troppo basso in media?” e si era risposto: “allora l’obiettivo keynesiano di innalzare i picchi negativi senza abbassare quelli positivi inizia ad avere senso”. Va sottolineato però, che diversamente dall’economia classica, i modelli neo-keynesiani riconducono la disoccupazione alle imperfezioni del mercato del lavoro e alle frizioni di vario genere che impediscono all’economia di giungere rapidamente (o del tutto) in una posizione di piena occupazione; vedi, per esempio, Blanchard e Galí (2008). Questi modelli di Blanchard e altri condividono il concetto neoclassico di prezzi come indici di scarsità relativa, concetto che non si trova negli economisti classici, come vedremo fra breve (su questo punto, vedi anche Brancaccio in Blanchard e Brancaccio, 2019).

Menzioniamo solo di sfuggita il fatto che vari autori da lungo tempo hanno espresso dubbi sulla compatibilità del capitalismo con la piena occupazione permanente del lavoro. Come ha sottolineato Kalecki (1943) la piena occupazione erode la disciplina del lavoro e modifica gli equilibri di potere dai proprietari di capitali ai lavoratori e ai sindacati. Il fatto che vi sia o meno pieno impiego ha conseguenze politiche, oltre che strettamente economiche.

Il fondamento della visione degli economisti classici del sistema economico si riflette nella loro teoria dei prezzi relativi e alla distribuzione del reddito. Secondo Smith e Ricardo, i prezzi ‘naturali’ non svolgono il compito di guidare l’economia verso la piena occupazione. Al contrario della teoria neoclassica, nella teoria classica i prezzi delle merci riproducibili in settori in cui prevale la free competition riflettono la distribuzione del prodotto tra i lavoratori, i proprietari dei beni capitali, e i proprietari delle risorse naturali, in condizioni istituzionali socio-storicamente determinate. Al contrario di quanto avviene nella teoria neoclassica, la distribuzione del reddito non è spiegata dai Classici con riferimento alla domanda e alla offerta di fattori produttivi. Solo in relazione alle risorse naturali, in determinate condizioni, può esserci una spiegazione di una quota distributiva (la rendita della terra) in termini di produttività marginale. In particolare, il profitto non è visto come la remunerazione del fattore capitale determinata dalla sua produttività marginale: il profitto per i Classici è un reddito residuale che si determina all’interno di un dato sistema di produzione e dati i salari reali (o la quota dei salari).15

Nell’impostazione neoclassica, un’economia concorrenziale si trova sulla frontiera delle sue possibilità produttive, frontiera, come è noto, determinata dalla tecnologia disponibile, dalla dotazione (endowment) di fattori produttivi e da fattori istituzionali (ad es., grado di protezione dei diritti di proprietà, enforcement dei contratti, grado di apertura al commercio internazionale etc.), oltre che dalle preferenze dei proprietari dei fattori produttivi. In altri termini, non vi è spazio per il problema del sottoutilizzo delle risorse produttive nel lungo periodo. Si tratta di una visione che trova riscontro nei fatti oppure di una illusione ottica? La domanda è meno ingenua di quanto possa apparire a prima vista. Una peculiarità dei sistemi vincolati dalla domanda (demand-constrained) è che per periodi di tempo più lunghi la capacità in eccesso non diventa pienamente visibile e l’osservatore può facilmente cadere vittima dell’illusione che essa sia di fatto quasi sempre pienamente utilizzata. Per quanto riguarda il lavoro, è stato da tempo messo in luce con il fenomeno del de-skilling: essere a lungo inattivi è accompagnato da un graduale deterioramento delle competenze e anche della capacità di lavorare. Per quanto riguarda gli impianti e le attrezzature, una loro sottoutilizzazione protratta nel tempo implica un disincentivo agli investimenti netti, un ridotto tasso di formazione di nuovo capitale, un più lento assorbimento del progresso tecnologico nel sistema produttivo (i beni capitali nuovi sono di norma quelli che incorporano le nuove tecnologie), di conseguenza un minore saggio di crescita del PIL effettivo e potenziale. Quindi un livello di domanda aggregata effettiva insufficiente a garantire il pieno impiego della capacità produttiva per un periodo di tempo ha effetti sia nel breve periodo, a causa di una sottoutilizzazione della capacità, sia nel lungo periodo, per una riduzione di ulteriori incrementi di capacità produttiva.

Assumiamo due economie identiche tranne per il fatto che la prima, grazie ad una migliore politica di stabilizzazione, riesce a realizzare in media, in una serie di boom e slump, un tasso medio di utilizzo della capacità più elevato rispetto alla seconda economia per cui la prima economia cresce all’8% all’anno, mentre la seconda cresce solo del 7%. Questo può sembrare un problema insignificante, e nel breve periodo lo è sicuramente, ma dopo circa 70 anni la prima economia ha una dimensione doppia della seconda malgrado avessero la stessa dimensione all’inizio. Quindi la domanda effettiva è importante sia nel breve che nel lungo periodo. L’esperienza suggerisce anche che non vi è motivo di presumere che ci si possa aspettare che i risparmi effettivi si muovano sufficientemente vicino alla piena occupazione e ai risparmi di piena capacità. Persistentemente alti saggi di disoccupazione in molti paesi, sia sviluppati che meno sviluppati, indicano fortemente che i problemi di crescita e sviluppo non possono essere adeguatamente trattati se si assume il pieno impiego.

Mentre la forza lavoro diminuisce a causa della persistente disoccupazione causata da un effettivo calo della domanda, il capitale sociale cresce a un ritmo più lento di quello che sarebbe altrimenti possibile. In entrambi i casi gli effetti di una domanda effettiva insufficiente sono nascosti. L’osservatore disattento potrebbe effettivamente concludere che a lungo termine si può presumere che il sistema operi in condizioni di piena occupazione del lavoro e prossimo al pieno utilizzo della capacità, mentre ciò che è realmente accaduto è che la domanda effettiva ha rallentato la crescita dell’offerta economica. È un equivoco in cui facilmente cadono gli economisti dell’offerta (supply side) che il lato dell’offerta può essere studiato senza tenere conto della domanda effettiva.

Nell’assumere la piena occupazione del lavoro e il pieno utilizzo della capacità produttiva, le teorie neoclassiche, vecchie e nuove, seguono l’esempio di Solow che, nel suo contributo del 1956, ha esplicitamente accantonato i problemi di domanda effettiva e ha assunto quella che definiva una “tight rope view of economic growth” (Solow 1956). Ciò non significa che non ci siano problemi di questo tipo, come Solow ha sottolineato più volte, e anche più di recente (vedi Aghion e Durlauf, 2005, p. 5). Nonostante i suoi avvertimenti, i teorici della crescita neoclassica, tra cui Lucas, hanno continuato a preoccuparsi quasi esclusivamente della dinamica dell’output potenziale, ossia di quell’ipotetico (e inosservabile) livello dell’output che le economie sarebbero in grado di generare qualora tutti gli input fossero costantemente impiegati in modo tale da non generare dinamiche inflattive. La possibilità che l’output effettivo diverga in modo persistente dall’output potenziale a causa di una insufficienza di domanda aggregata e la possibilità che la dinamica stessa dell’output potenziale sia influenzata dalla dinamica della domanda aggregata non vengono di norma prese in seria considerazione.

Prova ne sia che l’indice per materia dell’Handbook of Economic Growth appena citato non ha alcuna voce su capacity utilization o su capital utilization. Ignorare il lato della domanda, cioè assumere la variante neoclassica della Legge di Say, può essere giustificato in termini dell’importanza della crescita di lungo periodo rispetto alle fluttuazioni di breve periodo. Ma questi autori sono vittime dell’illusione di cui sopra.

 

6. Osservazioni conclusive

Alla luce di quanto sopra, ci sia permesso di dubitare che l’“evoluzione” della macroeconomia mainstream andrà nella direzione di una più approfondita comprensione dei meccanismi di funzionamento delle economie contemporanee. Da parte nostra siamo inclini a pensare che sia piuttosto necessaria una “rivoluzione”. Uno dei significati del termine “rivoluzione” è quello di richiamare alla memoria un precedente stato di cose, politico, economico o scientifico. Nelle scienze politiche questo può significare che una società sconvolge un sistema tirannico, considerato come illegittimo, e ritorna ad un ordine sociale e politico, che è considerato legittimo. Per venire alla nostra disciplina, la scienza economica, sarebbe rivoluzionario un ritorno al modo in cui gli economisti classici e Keynes hanno rappresentato il sistema economico e compreso il suo funzionamento. A nostro avviso, una rivoluzione di tal genere condurrebbe la nostra disciplina fuori dalle secche in cui si trova al momento incagliata e restituirebbe agli economisti la stima e il rispetto di cui un tempo godevano presso l’opinione pubblica.

Anche se siamo consapevoli che occorre definire una metrica del merito per potere giudicare una teoria migliore di un’altra, nondimeno corriamo il rischio di elencare gli elementi che ci sembrano indispensabili per elaborare una teoria macroeconomica migliore dell’esistente.

  1. Abbandonare l’assunto dell’“agente rappresentativo”. Il processo economico è in gran parte generato da interessi, punti di vista, comportamenti individuali contrastanti.
  2. Abbandonare l’assunzione di un solo bene prodotto e prevedere l’esistenza di diversi settori produttivi nell’economia; distinguere almeno tra un settore che produce beni capitali e uno che produce beni di consumo.
  3. Abbandonare il punto di vista secondo cui la “quantità di capitale” nell’economia in un determinato momento può essere fornita indipendentemente dai prezzi relativi e dal saggio di rendimento del capitale e ammettere il fatto che il valore del capitale cambia al variare della distribuzione del reddito.
  4. Abbandonare il punto di vista secondo cui il progresso tecnico può essere paragonato alla Manna dal cielo o alla pioggia calda che cade in modo uniformemente su ogni angolo della terra, aumentando la produttività in modo regolare e costante, e includere il fatto che le innovazioni comportino la distruzione dell’economia e un processo di distruzione creativa, in cui la parte reale e la parte monetaria dell’economia interagiscono.
  5. Abbandonare il punto di vista secondo cui esiste una sola forma di progresso tecnico e consentire forme diverse che tipicamente hanno effetti diversi su quantità e qualità dell’occupazione del lavoro, sulla struttura dell’economia, sulle forme di mercato e più in generale sul sistema sociale e politico.16
  6. Abbandonare il punto di vista secondo cui il settore finanziario e monetario dell’economia
  7. è intrinsecamente stabile ed efficiente e prevedere i fenomeni di contagio e comportamento imitativo (vedere, ad esempio, Minsky, [1986] 2008 e Kirman, 2011).
  8. Abbandonare la Legge di Say e l’opinione secondo cui gli investimenti e i risparmi sono portati in equilibrio dal saggio di interesse e ammettere il fatto che l’economia può essere caratterizzata anche per lunghi periodi di tempo da un livello insoddisfacente di impiego della forza-lavoro e della capacità produttiva.
  9. Abbandonare il punto di vista secondo cui la crescita e lo sviluppo dell’economia sono guidati in primo luogo dai consumatori e dai risparmiatori piuttosto che dagli investitori e dagli innovatori e riconoscere il fatto che in un’economia con sofisticate istituzioni finanziarie non è il risparmio delle famiglie a limitare la capacità di finanziamento degli investimenti operati dalle imprese (vedere Schumpeter, [1912] 1934).
  10. Abbandonare il punto di vista secondo cui l’uso e l’esaurimento delle risorse naturali non incidono in modo rilevante sull’economia e possono dunque essere trascurati e prendere consapevolezza del fatto che il prezzo di una risorsa naturale può mostrare forti oscillazioni anche se la quantità prodotta e utilizzata della risorsa segue un andamento costante nel tempo (vedere Sraffa, 1960; e Kurz e Salvadori, 2015, parte V).
  11. Abbandonare il punto di vista secondo cui ciò che conta sono solo le conseguenze previste di azioni umane pianificate. Occorre prendere sul serio l’intuizione dell’Illuminismo scozzese: la metafora della “mano invisibile” si riferisce principalmente alle conseguenze non intenzionali dell’agire umano. Per usare le parole di Adam Ferguson: “History is the result of human action, but not of human design.”

Il decalogo sopra tratteggiato consentirebbe all’economista contemporaneo di tornare ad analizzare il proprio oggetto di studio dalla prospettiva degli economisti classici, da Adam Smith a Ricardo, e da quelle di Keynes e Kalecki. Salendo sulle spalle di questi giganti del passato, l’economista contemporaneo potrebbe godere di un punto di osservazione privilegiato da cui guardare più lontano.


Kurz: University of Graz, email: This email address is being protected from spambots. You need JavaScript enabled to view it. Salvadori: Università di Pisa, email: This email address is being protected from spambots. You need JavaScript enabled to view it.

* Contributo al numero speciale di Moneta e Credito dal titolo “Crisi e rivoluzioni della teoria e della politica economica: un simposio”, ispirato dal dibattito tra Olivier Blanchard e Emiliano Brancaccio tenutosi presso la Fondazione Feltrinelli a Milano il 18 dicembre 2018. Numero a cura di Emiliano Brancaccio e Fabiana De Cristofaro. Siamo grati a Tony Aspromourgos, a Peter Spahn e specialmente a Rodolfo Signorino per utili commenti e suggerimenti ricevuti su precedenti bozze di questo lavoro. Ci piacerebbe anche ringraziare due anonimi referees per i preziosi commenti e gli eccellenti suggerimenti. Tutti gli errori e i giudizi erronei che ancora persistono sono, ovviamente, una nostra completa responsabilità.

Note
1 Diversi economisti hanno sottolineato, giustamente a nostro avviso, che la crisi è stata in parte alimentata dalla teoria macroeconomica contemporanea, basata su modelli DSGE, che ha informato la politica economica di banche centrali, di governi e di istituzioni sovranazionali. Questi modelli non consentono crisi finanziarie e quindi rendono ciechi gli operatori riguardo alla possibilità e all’attualità di tali crisi. Vedi in questo contesto soprattutto Buiter (2009) e, più recentemente, Alan Kirman (2011) e Paul Romer (2015; 2016). Anche Paul Krugman e Joseph Stiglitz hanno ripetutamente espresso il loro disincanto nei confronti della macroeconomia moderna.
2 Hyman Minsky nel suo Stabilizing an Unstable Economy ([1986] 2008) ha chiarito perché le economie capitaliste con un sistema finanziario sofisticato sono inclini all’instabilità che emerge da quel sistema e interagisce con la parte reale dell’economia.
3 Ci sono anche scuole di pensiero che evitano questo e altri presupposti menzionati nel seguito. In un breve articolo come questo non possiamo coprire tutti i diversi sviluppi nell’area in esame. Sottolineiamo quindi che non tutte le critiche avanzate si applicano indiscriminatamente a ciascuno delle numerose scuole di pensiero elaborate negli ultimi anni, anche come reazione al fallimento della teoria nello spiegare la grande recessione.
4 Per quanto segue, si veda anche la ricostruzione di David Laidler (2009) del perché la macroeconomia moderna si sia sviluppata come si è sviluppata e la critica a Lucas di Alan Blinder (1987) e la sua difesa di Keynes.
5 Blinder (1987, p. 135) ha scritto: “Must we be restricted to microfoundations that preclude the colossal market failures that created macroeconomics as a subdiscipline?”
6 Inoltre, gli autori Classici non hanno avanzato l’idea di relazioni quantitativamente definite tra il prezzo di una cosa e la quantità di esso domandata o offerta nel mercato.
7 Il successo del libro di Piketty (2014) si può ricondurre almeno in parte alla trascuratezza delle questioni relative alla distribuzione del reddito e della ricchezza in economia, che era sotto l’incantesimo dell’agente rappresentativo.
8 Forni e Lippi non sostengono che l’aggregazione sia di per sé negativa, ma lo è quella basata sull’agente rappresentativo.
9 Gorman (1961) ha individuato le condizioni necessarie e sufficienti per trattare una società di agenti massimizzanti l’utilità come se fosse costituita da un singolo individuo “rappresentativo”. Dover assumere che le preferenze abbiano la Gorman polar form per aggrapparsi alle “microfondazioni” è chiaramente un caso grossolano di scelte volutamente ad hoc. (Le preferenze omotiche, che sono ampiamente utilizzate in questo tipo di letteratura, soddisfano le condizioni di Gorman.)
10 Per quanto segue, vedi Kurz e Salvadori (1995, cap. 14), Harcourt (1972), Garegnani (1970) e Petri (2016).
11 Qui non ci occupiamo del problema che è stato chiamato la “probabilità” del reswitching, che è un problema spinoso. Ai fini di questo articolo è sufficiente indicare casi che contraddicono le “cherished beliefs” di cui sopra.
12 Un esempio calzante è, naturalmente, uno dei pionieri della moderna economia mainstream, Kenneth Arrow; si veda la sezione seguente.
13 Un caso emblematico è Schumpeter, che in un saggio pubblicato nel 1917 difese la tradizionale teoria della domanda e dell’offerta di lungo periodo contro l’accusa di non essere in grado di spiegare i fatti, in particolare la distribuzione del reddito. Gran parte del suo lavoro mostra un affermato economista neoclassico che sottolinea il ruolo del “principio di sostituzione” nella produzione e nel consumo. Sulla base di questo principio sostiene la tradizionale domanda monotonicamente decrescente per i servizi dei fattori, cioè, ∂qij ⁄ ∂ej ≤ 0, dove qij è la quantità di fattore necessaria per produrre una unità di merce i ed ej è il saggio di remunerazione del servizio del fattore j. Ma poi, improvvisamente, Schumpeter mostra il suo senso delle “anomalie” che minano la dottrina che ha appena decantato: fa riferimento a una forma non convenzionale della curva di domanda per il lavoro e traccia un’analogia tra questa e il “paradosso di Giffen” nella teoria del consumo. Schumpeter osserva: “it could happen that consequent upon a rise in wages the entrepreneur finds it advantageous to forego to a larger extent quantities of other means of production and increase his demand for labour” (Schumpeter, 1916-1917, pp. 85-86 n.).
14 È significativo notare (vedi Hellwig, 2009, p. 340 n.) che Arrow non ha incluso nei suoi Collected Papers i suoi contributi al problema della stabilità dell’equilibrio economico generale elaborati alla fine degli anni ’50.
15 Naturalmente, anche i salari possono essere concettualizzati come reddito residuo, a condizione che sia garantito un livello minimo, che si ottiene all’interno di un dato sistema di produzione e con il saggio di profitto che riflette la politica della banca centrale e il suo impatto sui mercati finanziari.
16 C’è ragione di presumere che il “capitalismo dei dati” basato su “tecnologie intelligenti”, l’Intelligenza artificiale e accompagnato dall’ascesa di “superstar firms” (David Autor) influenzi il sistema socio-economico e alteri il suo funzionamento; si veda, per esempio, la discussione in Kurz et al. (2018).

Bibliografia
Aghion P. e Durlauf S. N. (a cura di) (2005), Handbook of Economic Growth, 2 voll., North-Holland: Elsevier Blanchard O. e Brancaccio E. (2019), “Pensare un’alternativa. Dialogo tra Olivier Blanchard e Emiliano Brancaccio”, Micromega, 2, pp. 7-30; (cfr. anche Blanchard O. e Brancaccio E., “Crisis and Revolution in Economic Theory and Policy: A Debate”, Review of Political Economy, published online 6 August 2019).
Blanchard O. e Summers L.H. (2017), “Rethinking Stabilization Policy: Evolution or Revolution?”, NBER Working Paper, n. 24179, Cambridge (MA): National Bureau of Economic Research.
Blanchard O. e Summers L.H. (2019), “Ripensare la politica macroeconomica: evoluzione o rivoluzione?”, Moneta e Credito, 72 (287), pp. 171-195 (trad. it. di Blanchard e Summers, 2017).
Blanchard, O. e Galì, J. (2008), “A New Keynesian Model with Unemployment”, NBER Working Papers, n. 13897, marzo, Cambridge (MA): National Bureau of Economic Research.
Blinder A.S. (1987), “Keynes, Lucas, and Scientific Progress”, American Economic Review, 77(2), pp. 130-136. Brancaccio, E. (2017). Anti-Blanchard. Un approccio comparato allo studio della macroeconomia, Milano, Franco Angeli, terza edizione.
Brancaccio E. e Califano A. (2018), Anti-Blanchard Macroeconomics. A Comparative Approach, Cheltenham (UK) e Northampton (MA, USA): Edward Elgar.
Buiter W.H. (2009), “Central Banks and Financial Crises”, paper presentato al simposio della Federal Reserve Bank of Kansas City’s Maintaining Stability in a Changing Financial System, Jackson Hole, Wyoming, 21-23 agosto 2008, pp. 495-633.
Delli Gatti D., Gallegati D.M., Greenwald B.C., Russo A. e Stiglitz J.E. (2012), “Mobility Constraints, Productivity Trends, and Extended Crises”, Journal of Economic Behavior and Organization, 83 (3), pp. 375-393.
Fisher F.M. (1992), Aggregation: Aggregate Production Functions and Related Topics, in Collected Papers by Franklin M. Fisher, a cura di John Monz, Cambridge (MA): The MIT Press.
Forni M. e Lippi M. (1997), Aggregation and the Microfoundations of Dynamic Macroeconomics, Oxford: Oxford University Press.
Garegnani P. (1970), “Heterogeneous Capital, the Production Function and the Theory of Distribution”, The Review of Economic Studies, 37 (3), pp. 407-436.
Gorman W.M. (1961), “On a Class of Preference Fields”, Metroeconomica, 13, pp. 53-56.
Harcourt G.C. (1972), Some Cambridge Controversies in the Theory of Capital, Cambridge: Cambridge University Press.
Hellwig M. (2009), “Kenneth Joseph Arrow”, in Kurz H.D. (a cura di), Klassiker des ökonomischen Denkens, vol. 2 (pp. 320-353), Munich: Beck.
Hicks J.R (1939), Value and Capital, Oxford: Oxford University Press.
Kalecki M. (1943), “Political Aspects of Full Employment”, The Political Quarterly, 14 (4), pp. 322-330.
Kirman A. (2011), Complex Economics: Individual and Collective Rationality. The Graz Schumpeter Lectures, London: Routledge.
Kurz H.D. (2010), “On the Dismal State of a Dismal Science?”, Homo Oeconomicus, 27 (3), pp. 369-389. Kurz H.D. e Salvadori N. (1995), Theory of Production, Cambridge: Cambridge University Press.
Kurz H.D. e Salvadori N. (2015), Revisiting Classical Economics. Studies in Long-Period Analysis, London: Routledge.
Kurz H.D., Schuetz M., Strohmaier R. e Zilian S. (2018), “Riding a New Wave of Innovations. A Long-Term View at the Current Process of Creative Destruction”, Wirtschaft und Gesellschaft, 44 (4), pp. 545-583.
Laidler D. (2009), “Lucas, Keynes, and the Crisis”, Journal of the History of Economic Thought, 32 (1), pp. 39-62. Levhari D. (1965), “A Non Substitution Theorem and Switching of Techniques”, Quarterly Journal of Economics, 79, pp. 98-105.
Lucas R.E. (1976), “Econometric Policy Evaluation: A Critique”, in Carnegie-Rochester Conference Series on Public Policy, vol. 1, pp. 19–46. doi:10.1016/S0167-2231(76)80003-6
Lucas R.E. (1988), “On the Mechanics of Economic Development”, Journal of Monetary Economics, 22 (1), pp. 3-42. Lucas R.E. (2002), Lectures on Economic Growth, Cambridge (MA) e London: Harvard University Press.

Lucas R.E. (2004), “Keynote Address to the 2003 HOPE Conference: My Keynesian Education”, History of Political Economy, supplemento annuale, 36 (5), pp. 12-24.
Mas Colell A. (1989), “Capital Theory Paradoxes: Anything Goes”, in Feiwel R. (a cura di), Joan Robinson and Modern Economic Theory (pp. 505-520), London: Macmillan.
Mill J.S. ([1848] 1965), Principles of Political Economy with Some of Their Applications to Social Philosophy, 1a ed., in: Collected Works, a cura di J. M. Robson, Vol. III. Toronto: Toronto University Press. Minsky H. ([1986] 2008), Stabilizing an Unstable Economy, 1a ed., New York: McGraw-Hill.
Opocher A. e Steedman I. (2015), Full Industry Equilibrium, Cambridge: Cambridge University Press.
Petri F. (2016), “Capital Theory”, in Faccarello G. e Kurz H.D. (a cura di), Handbook on the History of Economic Analysis, vol. II: Developments in Major Fields of Economics (pp. 40-69), Cheltenham (UK) e Northampton (MA, USA): Edward Elgar.
Piketty T. (2014), Capital in the 21st Century, Cambridge (MA): Harvard University Press.
Romer P.M. (2015), “Mathiness in the Theory of Economic Growth”, American Economic Review, 105 (5), pp. 89-95. Romer P.M. (2016), “The Trouble with Macroeconomics”, disponibile alla URL: https://ccl.yale.edu/sites/default/files/files/The%20Trouble%20with%20Macroeconomics.pdf. Samuelson P.A. (1947), Foundations of Economic Analysis, Cambridge (MA): Harvard University Press. Samuelson P.A. (1966), “A Summing Up”, Quarterly Journal of Economics, 80 (4), pp. 568-583.
Schumpeter J.A. (1916-1917), “Das Grundprinzip der Verteilungstheorie”, Archiv für Sozialwissenschaft und Sozialpolitik, 42, pp. 1-88.
Schumpeter J.A. ([1912] 1934), Theory of Economic Development, Cambridge (MA): Harvard University Press (trad. ingl. della seconda edizione tedesca).
Schumpeter J.A. (1939), Business Cycles, 2 voll., New York: McGraw Hill.
Smith A. ([1776] 1976), An Inquiry into the Nature and Causes of the Wealth of Nations, in Campbell R.H. e Skinner A.S. (a cura di), The Glasgow Edition of the Works and Correspondence of Adam Smith, 2 voll., Oxford, Oxford University.
Solow, R. (1956). “A Contribution to the Theory of Economic Growth”. Quarterly Journal of Economics, Vol. 70, No. 1 (Feb., 1956), pp. 65-94.
Sraffa P. (1960), Production of Commodities by Means of Commodities. Prelude to a Critique of Economic Theory, Cambridge: Cambridge University Press.
Pin It

Add comment

Submit