Print Friendly, PDF & Email

appelloalpopolo2 

I fondamenti teorici del neoliberalismo

di Jacques Sapir

Sapir propone un’interessante rassegna dei gravi problemi teorici che smentiscono la pretesa dell’economia neoclassica dominante di essere scienza e la squalificano in una costruzione ideologica di un mondo irreale di eleganze matematiche, nel quale gli individui possono evitare legami istituzionali semplicemente abbandonandosi all’avidità, che genera a loro insaputa un sistema neutro, privo di solidarietà e di conflitto

beckmann la sinagoga a francoforte sul meno espressionismoLa teoria neoclassica, ossia la teoria dell’equilibrio generale, continua a permeare numerosi commenti o riflessioni. Questo è particolarmente chiaro per quanto concerne il «mercato» del lavoro, e la volontà dell’attuale governo di far passare, «di forza» se fosse necessario, tutta una serie di misure che riporterebbero i lavoratori a una situazione di isolamento, che è proprio quella descritta dalla teoria neoclassica. Infatti quest’ultima ignora le istituzioni oppure cerca di ridurle a semplici contratti, benché esse siano ben altra cosa.

Bisogna dunque tornare su questo paradigma dell’equilibrio, e più fondamentalmente su ciò che si chiama la Teoria dell’Equilibrio Generale o TEG. È chiaro che non si tratta di una congettura facilmente confutabile o, in tutti casi, che essa non è percepita come tale nella professione. Eppure il suo irrealismo ontologico pone un vero problema. Costruita attorno alla descrizione di un mondo immaginario, essa serve nondimeno ad alcuni di guida per comprendere la realtà. Facendo questo, essa si svela come un’ideologia (una «rappresentazione del mondo»), e una ideologia al servizio di interessi particolari, e non come una teoria scientifica.

 

L’origine della teoria neoclassica

Qui occorre ricordare che la TEG si costituisce con un atto di forza teorico da parte di Léon Walras, che decide di considerare l’economia come un insieme di mercati dipendenti l’uno dall’altro e da nessun’altra situazione1. Questo atto di forza si adornava inoltre con le penne di una formalizzazione matematica che gli dava l’apparenza di solidità teorica2. Quello che certamente convinse economisti sempre più numerosi a volgersi verso questo approccio che in apparenza voltava le spalle alla realtà e al realismo fu il suo carattere rivoluzionario. Per la prima volta si pretendeva di disporre di un sistema di spiegazione dell’economia tanto globale quanto coerente, in cui questa non aveva altro riferimento che se stessa3. In questo senso, mentre il marxismo, benché si presenti come una critica dell’economia politica classica, conserva legami importanti con la tradizione emergente dal XVIII secolo, la TEG si presenta come una rottura radicale. Si comprende allora il suo potere di fascinazione sugli economisti, potere che fu rafforzato dopo che Arrow e Debreu elaborarono una formulazione moderna della sua assiomatica4.

Tuttavia questa fascinazione non è stata mai generale5. Le controversie si sono moltiplicate, e alcuni hanno attaccato il «nocciolo duro» della TEG, ossia l’ipotesi delle preferenze individuali indipendenti di ogni agente. Di fronte a nuovi dibattiti, tra cui per esempio quello sull’organizzazione, la TEG è portata a diversificarsi con il rischio di perdere la sua coerenza6. Più fondamentalmente, a corrodere oggi le basi del suo dominio ci sono i dubbi sulla sua capacità di rendere conto del decentramento degli agenti e delle decisioni. Questo processo accelera le sue tendenze latenti a trasformarsi in un puro discorso normativo, a detrimento delle sue funzioni descrittive, predittive o interrogative; si assiste allora alla costituzione della TEG in ortodossia, con tutti gli irrigidimenti ideologici e politici che questo implica.

Ciò da cui è colpito l’osservatore è allora, più che la generalità della fascinazione, la sua stabilità nel tempo. A dispetto di molteplici critiche provenienti da orizzonti diversi, la TEG sembra emergere sempre dai dibattiti come la posizione naturale della maggioranza degli economisti. Che ci siano ragioni istituzionali di questa situazione è evidente. Basta considerare chi siano stati gli autori insigniti col premio Nobel in economia per rendersene conto. A questo C. Johnson, grande specialista di economia giapponese, ha aggiunto perfidamente che la proporzione di economisti americani insigniti con questo premio sia correlata al declino dell’economia americana7. Sotto questo punto polemico si nasconde un problema ben reale. La forza della TEG dipende ormai tanto dalla sua capacità socialmente normativa legata alla sua pervasività delle istituzioni accademiche quanto dalla sua capacità di rispondere o di integrare le critiche che le sono fatte.

 

Una teoria dei mercati che trascura il mercato

Il procedimento di Walras consisteva nel mettere in ordine un sistema di mercati interdipendenti. Per farlo, ha dovuto sacrificare la stessa teoria del mercato. Ce se ne rende ben conto se si cerca una definizione di «mercato» nelle opere moderne ispirate alla TEG. Sicuramente si troveranno numerose definizioni convergenti di ciò che si ritiene il mercato realizzi, ossia un equilibrio delle offerte e delle domande. Ma dire ciò che un sistema produce non ci dice come lo faccia8 né quale sia la sua natura9.

La TEG ci propone un metodo per arrivare all’equilibrio: il procedimento per tentativi. Si tratta del processo di confronto tra offerte e domande che si ritiene finisca con l’equilibrio, e che costituisce dunque il cuore della teoria dell’equilibrio10. Di fatto, lo si può considerare come un «gioco», nel senso di una attività retta da regole strette e formali. Questo finisce col far sparire la nozione di rapporto di forza tra i partecipanti a uno scambio, ciò che costituisce la prima deviazione della TEG dal realismo.

Nel caso del modello walrasiano, la regola essenziale è che nessuno scambio deve avere luogo prima che i prezzi di equilibrio siano stati determinati. Ora, si sa in quale condizione si finisca nell’equilibrio, ma non si sa come sia apparsa questa condizione, una certa matrice di prezzi relativi. Si può allora supporre un procedimento per tentativi che non sia walrasiano, nel senso che esso accetta l’ipotesi di scambi che abbiano luogo prima che questi prezzi siano stati determinati11. In questo caso bisogna però essere espliciti sulle istituzioni che conducono gli agenti ad avvicinarsi ai prezzi «giusti» e dimostrare che il processo sia naturalmente convergente. Altrimenti bisogna esplicitare le configurazioni dei rapporti di forza che spingerebbero i partecipanti a uno scambio ad accettare di procedere a questo scambio sebbene gli uni traggano ben più profitto degli altri. Su questa strada si torna molto rapidamente alla spiegazione di Marx sul monopolio sociale di una classe sui mezzi di produzione…

Appena si considerano le condizioni del procedimento per tentativi walrasiano, si può mostrare che esso implica12:

  • Una struttura di comunicazione tra gli agenti (nell’ipotesi molto forte che ogni segnale osservabile sia vero e intelligibile senza trattamento).
  • Una struttura di aggiustamento dei segnali che si faccia senza costi e in modo altruista.
  • Un arresto di ogni operazione non appena un risultato non sia dato dal procedere per tentativi.
  • Delle ipotesi molto importanti sul rapporto ai prezzi degli agenti (essi assumono i prezzi), sui loro comportamenti e sulla semplicità delle informazioni necessarie.
  • Una struttura di sorveglianza e di punizione, capace di eliminare i devianti e di impedire che si svolgano dei consumi e delle produzioni prima della determinazione dell’equilibrio.

In effetti per funzionare il procedimento per tentativi esige che nessuno degli operatori sia tale da pesare sui prezzi, che ogni agente abbia una conoscenza perfetta delle offerte e delle domande espresse dagli altri agenti, che si annulli il tempo che scorre durante il processo, infine che sia assolutamente vietato a chiunque di contrattare prima che i «veri prezzi» siano stati messi in luce dal procedere per tentativi, ciò che suppone un controllo centralizzato sull’insieme dei flussi. In effetti tutto ciò rassomiglia molto a una Unione Sovietica ideale, compreso il grado fortissimo di costrizione.

Molti autori che si richiamano alla TEG erano coscienti di questo paradosso. Hanno dunque cercato strategie per eludere il problema, per ottenere gli stessi risultati in tema di equilibrio, ma senza dover supporre una pesante struttura implicita che assicuri l’equilibrio ex ante. C’è dunque tutta una tradizione che ha provato a riformulare l’ipotesi walrasiana centrale nel senso del realismo. La sfida è allora di mostrare che esistono condizioni che assicurano automaticamente il risultato che in una borsa valori avrebbe bisogno di un intervento diretto e ben visibile.

 

Una teoria che nega il ruolo della moneta

La stessa base del ragionamento neoclassico poggia sulla capacità per gli agenti (ossia gli imprenditori, gli investitori e i lavoratori) di attribuire valori monetari alla totalità del loro ambiente. Nello stesso tempo la moneta è considerata come perfettamente neutra nell’economia neoclassica ed essa è allontanata dalla discussione per mezzo della Legge di Walras.

Ora, uno scambio monetario non è identificabile al baratto per una ragione essenziale: l’esistenza di una asimmetria di informazione tra il produttore-venditore e il compratore. Si reputa che la valutazione monetaria del valore del bene limiti il problema dell’asimmetria13. A partire dal momento in cui esiste una differenziazione dei beni e in cui la totalità degli agenti non possiede un’esperienza preliminare della totalità dei beni e dei servizi disponibili, si può ragionevolmente considerare che la moneta sia necessaria. Se si segue Max Weber, la moneta è un vettore importante dei conflitti che attraversano le nostre società:

I prezzi monetari risultano da compromessi e da conflitti di interesse; in questo essi derivano dalla distribuzione del potere. La moneta non è un semplice «diritto su beni non specificati» che potrebbe essere utilizzata a piacere senza conseguenza fondamentale sulle caratteristiche del sistema dei prezzi percepito come una lotta tra gli uomini. La moneta è innanzitutto un’arma in questa lotta; essa è uno strumento di calcolo solo nella misura in cui si tengono in considerazione le opportunità di successo in questa lotta14.

Ben prima di aver scritto la Teoria generale, Keynes non la pensava diversamente. In un testo che traeva il bilancio dei disordini monetari che seguirono la fine della prima guerra mondiale, egli scrisse queste righe che risuonano ancora oggi con una profonda attualità:

Dal 1920 questi due paesi che hanno ripreso in mano la situazione delle loro finanze, non contenti di mettere fine all’inflazione, hanno contratto la loro massa monetaria e hanno conosciuto i frutti della Deflazione. Altri hanno seguito traiettorie inflazionistiche in maniera ancora più anarchica che in precedenza. Inflazione e deflazione hanno entrambe l’effetto di modificare la distribuzione della ricchezza tra le differenti classi sociali, l’inflazione è la peggiore delle due sotto questo rapporto. Entrambe hanno ugualmente l’effetto di spingere o di frenare la produzione di ricchezza, benché qui la deflazione sia la più nociva15.

Keynes va perfino oltre questa constatazione, lega esplicitamente l’inflazione, ossia il deprezzamento della moneta, al movimento storico che vede nuovi gruppi sociali liberarsi dalla tutela di antichi dominatori:

Tali movimenti secolari che hanno sempre deprezzato la moneta nel passato hanno dunque aiutato gli «uomini nuovi» a liberarsi dalla mano morta; essi giovarono alle fortune di data recente a spese di quelle antiche e diedero allo spirito d’impresa armi contro l’accumulazione dei privilegi acquisiti16.

La moneta appare dunque sotto due aspetti, analiticamente distinti e sistematicamente legati. Essa è certamente il mezzo indispensabile del calcolo inter-temporale che permette di superare gli ostacoli posti dall’eterogeneità sulla via degli scambi. L’eterogeneità fonda la necessità di uno strumento particolare funzionante come norma di omogeneizzazione di una realtà non omogenea. Non stupisce che la TEG, poiché postula l’omogeneità, possa fare a meno della moneta.

 

La TEG e la moneta, continuazione …

Tuttavia l’introduzione della moneta non è senza rischio per il quadro della TEG. J. M. Grandmont rimette seriamente in discussione questa prospettiva17. In particolare egli mostra che il rifiuto di prendere in considerazione la possibilità di stati di disequilibrio stabile, rifiuto giustificato nel nome dell’effetto di ricchezza18, implica sia una forma diretta di stato stazionario sia un aggiustamento istantaneo e interamente prevedibile, che conduce ad escludere ogni situazione di incertezza dal dominio dell’economia19. È la pista che seguirà Robert Lucas nel decretare che dove c’è incertezza non c’è più economia, introducendo una seconda deviazione tra la teoria neoclassica e il realismo. L’introduzione di meccanismi di comprensione tra gli scambiatori potenziali finisce col dimostrare che, perfino in una situazione di prezzi perfettamente flessibili, non si ottiene un equilibrio. Grandmont resta però fermamente ancorato alla TEG e suppone sempre interamente probabilizzabile il contesto degli agenti20.

La neutralità della moneta, ipotesi centrale della TEG, è lontana dall’essere coerente. Essa è incompatibile con il principio di dicotomia (ossia i prezzi relativi si formano nel settore reale e sono insensibili alle variazioni monetarie) se si ragiona con effetti di liquidità reali e sotto la Legge di Walras21. La neutralità della moneta, nel senso in cui questo concetto è utilizzato dalla scuola delle Anticipazioni Razionali, non resiste all’introduzione di ipotesi perfino mediamente realiste quanto al comportamento degli agenti.

Degli equilibri, anche sub-ottimali, possono essere verificati se si suppone un meccanismo di allocazione di risorse inter-temporale. Nondimeno, qui si urta contro un nuovo ostacolo, quello del grado di realismo di questa ipotesi. L’esistenza di mercati completi è teoricamente una impossibilità, dal punto di vista della stessa struttura della conoscenza, salvo supporre un universo stazionario. D’altronde Grandmont, per dimostrare una soluzione di equilibrio, è obbligato a supporre che le anticipazioni siano sempre continue (esclusione degli effetti di sorpresa e dei cambiamenti di preferenza) e che gli agenti credano nella neutralità della moneta22. La convergenza delle anticipazioni necessarie per ottenere l’equilibrio non è qui prodotta dal mercato ma da un’istituzione normativa che produce effetti cognitivi prevedibili ed omogenei.

Vale a dire che la moneta non è semplicemente uno strumento di scambio e di investimento, ma è anche – e forse soprattutto – uno strumento chiave nel governo delle società. Se ne ha la prova sperimentale con l’euro che chiude gli agenti dei paesi in cui è stato adottato in una morsa cognitiva che impedisce loro di vedere la realtà – tragica – dello stato delle loro società e delle loro economie.

 

La moneta, il baratto e la TEG

Si è dunque di fronte all’alternativa seguente. O si suppone un’economia con un’offerta di beni e servizi semplice e non evolutiva, e allora l’eliminazione della moneta è possibile. O si introduce una dinamica di trasformazione perpetua dell’offerta, e l’eliminazione della moneta diventa impossibile. Ma in questo caso le condizioni dell’equilibrio walrasiano non possono più essere soddisfatte.

Aggiungiamo allora un nuovo paradosso. Se gli scambi sono perlopiù monetari per i problemi di asimmetria di informazione evocati, la moneta diventa un bene detenuto da tutti gli agenti. Nondimeno, salvo supporre che la struttura del patrimonio dell’insieme degli agenti sia perfettamente identica, certi saranno più liquidi di altri. Essi potranno allora disertare più facilmente negli scambi, appena si consideri che l’economia non è una sequenza Produzione-Scambio-Consumo, ma una successione nel tempo di queste sequenze. La moneta come strumento di riduzione dell’asimmetria informativa sulla natura del bene scambiabile si rivela allora come elemento di una nuova asimmetria nella capacità più o meno grande degli agenti di ritardare nel tempo le loro transazioni. E, salvo supporre che gli agenti siano perfettamente identici, poiché non possono sapere a priori ciò che pensa l’altro scambista, l’agente che è potenzialmente più vulnerabile alla defezione del suo partner avrà timore che quest’ultimo non si comporti come tale. Per la transazione esigerà dunque un premio di garanzia che può essere ridotto se gli agenti si mettono d’accordo per tornare al baratto. Joseph Stiglitz arriva a un risultato simile quando si apre alla critica delle ipotesi di efficienza informativa e di completezza dei mercati23. Egli mostra allora che i prezzi non sono che una informazione tra altre che gli agenti devono raccogliere. Ma la relativizzazione del ruolo dei prezzi implica allora la relativizzazione della moneta, perché queste altre informazioni passeranno necessariamente per una personalizzazione dei rapporti di scambio che la monetizzazione si riteneva dovesse evitare.

Bisogna allora considerare che né l’assimilazione dell’economia a un baratto monetizzato né la sua assimilazione a una attività tendente verso la monetizzazione perfetta sono sostenibili, per delle ragioni parallele. La monetizzazione nella sua stessa estensione crea le condizioni per il ritorno del baratto, e il baratto, se si generalizza, finisce col far prendere coscienza della necessità della moneta. L’eterogeneità irriducibile dei rapporti di scambio arriva a distruggere la possibilità di esistenza dei meccanismi dell’equilibrio walrasiano.

 

Irrealismo di primo e di secondo tipo

La doppia assenza del mercato e della moneta in una teoria economica reputata capace di stabilire le leggi di funzionamento di una economia di mercato monetarizzato riporta al problema del realismo dei fondamenti dell’economia dominante. Le sue dimensioni sono multiple, e le risposte date dagli autori da una quarantina d’anni sono spesso molto differenti. In effetti bisogna capire che ci sono due livelli distinti di irrealismo nella TEG, anche se i loro effetti nella produzione di un discorso di autogiustificazione si combinano. Vi è da una parte un rifiuto ostentato e giustificato del realismo, che ha la sua sorgente nello strumentalismo di M. Friedman24. Esso finì in un’assiomatica che può essere tanto più rigorosa quanto più si affranca consapevolmente da ogni tentativo di confrontare le sue ipotesi alla realtà. Ma c’è un’altra forma di irrealismo, che risulta direttamente dalla volontà di presentare ipotesi metafisiche come fatti concreti e verificabili. L’irrealismo nasce qui da una confusione dei livelli di ragionamento.

A questo stadio è facile citare qualche esempio delle conseguenze dell’irrealismo del primo tipo. L’esempio più conosciuto, perché ha dato luogo a discussioni memorabili tra gli allievi di Keynes e gli economisti più fedeli alla tradizione neoclassica, concerne la funzione di produzione quale è prevista nella TEG. Quest’ultima riposa fondamentalmente sulla doppia ipotesi dell’omogeneità del capitale e dei rendimenti decrescenti, come avevano mostrato una forte critica argomentata da Joan Robinson e le diverse risposte di Robert Solow25.

In ultima istanza gli economisti fedeli alla TEG sono obbligati ad ammettere che le funzioni di produzione che essi utilizzano nei loro modelli non sono rappresentative del processo reale della produzione e non potrebbero servire ad analizzarlo. Ma, reputa Samuelson, non è qui ciò che importa; queste funzioni permettono di stabilire un legame prevedibile e statisticamente misurabile tra mezzi di produzione e risultato di quest’ultima. Esse costituiscono dunque approssimazioni accettabili, che sostituiscono una conoscenza di cui si ammette la mancanza26. Il problema che allora sorge è che, per poter postulare l’efficacia di una simile approssimazione, bisogna postulare che l’economia sia un sistema determinista obbediente a leggi intangibili. È qui che sorge l’ipotesi ergodica. Per adesso sia sufficiente sapere che l’uso di questa metafora ispirata alla fisica è molto discutibile metodologicamente e porta con sé una reale debolezza concettuale27.

Si può trovare un secondo esempio nella teoria dell’utilità e del comportamento del consumatore. La TEG postula dunque che i consumi siano sostituibili e mai complementari, con conseguenze molto precise quanto alla forma delle curve di indifferenza di ogni consumatore28. Da queste curve si deduce allora un modello in cui l’agente economico si comporta in funzione delle variazioni dei prezzi relativi di ogni bene. Questo modello di comportamento, costruito dunque all’inizio per rappresentare un consumo, è esteso in seguito alla totalità dei comportamenti economici. Si finisce allora nel dogma secondo il quale le variazioni dei prezzi relativi costituiscono il segnale fondamentale per la totalità delle decisioni. Questo dogma ha conseguenze considerevoli a livello non più teorico ma prescrittivo. Se effettivamente i prezzi relativi hanno questo potere, allora adottare una struttura sbagliata di questi ultimi può condurre alle maggiori catastrofi economiche. Se ne deduce che l’adozione di prezzi relativi mondiali, anche qualora non fossero i più giusti possibili, costituisce una strategia efficiente di riduzione del rischio di cattiva allocazione delle risorse. Bisogna dunque abolire tutti gli ostacoli che impediscono ai prezzi relativi nazionali di allinearsi sulla struttura mondiale, ciò che giustifica l’abolizione di tutti i diritti di dogana, delle regolamentazioni tecniche, sociali e sanitarie che possono ostacolare questo allineamento. Il problema è che gli economisti neoclassici non hanno mai potuto dimostrare l’esistenza di una simile funzione di utilità29, e neanche che possano mai essere riscontrate le condizioni di verificazione30. Tutte le ipotesi necessarie alla teoria neoclassica dell’utilità e della scelta individuale possono essere valutate come confutate sperimentalmente. È il caso in particolare della teoria delle preferenze individuali31.

 

La teoria delle preferenze

La teoria delle preferenze è in apparenza un dominio che sembra molto ristretto. Infatti questa teoria non si dà per quello che è. La si presenta attraverso una serie di ipotesi formulate per giustificare il comportamento dell’attore individuale. Sarebbe dunque perfettamente possibile vedervi soltanto un elemento minore. Tuttavia l’ipotesi di una razionalità dell’agente economico, tanto più di una razionalità definita come massimizzazione di un profitto, di un’utilità o di un piacere, è centrale. Questa ipotesi di razionalità è la vera colonna centrale non soltanto della teoria ma anche del discorso volgare che ne tengono i suoi apologeti.

Ora questa ipotesi riposa su una certa teoria delle preferenze individuali. Grattate le evidenze e le idee preconcette e troverete delle costruzioni teoriche, più o meno coerenti, ma tutte arroccate su questa definizione della razionalità e, per questo stesso fatto, su questa teoria delle preferenze.

In effetti, come spiegare che gli economisti della corrente dominante, ossia dell’ortodossia economica32, preferiscano spontaneamente le procedure in cui le scelte individuali si confrontano in maniera non intenzionale (cioè i mercati e la concorrenza) alle procedure deliberative e alle organizzazioni, e questo senza cadere immediatamente nel processo alle intenzioni? La domanda mostra la collisione tra procedimento teorico, procedimento normativo e procedimento prescrittivo che si trova nell’economia. A dispetto della sua formulazione astratta, essa ha conseguenze dirette nella vita quotidiana.

Nel cuore del problema si trova il postulato della razionalità degli attori. Come ha sottolineato Herbert Simon, in realtà gli economisti hanno una definizione molto più restrittiva della razionalità: il perseguimento della massimizzazione di un’utilità o di un profitto33. La costruzione di questo concetto implica un certo numero di ipotesi sul comportamento umano. Queste congetture teoriche riposano su ciò che costituisce la base dell’economia dominante dalla fine del XVIII secolo, ossia la teoria delle preferenze individuali. Essa costituisce lo zoccolo non soltanto della teoria neoclassica nella sua forma tradizionale34, ma anche delle sue varianti più realiste, ossia – per riprendere un tipologia immaginata da Olivier Favereau – la Teoria Standard come la Teoria Standard Allargata35.

Nelle opere di riferimento e nei manuali, il lettore è posto di fronte a una serie di assiomi che permettono di stabilire la funzione di utilità, poi di assicurare le condizioni della sua massimizzazione. Per poter determinare una funzione di utilità, si può supporre, seguendo Gérard Debreu36, che le preferenze verifichino gli assiomi seguenti:

  • Le preferenze verificano un pre-ordine completo di scelte possibili, ciò che implica la transitività (se preferisco x a y e y a z allora preferisco x a z) e la riflessività. L’agente può dunque classificare i differenti elementi tra i quali deve scegliere.
  • Le preferenze sono continue (se x>y>z, esiste una mescolanza di possibilità x e z che sia indifferente in rapporto a y).
  • Queste preferenze sono caratterizzate dall’assioma di non saturazione (se il consumo di una qualità X1 di x genera una utilità u1, allora se X2>X1, l’utilità u2>u1).

Si suppone in generale che la funzione di utilità sia convessa, e questo porta a generalizzare l’ipotesi dei rendimenti decrescenti importati in economia da Ricardo a partire dalla produzione agricola per la sua dimostrazione della teoria della rendita. Questa ipotesi è importante tecnicamente, perché giustifica delle curve di indifferenza, forma tradizionale di rappresentazione delle preferenze, che sono convesse37. Pur non essendo realista, la convessità recita un ruolo importante nelle dimostrazioni per passare dall’utilità alla nozione di utilità sperata, nozione nata da Bernoulli e dai suoi lavori del XVIII secolo sulle lotterie, e che costituisce un passaggio essenziale da cui si lascia un universo certo per entrare in un universo probabilista38.

In seguito ai lavori di von Neumann e Morgenstern39, bisogna supporre l’assioma di indipendenza delle preferenze. Le preferenze sono indipendenti se, siano le possibilità x, y e z tali che x>y, una combinazione di x e z sarà preferita alla stessa combinazione di y e z. Si aggiunge spesso che le preferenze sono monotone nel tempo (la qualità di un periodo addizionale determina se l’esperienza più lunga sia più o meno utile della più breve). Questa monotonia deve combinarsi dal punto di vista dell’agente in un’integrazione temporale (l’utilità che si trae da una esperienza corrisponde all’insieme delle utilità di ogni momento di questa esperienza). La monotonia temporale e l’integrazione temporale recitano un ruolo se si cerca di estendere la teoria standard includendovi il tempo, ma non sono mobilitate nella sua forma originale che è a-temporale. Tuttavia, se si vuole poter passare da una serie di osservazioni o di scelte a una proposizione generale, l’integrazione temporale e la monotonia temporale sono necessarie.

Questa assiomatica della struttura delle preferenze è la base della definizione del comportamento razionale concepito come massimizzazione dell’utilità (universo certo o stazionario) o dell’utilità sperata (universo probabilista). Essa è stata presentata per la prima volta in maniera rigorosa da Vilfredo Pareto40, anche se è implicita nel ragionamento di autori più antichi come Jevons e Cournot. Essa ha ricevuto un trattamento matematico divenuto poi standard in von Neumann e Morgenstern così come in Arrow41.

 

Assiomi e ipotesi confutate

Alcuni degli assiomi e delle ipotesi sono evidentemente contestabili. La supposta convessità delle curve di indifferenza conduce alla conclusione che sembra corroborare l’intuizione, che la domanda di un bene sia inversa al suo prezzo. In realtà, i lavori recenti hanno invece dimostrato che questa convessità era un caso particolare, certo possibile, ma per nulla obbligatorio né generale42. Come constatato da Bernard Guerrien, diventa allora impossibile dedurre «leggi» a partire dai comportamenti individuali nel senso proposto da Arrow e Debreu43. L’ipotesi di convessità è necessaria per dimostrare che si ottiene un equilibrio unico e insieme stabile. Se essa non corrisponde che a un caso particolare, allora il potere normativo e prescrittivo della teoria standard ne è seriamente svalutato. Ma critiche altrettanto radicali sono state indirizzate a una delle ipotesi più centrali, quella dell’indipendenza. Questa ipotesi, necessaria per passare dalla nozione di utilità a quella di utilità sperata, è stata in effetti contestata da subito, in particolare da Maurice Allais44.

Difatti due dei principali difensori dell’ipotesi della speranza di utilità, Savage ed Ellsberg, sono stati tentati di seguire Maurice Allais e di accettare la confutazione di questa teoria45. Non hanno tardato però a riprendersi, e hanno scelto di considerare che l’assioma di indipendenza era un’ipotesi inevitabile46. Tuttavia il paradosso di Allais e le evidenze empiriche che mostrano l’assioma di indipendenza sistematicamente violato hanno alimentato ricerche importanti. Esse hanno condotto certi economisti nati dalla tradizione neoclassica a svincolarsi progressivamente dalle formulazioni originarie.

Gli economisti neoclassici sono dunque stati subito coscienti dei problemi che solleva la teoria classica delle preferenze. L’elaborazione delle formule classiche tra la fine degli anni ‘40 e l’inizio degli anni ‘50 non ha fatto che accelerare questa presa di coscienza. Essa ha provocato dibattiti che sarebbero potuti sfociare in una valutazione generale di questa teoria. Ma questa si è irrigidita sulla sua base di partenza.

Una prima indicazione dei problemi che si incontrano con le ipotesi comuni qui in causa è stata fornita da quello che è entrato nella letteratura specializzata con il nome di effetto Hawtorne47. Una ricerca ulteriore, in un quadro ben differente, ci dà nuove indicazioni e permette di isolare quello che si può chiamare l’effetto Pigmalione48. L’analisi dell’effetto Hawtorne come dell’effetto Pigmalione ci offre molti insegnamenti sia analitici che prescrittivi. Il ruolo dei contesti è essenziale per comprendere come gerarchizziamo le nostre preferenze. Questa gerarchia non è dunque un dato preesistente alla scelta. Questi effetti sono stati confermati da ricerche più recenti.

 

L’apporto della psicologia sperimentale

Alla fine degli anni ‘60 due psicologi ed economisti, Paul Slovic e Sarah Lichtenstein, hanno testato sistematicamente la stabilità delle preferenze. Slovic e Lichtenstein si sono trovati di fronte a rovesciamenti di preferenze, a capovolgimenti imprevedibili da una strategia a un’altra49. Questi risultati sono stati riprodotti in differenti casi, anche prendendo come partecipanti dei giocatori professionali che giocano il proprio denaro in un casinò di Las Vegas50. Questi risultati sono coerenti con l’ipotesi sviluppata Slovic e Lichtenstein, secondo cui utilizziamo processi cognitivi differenti a seconda che valutiamo (una utilità o un prezzo) o a seconda che scegliamo51. La stabilità di questi risultati, il fatto che la ripetizione degli esperimenti non comporti una diminuzione significativa dei rovesciamenti di preferenze, indica che si è in presenza di una vera struttura comportamentale. Essa viola un certo numero di assiomi chiave, e in particolare la transitività e la continuità. L’interpretazione di questi risultati implica la considerazione di effetti più generali, comparabili con gli effetti Hawtorne e Pigmalione. Si deve ad Amos Tversky, Daniel Kahneman e ai loro collaboratori una presentazione rigorosa di questi effetti.

Si possono distinguere due effetti particolari. Il primo, che Amos Tversky chiama il “framing effect” mostra che la maniera di presentare i termini di una scelta determina le risposte52. Questo effetto di contesto viola evidentemente l’ipotesi di una indipendenza dell’ordine delle preferenze rispetto alle condizioni di scelta. Ancora più imbarazzante per la teoria dominante è il fatto che l’esplicitazione degli ordini di preferenza è anch’essa tributaria della maniera in cui i problemi sono posti. Così si può spiegare il fenomeno ormai ben noto dei rovesciamenti degli ordini di preferenza in funzione delle condizioni di presentazione delle scelte53. Si verifica così che si può mostrare sperimentalmente che le preferenze sono direttamente dipendenti dai contesti, e che le scale di preferenza si costruiscono attraverso il processo della scelta anziché essere preesistenti come sostiene la Teoria standard54.

Questo risultato convalida una delle conclusioni tratte dall’effetto Hawtorne e dall’effetto Pigmalione.

Il secondo effetto fu qualificato da Daniel Kahneman come endowment effect o effetto di dotazione55. Esso si manifesta quando si vedono delle preferenze rovesciarsi a partire dal momento in cui le persone consultate si sentono o meno nello stato di possedere uno dei beni. Così, a seconda che si proponga ad un gruppo di scegliere tra una somma di denaro e una tazza di caffè oppure di dire per quale somma di denaro sarebbero pronti rendere la stessa tazza di caffè che si era data loro precedentemente, il prezzo implicito della stessa tazza varia dal semplice al doppio56. La questione è tuttavia la stessa, quella di una scelta tra una somma di denaro e un oggetto. In modo più generale, sembra che gli attori individuali reagiscano in maniera assai differente a una stessa scelta a seconda che si sentano in possesso di un potere di decisione, ossia di pesare sul loro avvenire, oppure no. Ciò conferma, una volta in più, i risultati constatati con l’effetto Hawtorne o con l’effetto Pigmalione. Ora, le ipotesi di coerenza sono centrali. Senza di loro, la teoria standard delle scelte non può più passare dal livello dell’individuo a quello della collettività per semplice aggregazione delle preferenze o delle funzioni di utilità. D’altra parte questi differenti esperimenti confermano la grandissima difficoltà degli attori di prevedere la struttura futura delle loro preferenze57. Questo è potenzialmente destabilizzante per ogni teoria che postuli dei modi spontanei di accordo o di convergenza delle opinioni sulla base di esperienze ripetute.

A partire da questi risultati si possono rifiutare le ipotesi che permettono di generalizzare la teoria della razionalità massimizzatrice e di farne la base della teoria utilitarista moderna. Allo stesso modo le ipotesi di integrazione e di monotonia temporale delle preferenze, che sono necessarie a una generalizzazione dinamica, non sono verificate58.

Questi lavori mostrano anche che le ipotesi che occorrerebbe necessariamente mobilitare per giustificare una perfetta spontaneità di apprendimento, come quelle di una natura individuale di questo processo, non sono fondate. In questo senso le esperienze di psicologia sperimentale evocate hanno un impatto che va al di là della sola critica del modello della razionalità massimizzatrice neoclassica. Ciò che è messo in discussione è una teoria dell’utilitarismo fondata sull’ipotesi di un passaggio lineare tra il comportamento individuale e i comportamenti collettivi. Al di là degli assiomi neoclassici, qui sono attaccati gli assiomi dell’individualismo metodologico necessario alle teorie che implicano qualunque forma di mano invisibile.

 

Strategia di elusione e negazione del mondo reale

Gli economisti fedeli alla TEG tenteranno allora di aggirare il problema supponendo che il metaforico banditore del mercato, oppure l’organizzazione ipercentralizzata che lo sostituirebbe, non sono necessari perché tutti gli agenti sono in realtà razionali e agiscono «come se» il banditore o l’organizzazione siano presenti59. Si è allora in presenza di ciò che O. Favereau chiama la Teoria Standard Sperimentale60. Il problema risiede allora nell’origine di questo comportamento razionale. Se è innato, si è obbligati a supporre una conoscenza immanente dei funzionamenti della TEG da parte dell’insieme degli agenti. Se è acquisito, com’è evidentemente più realistico, ciò suppone tanto un mano ferma capace di normare molto precisamente la totalità degli individui quanto un processo permanente di selezione che assicuri l’esclusione o la modificazione dei comportamenti devianti. Si è allora condotti a porre il problema degli incentivi, il ruolo dell’informazione e in particolare delle asimmetrie di informazione. Questo corrisponde a ciò che O. Favereau chiama nella sua tipologia la Teoria Standard Estesa61. Solo che in questo quadro l’ipotesi di selezione non fa che moltiplicare i problemi. Nessuno dice come essa funzioni né quali siano i suoi principi. Per comprendere una tale selezione, occorrerebbe in realtà avere una teoria delle istituzioni che appunto manca alla TEG.

Un tentativo in questo senso è stato fatto dalla corrente che si qualifica neo-istituzionalista e che i lavori di Oliver Williamson illustrano bene62. Gli agenti deciderebbero di ricorrere al mercato oppure all’organizzazione in funzione dei costi di transazione che devono sopportare ogni volta che concludono un contratto. In un caso concludono contratti istantanei e infinitamente ripetibili, nell’altro concludono un contratto che si inscrive nella durata, accettando la perdita potenziale di utilità che potrebbero subire se un contratto migliore si presentasse contro la garanzia di non doverlo ripetere. Egli ammette dunque la necessità di organizzazioni perché il mercato funzioni, ma le scompone in una successione di contratti individuali. Questo procedimento urta però contro parecchi problemi. Il primo è che postulare il contratto nell’organizzazione torna a supporre che le difficoltà di contrattare che hanno allontanato gli agenti dal mercato siano svanite di colpo. Se vi è incertezza sulla natura del mondo futuro, come si può essere sicuri che il contratto appena concluso nel quadro di un’organizzazione non sarà reso obsoleto domani? Occorrerebbe poter essere sicuri che qualche avvenimento non invalidi domani il contratto di oggi. Ora, questo tipo di conoscenza è dello stesso ordine di quella di cui avrebbe bisogno un pianificatore.

Infatti l’interesse dell’organizzazione e dell’istituzione nasce dal fatto che queste forme sono più che insiemi di contratti. Esse sono un mettere in comune conoscenze, esperienze, reciprocità. Allora è possibile formulare una teoria dell’apprendimento dei ‘buoni’ comportamenti, ma questo è sempre contingente alle istituzioni e alla natura del contesto. Si scopre allora che esso non è apprendimento di un ‘buon’ comportamento in sé, ma semplicemente dei comportamenti coerenti a un quadro dato. Nulla assicura dunque che questi comportamenti siano quelli che occorre stipulare perché l’ipotesi del ‘come se’ si verifichi, e che si possa ottenere la produzione di un equilibrio senza costrizione e senza una pesante organizzazione preliminare. Ci si scontra allora contro le ipotesi dell’individualismo che sono alla base di questi approcci.

 

Il «ritorno» al realismo e le contraddizioni che genera nel paradigma neoclassico

D’altra parte, ammettere che vi sia una selezione di comportamenti acquisiti equivale anche ad ammettere che lo stato iniziale non è lo stato perfetto. In questo caso non si sa più come funzioni l’economia prima di aver raggiunto il «paradiso» promesso dal meccanismo di selezione. Per comprendere come funzioni un’economia fondata su comportamenti acquisiti, occorre poter dire come si comporti l’economia prima che questi comportamenti non lo siano, altrimenti l’idea di acquisizione non ha più senso.

Infine bisogna aggiungere che il procedimento detto realista, che pretendono di seguire gli economisti che hanno preso cognizione dello stallo della TEG nella sua versione d’origine, non ci informa più sul meccanismo che permette agli agenti di rendersi conto se l’equilibrio sia raggiunto o no. A partire dal momento in cui si ammette, per realismo, che gli agenti sono relativamente diversi e non sono sottomessi a una struttura dispotica di omogeneizzazione, si pone la questione della percezione non ambigua della realizzazione dell’equilibrio63. Ora, la teoria neoclassica ci propone indicatori oggettivi, i prezzi, ossia le quantità nel procedere per tentativi non walrasiano, ma che devono essere apprezzati a un livello soggettivo, quello delle preferenze e del confronto tra le anticipazioni e la percezione della realtà. Questo pone il problema dello statuto del profitto come segnale pertinente in una interpretazione «realista» del procedimento per tentativi. I capitalisti sono sensibili allo scarto tra i tassi di profitto di ogni ramo o allo scarto tra il tasso di profitto effettivo e il tasso di profitto naturale? Se si accetta il primo criterio, e si suppone dunque che gli agenti reagiscano alle apparenze, l’economia può conoscere equilibri multipli. Se si propende per la seconda soluzione, vale a dire che gli agenti reagirebbero agli scarti tra le ‘apparenze’ e la ‘realtà’, si può finire su un equilibrio unico. Solo che occorre supporre la conoscenza da parte degli agenti delle leggi intime del sistema al quale appartengono, senza dimenticare conseguenti capacità di gestione delle informazioni. È il senso della critica di Ellis a Hayek nel 1934 segnalata nel primo capitolo. Supporre subito che i prezzi di lungo termine siano i prezzi naturali equivale a un nuovo atto di forza teorico, perché occorre mostrare in precedenza la possibilità e la stabilità di un equilibrio per pretendere che i movimenti congiunturali costituiscano fluttuazioni attorno a una tendenza naturale64.

Questa contraddizione tra criteri soggettivi e indicatori oggettivi può condurre a ricadere sul lato del soggettivismo. Allora non sono più i prezzi o le quantità che sono indicatori, ma la convergenza più o meno buona delle percezioni e delle rappresentazioni. Allora il problema è che queste ultime possono perfettamente convergere verso risultati aberranti come nei casi di panico65. Di più, la scelta tra l’usare il mercato o l’organizzazione, scelta che è nel nucleo della teoria neo-istituzionalista (make or buy), non è neutra quanto alle rappresentazioni, perché ogni organizzazione è un sistema collettivo che implica una trasformazione, anche infima, anche inconsapevole, delle rappresentazioni dell’individuo isolato una volta che costui decida di aderirvi.

Il sedicente realismo nel Neo-istituzionalismo non è dunque che una forma ancora più grossolana dell’irrealismo standard. Anziché rifugiarsi esplicitamente nell’assiomatica, si pretende il realismo, ma sulla base di ipotesi non verificabili e non testabili, che non sono nient’altro che visioni metafisiche dell’individuo. In tutta onestà occorre aggiungere che O.E. Williamson in un certo senso aveva spifferato tutto adottando in una delle sue prime opere un punto di vista esplicitamente strumentalista, molto vicino a quello di M. Friedman66.

 

L’ipotesi ergodica ossia la fuga nella metafora

Ci si accorge allora che gli economisti della corrente dominante non solo hanno infranto l’obbligo del realismo, ma anche quello della coerenza. Poiché una posizione esplicitamente non realista diventava sempre più difficile da sostenere davanti al mondo esterno che chiede all’economista ben altro che modelli matematicamente eleganti, essi hanno potuto credere che qualche modificazione marginale del loro programma di ricerca potesse permettere di combinare il rispetto degli assiomi iniziali con una capacità descrittiva ed esplicativa. Di fatto, sono finiti in un corpus teorico che diventa sempre più incoerente. In queste condizioni, si comprende come una parte della professione abbia preferito attenersi all’irrealismo formale, pur pretendendo il potere esplicativo dei suoi modelli. Per farlo è stato necessario invocare l’ipotesi di ergodicità.

Di fronte a diverse obiezioni provenienti dalle scuole istituzionaliste, i partigiani della TEG hanno tentato un nuovo atto di forza per istituire l’economia come scienza dello stesso tipo delle scienze della natura. Per rompere i ponti con le scienze sociali, hanno fatto ricorso all’ipotesi ergodica67.

L’uso di una metafora ispirata alla meccanica e alla fisica qui è perfettamente consapevole. Si tratta di rafforzare la dimensione meccanicista della rappresentazione dell’economia. L’ipotesi ergodica è stata formulata all’inizio del XX secolo per trovare una soluzione a problemi rilevanti della fisica dei gas. Nella definizione di H. Poincaré, essa implica che, in un sistema dato, si sia in presenza di una ricorrenza perfetta. Essa postula allora l’uguaglianza delle medie di fase in un esperimento in cui non è più possibile misurare un numero sufficiente di microfenomeni. Nel senso di von Neumann, essa significa una convergenza forte dei risultati68. In economia questa ipotesi permette di supporre che se le osservazioni statistiche disponibili rilevano processi stocastici, allora c’è una convergenza all’infinito. Questo dà una giustificazione matematicamente elegante all’ipotesi delle anticipazioni razionali69. In un contesto ergodico il futuro può essere conosciuto con la proiezione di statistiche raccolte sul passato70. Si suppone dunque che ci siano leggi in economia nel senso che si dà al termine di ‘legge’ in fisica. Anche se esse non ci sono direttamente accessibili, è dunque possibile dedurne il movimento attraverso osservazioni statistiche, per quanto imperfette.

Nella sua forma originale l’ipotesi ergodica in economia equivale a postulare un determinismo completo. Per la TEG, per di più, le leggi di determinazione sono, a termine, direttamente intelligibili. Ne deriva una visione particolare della stessa nozione di incertezza. In effetti, se vi è una determinazione dei movimenti dell’economia da parte di leggi di portata e di natura generale, allora nella natura stessa dell’economia vi è un ordine oggettivo di probabilità di differenti futuri. L’incertezza del futuro è così sempre probabilizzabile, e questo è il nucleo stesso del discorso dei teorici dell’informazione imperfetta71. Questa visione ha urtato molto presto contro un’altra concezione, quella sviluppata da F. Knight72, per la quale esiste sempre una parte, a volte residuale ma altre volte ben più importante, di avvenimenti di cui è impossibile considerare l’emergenza in una logica probabilista. Questa versione dell’incertezza, opposta al rischio (che è probabilizzabile) contiene una rottura fondamentale con la TEG.

La TEG si considerava, e i suoi difensori la considerano tuttora, una teoria dell’interesse comune mediante azioni individuali, e un approccio materialista, basato sull’interesse materiale degli attori, alla produzione e alla distribuzione delle ricchezze. In realtà la TEG si rivela sia idealista, in particolare con ipotesi forti sull’immanenza di certi comportamenti e sul rifiuto del tempo, sia completamente centralizzata. Essa implica così o un intervento divino o uno Stato dispotico. Le critiche fatte alla pianificazione centralizzata, che si trattasse del rimprovero di una onniscienza supposta del pianificatore o della sua dittatura, si applicano allora direttamente al modello dominante dell’economia di mercato. Un certo numero di economisti legati ai principi della TEG riconosceranno allora che quest’ultima ha poca utilità come descrizione del mondo reale, ma presenta l’interesse di fornire un quadro teorico coerente che permette programmi di ricerca che vanno progressivamente verso più realismo73. Non è affatto sicuro che questa tendenza si sia realmente manifestata. Al contrario oggi si potrebbe considerare che la TEG affondi nel dogmatismo e nella rigidità74. Peraltro questo punto è stato riconosciuto dallo stesso F. Hahn, che in un articolo del 1991 evoca l’importanza delle rigidità dogmatiche nelle religioni in declino per valutare l’evoluzione della TEG75.

Il modello dominante dell’economia di mercato, impiegato esplicitamente nei lavori teorici, e implicitamente come riferimento normativo negli studi empirici di una larga maggioranza degli economisti contemporanei, è dunque un fallimento sul piano scientifico, e si rivela una frode ideologica nelle sue varianti ‘esplicative’ dell’economia reale. Si rivela fondamentalmente incapace di spiegare come e perché delle azioni iniziate separatamente da individui o da attori separati possano terminare in un risultato globale più o meno soddisfacente. La TEG fallisce nel fornirci una intelligenza del mondo reale. Essa non può essere né normativa all’interno di una disciplina né pretendere di fondare un discorso prescrittivo nel dominio dell’azione in politica economica.


L’articolo è disponibile al seguente indirizzo: http://russeurope.hypotheses.org/6157
Traduzione di Paolo Di Remigio (FSI Teramo)

Note
1 L. Walras, Élémènts d’économie polique pure ou théorie de la richesse sociale, Pichon et Durand-Auzias, Paris, 1900.
2 M. Morishima, «The Good and Bad Use of Mathematics» in P. Viles & G. Routh, (edits.), Economics in Disarray , Basil Blackwell, Oxford, 1984
3 A. Insel, «Une rigueur pour la forme: Pourquoi la théorie néoclassique fascine-t-elle tant les économistes et comment s’en déprendre?», in Revue Semestrielle du MAUSS, n°3, éditions la Découverte, Paris, 1994, pp. 77-94. Vedere anche G. Berthoud, «L’économie: Un ordre généralisé?», in Revue Semestrielle du MAUSS, n°3, op. cit., pp. 42-58.
4 La migliore presentazione è: G. Debreu, Theory of Value: an axiomatic analysis of economic equilibrium, Yale University Press, New Haven, 1959.
5 Si troveranno critiche efficaci del meccanicismo e del riduzionismo della teoria neoclassica e della TEG nell’opera e negli articoli seguenti: N. Georgescu-Roegen, «Mechanistic Dogma in Economics», in Brittish Review of Economic Issues, n°2, maggio1978, pp.1-10; dello stesso autore, Analytical economics, Harvard University Press, Cambridge, Mass., 1966. G. Seba, «The Development of the Concept of mechanism and Model in Physical Science and Economic Thought», in American Economic Review – Papers and Proceedings , vol.43, 1953, n°2, maggio, pp.259-268. G.L.S. Shackle, Epistemics and Economics: a Critique of Economic Doctrines, Cambridge University Press, Cambridge, 1972.
6 O. Favereau, «Marchés internes, marchés externes», in Revue Économique, vol. 40, n°2, marzo 1989, pp. 273-328.
7 C. Johnson, Japan, Who Governs?, Norton, New York, 1995
8 B. Guerrien, «L’introuvable théorie du marché», in Revue Semestrielle du MAUSS, n°3, op. cit., pp. 32-41.
9 Cfr. anche M. de Vroey, «S’il te plaît, dessine moi … un marché», in Économie Appliquée, tome XLIII, 1990, n°3, pp. 67-87.
10 A. D’Autume, Croissance, Monnaie et Déséquilibre, Economica, Paris, 1985.
11 F. Hahn & T. Negishi, «A theorem of non-tatonnement stability», in F. Hahn, Money, Growth and Stability, Basil Blackwell, Oxford, 1985.
12 M. de Vroey, «la possibilité d’une économie décentralisée: esquisse d’une alternative à la théorie de l’équilibre général», in Revue Économique, vol. 38, n°3, maggio 1987, pp. 773-805.
13 A.V. Banerjee et E.S. Maskin, «A walrasian theory of money and barter», in Quarterly Journal of Economics , vol. CXI, n°4, 1996, novembre, pp. 955-1005. Vedere anche A. Alchian, «Why Money?», in Journal of Money, Credit and Banking, Vol. IX, n°1, 1977, pp. 133-140.
14 M .Weber, Economy and Society: An Outline of Interpretative Sociology, University of California Press, Berkeley, 1948, p.108.
15 J.M. Keynes, «A tract on Monetary reform», in J.M. Keynes, Essays in Persuasion, Rupert Hart-Davis, London, 1931. Citazione ripresa dalla traduzione francese, Essais sur la monnaie et l’économie, Payot, coll. «Pettite Bibliothèque Payot», Paris, 1971, pp.16-17.
16 Idem, p. 21.
17 J.M. Grandmont, Money and Value , Cambridge University Press ed Éditions de la MSH, Londres-Paris, 1983.
18 Su questo punto l’articolo fondamentale è A.C. Pigou, «The Classical Stationary State» in Economic Journal, vol. 53, pp. 343-351. Una versione moderna del ragionamento è presentata in D. Patinkin, Money, Interest and Prices, Harper & Row, New York, 1965, II edizione.
19 Il difensore più radicale di questa posizione è R. Lucas, “An Equilibrium Model of Business cycle”, in Journal of Political Economy , vol. 83, 1975, pp. 1113-1124.
20 J.M. Grandmont, «Temporary General Equilibrium Theory», in Econometrica, vol. 45, 1977, pp. 535-572.
21 J.M. Grandmont, Money and Value , op.cit., pp. 10-13.
22 J.M. Grandmont, Money and Value , op.cit., pp. 38-45.
23 J.E. Stiglitz, Wither Socialism ?, MIT Press, Cambridge, Mass., 1994.
24 M. Friedman, «The Methodology of Positive Economics», in M. Friedman, Essays in Positive Economics, University of Chicago Press, Chicago, 1953, pp. 3-43.
25 Vedi J. Robinson, «The production function and the theory of capital», in Review of Economic Studies, vol. XXI, (1953-1954), pp. 81-106. R.M. Solow, «The production function and the theory of capital», in Review of Economic Studies, vol. XXIII, (1955-1956), pp. 101-108; Idem, «Substitution and Fixed Proportions in the theory of capital», in Review of Economic Studies, vol. XXX, (giugno 1962), pp. 207-218.
26 P.A. Samuelson, «Parable and Realism in Capital Theory: The Surrogate Production Function», in Review of Economic Studies, vol. XXX, (giugno 1962), pp. 193-206.
27 P. Mirowski, «How not to do things with metaphors: Paul Samuelson and the science of Neoclassical Economics», in Studies in the History and Philosophy of Science, vol. 20, n°1/1989, pp. 175-191.
28 Per la presentazione più classica e più utilizzata pedagogicamente, vedi P.A. Samuelson, Foundations of Economic Analysis, Harvard University Press, Cambridge, mass., 1948.
29 A. Eichner, «Why Economics is not yet a Science», in A. Eichner, (ed.), Why Economics is not yet a Science, M.E. Sharpe, Armonk, NY., 1983, pp. 205-241. D.M. Hausman, The Inexact and separate science of Economics, Cambridge University Press, Cambridge, 1992, cap. 1.
30 M. Blaug, The Methodology of Economics, Cambridge University Press, Cambridge, 1980, pp. 159-169.
31 J. Sapir, Quelle économie pour le XXIème siécle, Paris, Odile Jacob, 2005, capitolo 1.
32 Olivier Favereau offre una buona analisi di come interpretare teoricamente e storicamente il termine di ortodossia economica. O. Favereau, «L’économie du sociologue ou : penser (l’orthodoxie) à partir de Pierre Bourdieu», in B. Lahire (edit.), Le Travail sociologique de Pierre Bourdieu, La Découverte, Paris, 2001, pp. 255-314.
33 H.A. Simon, «Rationality as Process and as Product of Thought», in American Economic Review, vol. 68, n°2/1978, pp. 1-16.
34 Per una discussione su questo punto: J. Sapir, Les trous noirs de la science économique, Albin Michel, Paris, 2000.
35 Vedi O. Favereau, « Marchés internes, Marchés externes », in Revue Économique, vol.40, n°2/1989, marzo, pp. 273-328.
36 G. Debreu, Théorie de la Valeur, Dunod, Paris, 1959.
37 B. Guerrien, L’économie néo-classique, La Découverte, coll. Repères, Paris, 1989.
38 Questa teoria dell’Utilità Sperata è legata al «Paradosso di San Pietroburgo», D. Bernoulli, « Specimen Theoria Novae de Mensura Sortis » in Commentarii Academiae Scientarum Imperiales Petrapolitane, 1738, vol. 5, pp. 175-192, Saint-Petersbourg.
39 J. von Neumann et O. Morgenstern, Theory of Games and Economic Behavior, Princeton University Press, Princeton, NJ, 1947 (2ème édition).
40 V. Pareto, Manuel d’économie politique, M. Giard, Paris, 1927.
41 J. Von Neuman e O. Morgenstern, Theory of Games and Economic Behavior, Princeton University Press, Princeton, NJ, 1947, 1953; K. Arrow Social Choice and Individual Values, op.cit.
42 H. Sonnenscheim, «Do Walras Identity and Continuity Characterize the Class of Excess Demand Fonctions» in Journal of Economic Theory, vol. 6, n°2/1973, pp. 345-354.
43 B. Guerrien, L’économie néo-classique, op. cit., pp. 42-45.
44 M. Allais, «Le comportement de l’homme rationnel devant le risque. Critique des postulats de l’école américaine» in Econométrica, vol. 21, 1953, pp. 503-546. Vedere anche M. Allais et O. Hagen (edits.) Expected Utility Hypotheses and the Allais Paradox, Reidel, Dordrecht, 1979.
45 Vedere P. Slovic et A. Tversky, « Who Accept’s Savage Axioms? » in Behavioural Science, vol. 19/1974, pp. 368-373.
46 Vedere L. Savage, The Foundations of Statistics, Wiley, New York, 1954; D. Ellsberg, «Risk, Ambiguity and the Savage Axioms» in Quarterly Journal of Economics, vol. 75, n°3/1961, pp. 643-669.
47 F.J. Roethlisberger et W.J. Dickson, Management and the Worker, Harvard University Press, Cambridge, Mass., 1939.
48 R. Rosenthal et L. Jakobson, Pygmalion à l’école – L’attente du maître et le développement intellectuel des élèves, tradotto da S. Audebert et Y. Rickards, Casterman, Paris, 1971 (Pygmalion in the Classroom, Holt, Rinehart and Winston, NY, 1968).
49 S. Lichtenstein et P. Slovic, «Reversals of Preference Between Bids and Choices in Gambling Decisions» in Journal of Experimental Psychology, n°86, 1971, pp. 46-55.
50 S. Lichtenstein et P. Slovic, «Reponse induced reversals of Preference in Gambling: An Extended Replications in Las Vegas» in Journal of Experimental Psychology, n°101,/1973, pp. 16-20.
51 P. Slovic et S. Lichtenstein, «Preference Reversals : A Broader Perspective», in American Economic Review, vol. 73, n°3/1983, pp. 596-605.
52 A. Tversky, «Rational Theory and Constructive Choice», in K.J. Arrow, E. Colombatto, M. Perlman et C. Schmidt (edits.), The Rational Foundations of Economic Behaviour, Macmillan et St. Martin’s Press, Basingstoke – New York, 1996, pp. 185-197, p. 187.
53 S. Lichtenstein et P. Slovic, «Reversals of Preference Between Bids and Choices in Gambling Decisions» in Journal of Experimental Psychology, vol. 89/ 1971, pp. 46-55. Idem, «Reponse-Induced Reversals of Preference in Gambling and Extendes Replication in Las Vegas», in Journal of Experimental Psychology, vol. 101/1973, pp. 16-20.
54 Idem et A. Tversky, «Rational Theory and Constructive Choice», op.cit., p. 195.
55 D. Kahneman, «New Challenges to the Rationality Assumption» op.cit..
56 D. Kahneman, J. Knetsch et R. Thaler, «The Endowment Effect, Loss Aversion and StatuQuo Bias» in Journal of Economic Perspectives, vol. 5/1991, n°1, pp. 193-206.
57 D. Kahneman et J. Snell, «Predicting a Changing Taste» in Journal of Behavioral Decision Making , vol. 5/1995, pp. 187-200. I Simonson, «The Effect of Purchase Quantity and Timing on Variety-Seeking Behavior» in Journal of Marketing Research, vol. 27, n°2/1990, pp. 150-162.
58 D. Kahneman, D.L. Frederickson, C.A. Schreiber, D.A. Redelmeier, «When More Pain is Preferred to Less: Adding a Better End», in Psychological Review , n°4/1993, pp. 401-405.
59 Un esempio di questo tipo di letteratura: P.A. Chiappori, «Sélection naturelle et rationalité absolue des entreprises», in Revue Économique, vol. 35, n°1/1984, pp. 87-106.
60 O. Favereau, «Marchés internes, marchés externes…» op. cit., pp. 281-282.
61 O. Favereau, «Marchés internes, marchés externes…» op. cit., p.280.
62 O.E. Williamson, The Economics Institution of Capitalism: firms, markets, relational contracting, Macmillan & The Free Press, new York, 1975.
63 M. de Vroey, «la possibilité d’une économie décentralisée: esquisse d’une alternative à la théorie de l’équilibre général», in Revue Économique, vol. 38, n°3, mai 1987, pp. 773-805.
64 M. de Vroey, «S’il te plaît, dessine moi … un marché», in Économie Appliquée, tome XLIII, 1990, n°3, pp. 67-87, p. 75.
65 C.P. Kindleberger, Manias, Panics and Krashes, Basic Books, New York, 1989, édition révisée.
66 O.E. Williamson, The Economic Institutions of Capitalism, Firms, Market, Relational Contracting, Free Press, New York, 1985, pp. 391-2.
67 P.A. Samuelson, “Classical and Neoclassical theory”, in R.W. Clower, (ed.), Monetary Theory, Penguin, Londres, 1969.
68 Per von Neuman, sia F una funzione complessa su W di quadrato integrabile, il seguito delle funzioni:
n-1
1/n   S   f. qk converge in media quadratica verso una funzione F di quadrato integrabile e q-invariante.
k=0
Vedi P.A. Meyer, «Théorie ergodique et potentiels», in Annales Inst. Fourier , t. XV, fasc. 1, 1965.
69 P. Billingsley, Ergodic Theory and Information, Kreiger Publishers, Huntington, 1978. Per una applicazione diretta, R. Lucas et T.J. Sargent, Rational Expectations and Econometric Practices, University of Minnesota Press, Minneapolis, 1981, pp. XII – XIV.
70 Vedi la discussione su questo punto in P. Davidson, «Some Misunderstanding on Uncertainty in Modern Classical Economics», in C. Schmidt (ed.), Uncertainty and Economic Thought, Edward Elgar, Cheltenham, 1996, pp. 21-37.
71 J. Machina, «Choice Under Uncertainty: Problems Solved and Unsolved», in Journal of Economic Perspectives, vol. 1, n°1, 1987.
72 F. Knight, Risk, Uncertainty and Profit , Houghton Mifflin, New York, 1921. Vedi in particolare pp. 19-20 et 232.
73 K. Arrow et F. Hahn, General Competitive Analysis, Holden-Day, San Francisco, 1971, introduzione.
74 Vedi D.M. Hausman, The Inexact and Separate Science of Economics, Cambridge University Press, Cambridge, 1992. S.C. Dow, “Mainstream Economic Methodology”, in Cambridge Journal of Economics, vol. 21, n°1/1997, pp. 73-93.
75 F.H. Hahn, «The next hundred years», in Economic Journal, vol. 101, n°404, numero speciale del centenario.

Comments

Search Reset
0
Francesco
Sunday, 06 August 2017 10:45
Da leggere
Like Like Reply | Reply with quote | Quote

Add comment

Submit