Uploaded by Raffaele Cerreto

economia-industriale-riassunto

advertisement
ECONOMIA INDUSTRIALE
L’economia industriale (industrial organization) costituisce un ramo specifico dell’economia
politica. Il suo campo di applicazione (industry) comprende tutte le attività d’impresa svolte su
larga scala, con l’eccezione dei settori agricolo e bancario/finanziario.
I contenuti caratteristici di questa disciplina sono lo studio del funzionamento dei mercati, le
interazioni delle imprese in concorrenza fra loro e la formazione di prezzi e margini di profitto
(prima ricompresi nel filone di studio della microeconomia, della teoria del prezzo).
Prima tappa fondamentale della costituzione della disciplina risale agli scritti di Alfred Marshall (la
“teoria dell’equilibrio economico parziale” in Principles of Economics, 1890 e dopo Industry and
Trade, 1919) considerati i primi testi di economia industriale.
Fu la Grande Depressione a mettere in crisi i i precedenti modelli della scienza economica
(principalmente della scuola neoclassica) in quanto non erano sufficienti a spiegare i fenomeni
dell’epoca (ex. la bolla speculativa di New York).
Molti economisti si concentrarono sullo studio della realtà empirica piuttosto che di modelli
astratti (ex. i lavori di Berle e Means, “The Modern Corporation and Private Property, 1932).
La strada dell’economia dei mercati imperfetti fu aperta dal ciclo di seminari all’Uni di Harvard di
Edward S. Mason negli anni ’30, che pose le basi per lo studio di relazioni causali tra la struttura
dell’offerta, le condotte delle imprese e i risultati conseguiti.
Mason assumeva l’ipotesi dell’esistenza di una relazione causale fra le caratteristiche osservabili
delle strutture di specifici settori industriali (concentrazione dell’offerta, barriere all’entrata) e le
politiche (condotte) svolte dalle imprese (la formazione del prezzo, la spesa pubblicitaria) e che da
queste discendessero i risultati (performances) delle imprese di una particolare industria.
Questi indirizzi furono poi raccolti nello scritto di Joe Bain, “Industrial Organization”, 1959, che
formalizzò il “paradigma di Harvard”, ossia la SCP(structure-conduct-performance). Importante
anche l’opera di George Stigler, “The Organization of Industry”, 1968.
Questo nuovo indirizzo di studi sui mercati ed il loro funzionamento era alimentato dalla
produzione di materiale di analisi derivante dalle cause discusse davanti l’Autorità antitrust, che
forniva una casistica molto vasta per la costituzione di modelli e per la verifica sperimentale delle
leggi del comportamento economico.
Nel corso degli anni questa impostazione di è arricchita di nuovi strumenti che riguardano l’analisi
del funzionamento e della formulazione di strategie di comportamento per le imprese che operano
nel contesto di mercati imperfetti (diversi dalla concorrenza perfetta) e fra questi in particolare:
• l’analisi dei costi delle transazioni (mira a definire i comportamenti delle imprese in presenza di
fenomeni di incertezza o razionalità limitata);
• la teoria dei giochi (analizza i fenomeni di conflitto e cooperazione tra imprese);
• la teoria dei mercati contenibili (analizza le ragioni di comportamenti diversi da quelli
tipicamente concorrenziali);
1. INTRODUZIONE
1.1 I FONDAMENTI DELL’ECONOMIA DI MERCATO
é un’idea molto condivisa che il sistema della concorrenza abbia effetti positivi sul piano
dell’efficienza (rapporto tra ciò che viene prodotto e ciò che viene impiegato nella produzione). Ma
il valore dell’efficienza non esaurisce la gamma di obiettivi richiesti dall’organizzazione del sistema
economico: accanto a questo vi sono valori etici (uguaglianza e giustizia).
In quale modo un’economia capitalistica può realizzare finalità etiche?
1.2 L’INTERESSE INDUVIDUALE
Il pensiero alla base del capitalismo è che l’individualismo non sia in contrasto con l’utilità
generale. Questo concetto fu introdotto da Bernard de Mandeville(1670-1733) in “The Fable of the
Bees: Private Vices and Public Benefits, Amsterdam 1714, i cui concetti saranno poi ripresi da
Adam Smith(1723-1790) e in chiave socio-politica da Walter Benjamin (1892-1940).
Il concetto è espresso così: all’interno di un alveare le api sono afflitte da ogni possibile vizio
individuale, ma è proprio dalla somma di questi vizi che nasce il bene comune.
Perciò, alla base del pensiero economico del capitalismo e dello sviluppo dell’economia di
mercato, vi è la considerazione etica che gli uomini sono degli egoisti e che quindi solo un
sistema che volga questo vizio privato all’interesse e al bene comune può corrispondere ai canoni
etici del bene.
Adam Smith rielabora e semplifica questo concetto ne “La Ricchezza delle Nazioni”, 1776, come
“there are no free lunches”(non è dalla benevolenza del macellaio che noi ci aspettiamo una cena,
ma dalla loro considerazione del proprio interesse personale. Non ci rivolgiamo alla loro umanità
ma al loro egoismo) o con il concetto della mano invisibile (svolgendo un’attività in modo da
produrre più valore possibile, l’individuo persegue solo il proprio interesse, ed egli è guidato da
una mano invisibile a promuovere una finalità che non è parte delle sue intenzioni: ricercando il
proprio interesse egli promuove quello dell’intera società più efficacemente du quando
accadrebbe se nell’agire si proponesse du seguire l’interesse generale).
1.3 ECONOMIA ED ETICA
Altra opera maggiore di Smith è “Theory of Moral Sentiments”, 1759 e 1790. Qui il ruolo
dell’individuo e il suo interesse è definito come prudenza comune, come regola di condotta
generalmente accettata e praticata, la quale è unione di ragione e comprensione da una parte e
del dominio di sé (concetto degli stoici) dall’altra, che si manifestano in una condotta fondata su
valore etici e che si accompagna alla naturale tendenza alla socialità, ciò che Smith definisce “la
morale della simpatia”.
L’individuo è posto al centro del processo economico poiché le sue scelte, espressione della
prudenza comune, definiscono un sistema preferibile a qualsiasi altro ordinamento.
“Ciascun individuo può giudicare dal proprio punto di vista meglio di quanto possano fare
legislatori o governatori al suo posto”.
Da questo suo passo si evince l’idea secondo cui la burocrazia (giudizio di pochi) farebbe molto
peggio rispetto alla libera scelta dei privati, per cui dal sistema della libertà naturale dei
comportamenti. ci si attende la conciliazione dell’interesse privato con l’efficienza: la mano
invisibile non è altro che il meccanismo di riequilibrio dei mercati verso la concorrenza perfetta.
Nonostante la mano invisibile conduce a risultati migliori di fenomeni coercitivi, non è detto che
conduca al risultato ottimale. Smith definisce chiaramente quali siano i compiti che richiedono
l’intervento Statale (difesa, giustizia, istruzione) e compila un lungo elenco dei difetti del sistema
della libertà naturale (ex conflitto di interessi).
Smith presenta dunque l’economia di mercato basata sulle scelte individuali e il laissez faire solo
come una presunzione di ottimo sociale, ma anzi più come un “second best”.
1.4 ECONOMIA DI MERCATO FRA COSTRUZIONE INDUTTIVA E DEDUTTIVA
Molte delle critiche ai pensieri di Smith si basano sul fatto che “le sue proposizioni non potessero
essere accettate come principi universali, ma che anzi fossero valide solo in una particolare fase
dell’industria, ricchezza e popolazione”, J. Feder.
Questa critica sembra anticipare la successiva evoluzione del pensiero economico classico della
scuola inglese, da David Ricardo (1772-1823) e John Stuart Mill (1806-1872) a William Stanley
Jevons (1835-1882) fino a trovarne la formulazione più completa rappresentata dalla “teoria
dell’equilibrio economico generale” di Leòn Walras (1834-1910) e Vilfredo Pareto (1848-1923),
compendiata nel saggio di l.Robbins La natura e il significato della scienza economica.
Le considerazioni circa le diversità delle istituzioni nei vari paesi, dell’imperfezione dei mercati e
del relativismo dei principi dell’economia motivarono gli economisti tedeschi della scuola storica/
istituzionale ad una posizione critica nei confronti della scuola smithiana. “è politica comune ed e
astuta che quando qualcuno abbia raggiunto il vertice della propria grandezza getti via la scala
sulla quale si è arrampicato, in modo da sottrarre agli altri il modo di salire dopo dilui. In ciò sta il
segreto della dottrina cosmopolita di Adam Smith”.
Friedrich List (1789-1846) considerava che il laissez faire avrebbe beneficiato la Gran Bretagna ma
non le economie in via di sviluppo.
Nello studio dei fenomeni economici a partire da D. Ricardo su andarono a formare dye indirizzi:
• quello Classico (poi Neoclassico) di orientamento prevalentemente. teorico deduttivo;
• quello empirico induttivo basato sull’analisi dei fenomeni presenti nella realtà storica;
1.5 LA SINTESI DI ALFRED MARSHALL
Alfred Marshall (1842.1924) fu uno dei più celebri economist inglesi dell’Università di Cambridge,
le cui opere (Principles of Economics, 1890 e Industry and Trade, 1919) sono considerati l’origine
della moderna economia industriale, riconobbe il limite della teoria classica e neoclassica:
“Ricardo e i suoi seguaci (ma non Smith), per amor di semplicità, considerarono nei loro scritti
l’uomo come un’entità omogenea, e non si preoccuparono di studiare i suoi aspetti differenziali.
Essi erano consci che gli abitanti d’altri paesi avevano particolarità meritevoli di approfondimento,
ma il loro errore fondamentale consiste nel non essersi resi conto di quanto fossero suscettibili le
condotte e gli elementi strutturali delle industrie.”
La teoria dell’equilibrio economico parziale proposta da Marshall nei Principles od Economics con
l’analisi della domanda e dell’offerta di specifici ambiti. di attività economica (industries) e il
riconoscimento delle diversità ed imperfezioni dei mercati, assieme al materiale tratto dai casi
dell’Autorità antitrust negli Stati Uniti, spianarono la strada alladisciplina dell’economia industriale.
1.6 LE “MARKET FAILURES”
Il campo dell’economia industriale riguarda i casi in cui le forze spontanee del mercato producono
distorsioni all’equilibrio, che perciò si allotana dal cosiddetto “ottimo paretiano”, producendo una
distribuzione delle risorse imperfetta (market failures).
Il termine Market Failures o Imperfezioni di Mercato risale al filosofo utilitarista inglese Henry
Sidgwick (1838-1900). Esso indica una vasta casistica, divisa in:
• La produzione di beni pubblici e sociali, che il mercato non è in grado di produrre nella quantità
e nella specie desiderabile a causa di comportamenti opportunistici o perchè il bene/servizio
non si presta ad essere prodotto o distribuito con i normali meccanismi del mercato, nel senso
che il suo valore non è incomparabile in un prezzo;
• La presenza dei fenomeni. legati all’incertezza e all’instabilità che allontanano il sistema
dall’equilibrio stabile, che possono riguardare il sistema nel suo complesso o circostanze
specifiche di singole insustrie e mercati che quindi derivano dalle caratteristiche dell’offerta e
della domanda (ex, cobweb model) o dall’effetto dell’interazione fra le decisioni di un numero di
produttori nel determinare prezzi e quantità dell’offerta;
• La presenza di restrizioni alla concorrenza determinate dal potere monopolistico, che vanno
dalla concorrenza monopolistica più banale alla forma più estrema di monopoli naturali;
• La presenza del fenomeno delle esternalità, per cui alcuni costi e benefici che derivano dalle
decisioni di singoli operatori non risultano incorporate nel sistema dei prezzi che l’imprenditore
prende in considerazione nel determinare le proprie scelte (ex, costi dell’inquinamento);
• La presenza di costi di transazione che rende il ricorso al mercato meno efficiente o più
rischioso rispetto all’accentramento delle operazioni produttive nell’ambito di una struttura di
comando dell’impresa;
• La presenza del fenomeno dell’asimmetria informativa, che costituisce un campo di studi
inaugurato dal saggio di George Akerlof, The Market for Lemons: Quality Uncertainty and the
Market Mechanism, 1970, che riprende in chiave contemporanea un fenomeno antichissimo, la
“Legge di Gresham”. L’asimmetria di determina quando una parte degli operatori del mercato
risponde di informazioni rilevanti sui prodotti che non sono disponibili agli altri;
L’insieme di queste failures rende l’insieme dei mercati e il loro funzionamento molto diversi da ciò
che si determinerebbe in base agli assiomi della concorrenza perfetta, che in realtà costituisce un
caso limite la cui probabilità di verificarsi costituisce piuttosto un’eccezione.
1.7 LE CORREZIONI AL MERCATO, DA SMITH A KEYNES
La rivoluzione industriale (iniziata negli anni dei primi scritti di Smith) hanno confermato la
superiorità dell’economia di mercato su ogni altra forma di organizzazione del sistema economico
sotto il profilo dell’efficienza, ma ne hanno anche mostrato limiti e difetti sotto il profilo dei valori
etici e delle distorsioni spontanee del suo funzionamento e infine l’inattitudine dell’ordine
spontaneo a produrre soluzioni per una casistica rilevante.
In più l’esperienza ha messo in evidenza il problema della stabilità del sistema basato
sull’economia capitalistica: tutto ciò ha richiesto l’introduzione di correttivi di carattere
istituzionale (sindacati, legislazioni sul lavoro, politiche sociali di welfare come previdenza sociale
e sanità, la tassazione del reddito, le politiche di regolamentazione monetarie e fiscali definite
“keynesiane”).
1.8 SINDACATI E LEGISLAZIONI DEL LAVORO
Il primo problema del sistema basato sull’economia di mercato è rappresentato dalla relativa
debolezza dei lavoratori salariati (journeymen) rispetto ai capitalisti che offrono loro lavoro,
problema già evidenziato da Smith: essendo i datori di lavoro meno numerosi dei dipendenti
lavoratori, per loro era più facile coalizzarsi in cartelli configurando una forma di mercato
monopolistica per la contrattazione dei salari.
Da questa considerazione si ricava che il mercato del lavoro va regolato, rimanendo comunque in
linea con i principi della mano invisibile e della libertà naturale.
Nel mercato del lavoro il principio della concorrenza è ostacolato da un’asimmetria di forza
contrattuale fra i capitalisti e i lavoratori, per cui eventuali misure atte a rimuovere questo ostacolo
sono condizioni per rafforzare il grado di concorrenza, e non indebolirlo.
Infatti per il mercato del lavoro l’equilibrio naturale o spontaneo non rappresenterebbe un
equilibrio concorrenziale. Assumendo come ipotesi che la produttività del lavoro sia decrescente
al crescere delle quantità impiegate, e che il costo sia invece crescente, ne deriva che il costo
marginale (cioè l'assunzione di un lavoratore in più) è superiore al salario medio.
In condizioni di monopsonio l'imprenditore determinerà la quantità di lavoro da assumere al punto
in cui la produttività marginale uguale al costo marginale. Ciò dà origine ad una differenza tra la
produttività del lavoro e il salario medio, differenza che Marx definiva plusvalore, e ad un minore
livello di occupazione rispetto a quanto risulterebbe in condizioni di concorrenza, in cui la
domanda di lavoro si spingerebbe almeno fino al punto in cui il costo marginale uguaglia la
produttività media.
Questa riflessione indusse economisti classici, come Lassale e Carl Marx, a porre a base delle
proprie analisi la tre "legge ferrea dei salari", secondo cui il salario dei lavoratori dipendenti non
avrebbe voluto eccedere il livello della pura sussistenza, ovvero il livello delle condizioni di vita
minime alle quali i lavoratori avrebbero accettato di vivere E di dare al mondo figli evitando che ci
fosse conseguentemente nel lungo periodo una caduta della quantità di lavoro offerta.
Sempre Marx diceva: "una remunerazione liberale del lavoro e contemporaneamente l'effetto è il
sintomo di una crescente ricchezza nazionale. Il costringere il lavoratore rimanere povero
costituisce il sintomo naturale di uno stallo che salari da fame lo sono del fatto che le cose stanno
rapidamente peggiorando”. Le previsioni di Marx circa il destino dell'economia capitalistica
(restrizione della domanda conseguente all'impoverimento di quote crescenti della popolazione)
non si avverarono perché fondata sul presupposto errato della rigidità dei salari tra virgolette
verso l’alto".
Al contrario, gli aumenti della produttività conseguiti dalla applicazione di crescenti quantità di
capitale e dalla tecnologia industriale al posto di trasformarsi solamente in ulteriore
accumulazione capitalistica, spingendo alla concentrazione monopolistica dell’industria e alla
riduzione del numero degli occupati (da cui le crisi di sovrapproduzione il collasso finale chiama
capitalistico), si trasferirono in cospicui aumenti dei salari anche sotto la pressione dell'attività
sindacale, il che, oltre migliorare le condizioni di vita dei lavoratori, diede luogo ad un'espansione
di lungo periodo del potere d'acquisto che costituisce, come va intuito anche Smith, una delle
spiegazioni dello sviluppo formidabile delle economie di mercato.
Per cui andando di pari passo l'aumento del potere d'acquisto degli operai con lo sviluppo
dell'economia, vi è un processo virtuoso di redistribuzione degli incrementi di produttività in cui le
trade unions e le legislazioni a protezione dei lavoratori hanno svolto ruolo fondamentale e
positivo nella ricerca di un equilibrio fra il monopsonio, in cui cadrebbe spontaneamente il
mercato del lavoro, e prevenire la formazione di una rendita a favore dei lavoratori disoccupati che
costituirebbe una discriminazione che penalizza i non occupati.
1.9 LE POLITICHE SOCIALI: PREVIDENZA OBBLIGATORIA E SANITA’
Il secondo problema riguarda le capacità dei singoli individui di badare a se stessi, capacità che
per ragioni di età salute o altro non può essere data per scontata.
Le prime istituzioni moderne in tese ad incorporare questi valori furono introdotte dal cancelliere
Otto von Bismark nella Germania di fine ‘800, mediante l'assicurazione obbligatoria per il
pensionamento dei lavoratori dipendenti una volta raggiunti 65 anni di età e successivamente in
Gran Bretagna dal governo liberale di Churchill (1908-1910).
Il termine welfare È legato alle riforme del presidente degli USA Roosevelt (New Deal) e di Lord
Beveridge (Social Insurance and Allied Services, 1945).
Le politiche sociali del Welfare State si ispirano al principio dell'uguaglianza delle opportunità, al
contenimento delle conseguenze derivanti dalle diseguaglianze nella distribuzione del reddito e
all'assistenza pubblica a coloro che non sono in grado di assicurarsi il minimo necessario per
un'esistenza dignitosa. Il tratto fondamentale è costituito dalle assicurazioni sociali (anzianità,
infortuni e malattia) finanziati da contributi obbligatori, ma include anche la pubblica istruzione e la
fornitura di alloggi a prezzi compatibili con il livello salariale di ognuno.
Alcune problematiche del il Welfare State riguardano l'efficienza delle burocrazie dei monopoli
pubblici preposti alla produzione e all'erogazione di tali servizi, E la misura con cui le contribuzioni
dirette vanno integrate con risorse collettive provenienti dalla tassazione.
L'economista austriaco Frederic Von Hayek (1899-1992) diceva: ”Vi è ancora un'altra classe di
ricchi rispetto ai quali è stata riconosciuta solo recentemente la necessità di azioni governative,
dovuta al fatto che, come risultato della distruzione dei legami della comunità locale e degli
sviluppi di una società aperta e mobile, un numero crescente di persone non è più legato a gruppi
su cui contare in caso di disgrazia. Si tratta del problema di chi, per qualsiasi ragione, non può
guadagnarsi da vivere in un'economia di mercato, quali malati, vecchi, handicappati, vedove e
orfani. Sono queste persone colpite da condizioni avverse che possono colpire chiunque e contro
le quali molti molti non sono in grado di premunirsi da soli ma che una società che abbia
raggiunto un certo grado di benessere può permettersi di aiutare.” (from Law, Legislation and
Liberty, 1979).
E’ da questi concetti che nasce la definizione contemporanea del liberalismo economico che
viene comunemente indicato con il termine “economia sociale di mercato”.
1.10 FINALITA’ DELLA TASSAZIONE
Il terzo ordine di problemi istituzionali è che questo sistema non riduce le disuguaglianze fra i
soggetti dell'economia, ma tende anzi ad aumentarle, e dal problema della produzione dei beni
pubblici.
Sin da quando sono esistiti i proprietari e lavoratori in comunità organizzate, la principale finalità
della tassazione del reddito e del patrimonio è stata costituita dal finanziamento della costruzione
dei beni pubblici. Adam Smith si mostrava favorevole al sistema delle concessioni per la
realizzazione possibile dei beni pubblici ma, constatando che non sempre la concessione è
possibile o addirittura conveniente, riconosceva la necessità dell'intervento pubblico, finanziato
con il prelievo di imposte.
Un suo passo rappresenta chiaramente tale pensiero: "è ragionevole che le spese sostenute a
beneficio generale della comunità siano pagate dal contributo di questa intera società, con il
concorso di tutti, il più possibile in proporzione alle capacità di ognuno".
Fossero all'inizio del 900 che fu introdotta nel discorso la finalità di redistribuzione del reddito,
incorporata nei sistemi fiscali attraverso la progressività delle aliquote: "sin dalla fine del XIX
secolo -scrive Keynes s'in The General Theory- significativi progressi nella rimozione delle
grandissime disparità di reddito sono stati conseguiti attraverso la tassazione diretta e le imposte
sul reddito”.
1.11 L’ANTITRUST
La market failure dell'economia capitalistica che riguarda l'accentuazione delle disuguaglianze
non si limita la distribuzione del reddito, ma riguarda anche la concentrazione delle imprese, cioè
la possibilità per alcuni di costituire e sfruttare la posizione dominante acquisita nel mercato.
Qualche forma di distorsione intenzionale del mercato e della concorrenza esiste praticamente da
quando esistono i mercati, ma fu solo con le innovazioni tecnologiche della seconda metà
dell’800 che si provocarono distorsioni sistematiche della concorrenza, e da queste scaturirono
crisi di sovrapproduzione, e quindi cicli depressivi recessioni che durano nove anni, tra il 1873 e il
1886 negli Stati Uniti, e poi in Europa.
Allora la dottrina prevalente nella conduzione degli affari era l'Empire building, cioè il gigantismo,
nella convinzione che la grande dimensione procurasse forza competitiva, che con questa si
potessero raggiungere dimensioni ancora più grandi.ciò contribuì, oltre a danneggiare i produttori
più piccoli con le pratiche monopolistiche, a danneggiare anche i consumatori, a ragione di prezzi
più alti che inevitabilmente si sarebbero determinati con la costituzione di un potere
monopolistico, andando così a creare il ceto dei tycoons (dotati di una sproporzionata ricchezza e
di influenza).
La reazione arrivo proprio dal ceto politico quando il senatore John Sherman fece approvare l'act
del 1890(Sherman Act); la legislazione fu poi migliorata con il Clayton Act del 1914 e
dall'istituzione della Federal Trade Commission, un ufficio composto da cinque commissari atto a
stabilire quali comportamenti sono da giudicare "forme di concorrenza sleale”.
Importante evidenziare differenze nell'antitrust europeo rispetto a quello degli Stati Uniti: mentre in
Europa i divieti riguardano l'abuso della posizione dominante, negli Stati Uniti e l'esistenza stessa
di una posizione dominante ad essere vietata.
La legislazione antitrust costituisce un insieme di leggi volte a promuovere l’efficienza, impedendo
pratiche monopolistiche e distorsioni dei mercati, ma anche una chiara connotazione etico
sociale, cioè la dispersione del potere economico e della conseguente influenza politica e quindi il
ripristino della fiducia nell'equità del sistema economico e politico.
In Europa invece l'obiettivo finale era costituito dalla volontà di integrare i mercati nazionali in un
grande mercato unico.
1.12 STABILITA’ E SVILUPPO
Il quinto e ultimo tipo di correttivi introdotti per correggere le failures dell'economia di mercato
riguardano la stabilità e lo sviluppo. Il mercato produce stabilità per tre ordini di motivi:
• il primo è un fatto tecnico che si verifica in casi specifici, quando l'elasticità dell'offerta è
maggiore di quella della domanda di una particolare industria, da cui il “teorema della
ragnatela”;
• Il secondo è costituito dall'instabilità dei prezzi dovuto alla moneta;
• Il terzo legato al fenomeno del "ciclo economico", alla cui comprensione e controllo si
impiegheranno i migliori economisti fino Keynes(1883-1946);
Al tempo di Smith la stabilità non era considerata un valore: per l'economia classica i prezzi erano
semplicemente la traduzione in moneta del valore economico, per cui la stabilità della prima era
affidata alla natura (al massimo si poteva avere l'inflazione dovuta alla scoperta di nuovi tuoi
cimenti di oro argento o allo svilimento del contenuto metallico delle monete).
La stabilità del valore intrinseco delle merci dipendeva dall'idea che quest'ultimo dipendesse
fondamentalmente dalla quantità di lavoro incorporato nella merce, e dall'idea che i salari fossero
stabiliti in termini reali (ciò fatto salvo il caso che cause naturali provocassero penuria o
sovrabbondanza di merci e conseguenti fluttuazioni dei prezzi).
E ad introdurre il valore della stabilità nel sistema dell'economia di mercato sono stati nel misura
John Maynard Keynes e Willhelm Ropke (1899-1966).
Il primo, con la sua opera principale The General Theory of Employment, Interest and Money
(1936), introdusse due concetti rivoluzionari per il sapere corrente:
• che la moneta non è estranea all'equilibrio dei mercati, per cui se l'offerta di moneta è
abbondante, perché la spesa pubblica è finanziata con l'emissione di cartamoneta (il
cosiddetto signoraggio) il luogo delle imposte, o perché è facile attingere al risparmio dei
mercati internazionali e convertirlo in moneta nazionale, ne può derivare un'espansione dei
consumi e degli investimenti. Di qui la conclusione che la domanda e l'offerta non sono
indipendenti dalla moneta;
• che il liberismo (free trade) e la mano invisibile non garantiscono a fatto la stabilità e lo sviluppo;
Il permanere del gold standard, cioè dell'impegno a convertire la carta moneta in oro sulla base di
parità prefissata, negli Stati Uniti fino alla crisi determinata dalle spese di guerra per il Vietnam, in
Inghilterra fino alla seconda guerra mondiale, può spiegare la diversa sensibilità sviluppata in cui
paesi nei confronti della stabilità monetaria.
Keynes era però preoccupato degli elementi di stabilità che avrebbero potuto derivare dalla
globalizzazione dei mercati finanziari: l'ordine economico mondiale emerso a seguito degli accordi
di Brett town Wars (1944) su cui stress e il sistema occidentale del dopoguerra fu largamente
ispirato da lui stesso.il sistema di Brett town Wars si basava su tre principi fondamentali:
• la convertibilità con cambi fissi delle principali valute in dollari, e di questi in oro;
• la tendenza verso la piena liberalizzazione degli scambi di merci e servizi, con la costruzione del
Who (World Trade Organization);
• il controllo e il sostegno della stabilità dei rapporti di cambio e dei tassi di crescita esercitato su
base mutualistica da parte di organismi multinazionali specializzati (ex. Workd Bank);
Nonostante alcuni prima di lui, come ad esempio Malthus, avrei avessero intuito i meccanismi
keynesiani, Keynes trasse ispirazione dalle vicende della grande crisi del ’29, quando posti di
fronte al continuo peggiorare le aspettative dei mercati, i governi si attennero alla teoria
neoclassica, ovvero al license fire più ortodosso, astenendosi da qualsiasi intervento lasciando
così precipitare la produzione, il reddito, i consumi e gli investimenti.
Keynes partì dalla critica alla “legge di Say”, secondo la quale la stabilità sarebbe assicurata dal
fatto che l'offerta finisce inevitabilmente per creare la domanda finale.
"Se ciò fosse vero -scriveva che Keines- la concorrenza fra imprenditori porterebbe sempre a
un'espansione dell'occupazione fino al punto in cui la funzione della produzione dell'offerta cessi
di essere elastica.perciò la legge di sai equivale alla proposizione secondo cui non vi sarebbero
ostacoli alla piena occupazione”.
Si noti che la politica economica del New Deal di Roosevelt, che stabilizzò con immensi benefici
l'economia americana, fu largamente ispirata alle sue idee, così come i programmi di ricostruzione
dell'Europa distrutta dalla seconda guerra mondiale.
Ma ad oggi sono ben noti anche i limiti delle sue teorie, ovvero che non trattò il problema di come
affrontare le crisi di instabilità che aveva analizzato, cosa che invece riuscì a Ropke, principale
teorico della stabilità monetaria con il suo scritto “ Spiegazione economica del mondo
monetario”, 1949. Lui comprendeva che l'instabilità del potere di acquisto della moneta provoca
incertezza negli operatori economici, e di qui disoccupazione stagnazione.data la sua esperienza
dei traumi provocati dall'inflazione in Germania, lui sosteneva le virtù della moneta dura (cioè
stabile) contro le miserie della moneta molle (cioè inflazionistica). In Italia, il governatore della
Banca d'Italia e poi presidente della Repubblica, Luigi Einaudi, condivideva queste stesse
posizioni, e fece della stabilizzazione della lira il cardine del programma di politica economica da
cui prese l'avvio la ricostruzione del dopo guerra, fino al miracolo economico degli anni 50.
Alcuni seguaci di Keynes che si definivano liberal (termine che indica tra l'altro chi è favorevole
all'intervento pubblico nell’economia), sulla base di rilevazioni statistiche, sostenevano che
l'inflazione non danneggia l'occupazione ma al contrario la favorisce (una considerazione che lo
stesso Keynes avrebbe giudicato sbagliata, dato che considerava l'inflazione “un esproprio degli
effetti distributivi ingiusti e pericoloso per la questione sociale”).
Solo dopo ci si convinse che l'inflazione rappresenta pur sempre una tassa, che peraltro si
distribuisce in modo non razionale tra i cittadini, provocando ingiustificati trasferimenti di
ricchezza e che, se incorporata nelle aspettative dei mercati, deprime l'andamento dell’economia.
La controffensiva monetarista ebbe come protagonista Milton Friedman, e prima l'economista
austro britannico F. von Hayek, e la scuola di Chicago. Sin dal 1956 Friedman aveva riformulato la
teoria quantitativa della moneta di Irving Fisher, e ne aveva ricavato la ferma convinzione che
fosse necessario controllare la quantità di moneta e non soltanto i tassi di interesse.
La scuola di Chicago non si limitò a reintrodurre il valore della stabilità dei prezzi, ma spinse la
sua critica a tutte le forme di interventismo nell’economia: il prevalere delle loro idee, sostenute al
tempo dal presidente Reagan, fermò l'inflazione e diede il via al lungo periodo di espansione
dell'economia americana, il cosiddetto reaganismo o reagonomics, che fu tuttavia un miscuglio di
principi monetaristi e keynesiani (severiu controllo della base monetaria che spensero l’inflazione,
accompagnati però ad una politica fiscale espansiva).
2. LE METODOLOGIE DI ANALISI
2.1 LA SCUOLA DI HARVARD
La metodologia di analisi dell'economia industriale associata ai nomi di Edward Mason
(1899-1992) e Joe Bain (1912-1991) ha un carattere empirico ed è spesso indicata come "scuola
di Harvard”.
Il metodo della scuola di Harvard si fonda su un approfondimento della market failure determinata
dal potere monopolistico e si articola nel cosiddetto paradigma "struttura-condottarisultati"(structure-conduct-performance SCP).
La tesi è che la struttura dell'offerta (numerosità e dimensione dell'imprese, barriere all'entrata,
grado di differenziazione dei prodotti, integrazione verticale) determinano le condotte delle
imprese (le politiche di prezzo, gli investimenti per l'innovazione, la spesa pubblicitaria) ed è da
queste che derivano i risultati (efficienza, competitività, rapporto fra prezzi e costi marginali ovvero
i profitti, innovazione delle tecnologie dei prodotti).
Ci sono verifiche empiriche su questa relazione causale che dimostrano quanto ci sia un forte
legame tra condotte risultati e la struttura dell'offerta, ossia che esiste una regressione
statisticamente significativa tra il margine di profitto dell’industria (πi), i valori della concentrazione
(CRi) e delle barriere all'entrata (BEi)che caratterizzano un settore.
Il modello di Harvard descrive il raggruppamento delle variabili che caratterizzano una particolare
industria in quattro tipologie che sono definite secondo un criterio di omogeneità:
• Le condizioni di base, distinte tra quelle che riguardano la domanda (funzione di domanda) e
quelli dell'offerta (funzione dei costi). Questi elementi si presentano come esogene per
l’industria, nel senso che le imprese presenti nel settore non possono esercitare su di esse
alcuna azione modificativa nel breve-medio periodo;
• Le caratteristiche della struttura dell'offerta, come numerosità e dimensione delle imprese
(concentrazione), barriere all'entrata, differenziazione dei prodotti, integrazione verticale e
diversificazione. Questi elementi costituiscono l'oggetto delle strategie delle imprese, cioè gli
obiettivi delle loro azioni di medio lungo periodo;
• I comportamenti delle imprese, come politica dei prezzi, spesa pubblicitaria, sviluppo delle
quote di mercato di nuovi prodotti, comportamenti cooperativi o indipendenti;
• I risultati di un'industria, ossia il tasso di profitto, la competitività dei prezzi, l'efficienza
allocativa, il saldo della bilancia commerciale, il livello delle retribuzioni e la stabilità o rischiosità
del settore;
La relazione causale tra questi elementi non è necessariamente univoca: mentre si assume che la
struttura determina i comportamenti, può anche essere vero il contrario.
In secondo luogo si deve osservare che le politiche pubbliche possono incidere su ciascun
gruppo di variabili.
In sintesi il modello della scuola di Harvard è fondamentalmente basato sull'osservazione di
elementi fattuali derivati dall'osservazione empirica stilizzati in categorie omogenee e relazioni
causali.
Importante anche l'influenza che si attribuisce all'intervento pubblico o ai fattori istituzionali nel
determinare i risultati dell’industria, permettendogli di influenzare tutti gli elementi che concorrono
a determinarli.
L'economia industriale ispirata a questa scuola può anche essere definita “economia dei mercati
imperfetti", dal momento che si parte dal presupposto teorico che alcune caratteristiche di una
particolare industria possono provocare delle distorsioni nella sua struttura che lo allontanano da
la concorrenza perfetta.
Le imprese possono però sfruttarle a proprio vantaggio, E in più questo presupposto di base
giustifica la finalità dell'intervento delle autorità pubbliche, che sarebbe quello di correggere il
funzionamento dei mercati e farsi che le performance si approssimino il più possibile all'interesse
generale.
2.2 LA SCUOLA DI CHICAGO
La scuola consideratane la concorrente è quella derivante dall'Università di Chicago, che deriva
dai tradizionali principi dell'economia classica e neoclassica, in contrasto con la derivazione dalla
scuola istituzionalista tedesca della scuola di Harvard.
L’iniziatore della scuola fu Alan Director (1902-2004), fondatore del filone disciplinare "law and
economics", che si proponeva di approfondire le connessioni tra processi economici ed istituti
della legislazione, ma l'esponente più rappresentativo è stato George Stigler (1911-1992, premio
Nobel per l'economia 1982).
I lavori di Stiller quali The Theory of Price, 1946, e A Theory of Oligopoly, 1964, furono la
quintessenza dell'empirismo nell'economia congiunto a solide basi teoriche.
Stigler si differenzia dalla scuola di Harvard dando più importanza alla teorizzazione alla
costruzione di modelli, e rivelando che gli interventi della mano pubblica sui mercati non sempre
producono gli effetti desiderati, ma che anzi possono condurre a risultati peggiori di quelli che le
forze spontanee del mercato avrebbero determinato.
Questo perché molto spesso la prassi che dirige l'intervento pubblico si basa su valutazioni
errate.
La regola che sovrasta tutti gli altri possibili indirizzi è la concorrenzialità dei mercati, alla luce
della quale tutte le interferenze esterne finiscono con essere nocive, salvo l'impedire che le
imprese stesse riducano il grado di concorrenza nel mercato attraverso pratiche collusive o
comunque limitativi della concorrenza.
Le politiche di deregolamentazione e di apertura dei mercati furono risultato diretto del
riconoscimento della della validità dell'impostazione della scuola di Chicago, che riteneva che il
potere esplicativo dei fenomeni effettivamente osservati fosse nel modello di concorrenza
perfetta. Nel modello della scuola di Chicago le performance dipendono dalla capacità di
innovazione e di visione strategica dei manager: sono pertanto le migliori performance a formare
le posizioni dominanti e non viceversa.
La scuola di Chicago giustifica il libero mercato spiegando che, anche quando è assicurata in
un'industria libertà di entrata per nuovi concorrenti, le distorsioni che si possono osservare nella
struttura dell'industria rappresentano solo una fase del processo concorrenziale, fase che non è
necessariamente in contrasto con l'efficienza e con l'interesse generale, e che, comunque, è
destinata ad evolvere sotto la spinta delle forze del libero mercato e della concorrenza.
Per la scuola di Chicago il potere di mercato, e al limite le posizioni monopolistiche, non sono
necessariamente dei fattori negativi, condizione che siano garantite le condizioni di libertà di
mercato e che non vi siano interventi pubblici. L'innovazione tecnologica e le libertà di entrata
rappresentano i fattori chiave per la comprensione della dinamica dei mercati.
2.3 I NUOVI SVILUPPI TEORICI: LA NUOVA ECONOMIA INDUSTRIALE
La “teoria dei giochi” ha determinato un nuovo indirizzo di carattere teorico ed astratto nello
studio del funzionamento dei mercati e dei comportamenti interattivi tra le imprese, segnando un
ritorno alla metodologia deduttiva della tradizione classica e neoclassica.
L’applicazione di questa teoria è dovuta a due matematici americani, sebbene vi siano stati dei
precedenti notevoli come lo studio dell'equilibrio oligopolistico di Cournot e quello di Bertrand.
Un gioco è un modello formalizzato che descrive una situazione di comportamenti interdipendenti
nel quadro di regole date, dove il risultato di ciascun giocatore (o attore, agente) dipende sia dalle
sue scelte sia dalle azioni compiute dagli altri giocatori.
In questi casi il comportamento ottimale di un'impresa dipende non solo dei propri costi dal
proprio volume e così via ma anche da ciò che l'impresa in questione congettura circa il
comportamento delle altre imprese: dato che tutti i partecipanti al mercato tendono a comportarsi
in questo modo, le scelte di un particolare soggetto dovrebbero tenere conto degli effetti di
queste ultime sulle congetture delle altre imprese e delle conseguenze sul loro comportamento.
Perciò la struttura del mercato e le condotte delle imprese non dovrebbero essere assunti come
dati ma piuttosto come risultato del comportamento delle imprese alla ricerca dei migliori risultati
possibili.
Contributi molto importanti alla teoria sono stati apportati da John Nash (1928, Nobel per
l'economia 1994) nel campo della formazione dell'equilibrio nei giochi non cooperativi e da Harold
Demsetz e Armen Alchain, rispettivamente nel campo delle informazioni asimmetriche e del ruolo
dei diritti di proprietà.
2.4 CONCLUSIONI
Il paradigma SCP non può essere considerato IL modello teorico, e tanto meno l’unico, ma
costituisce una sorta di schema di presentazione degli argomenti oggetto dell’economia
industriale.
3. SETTORI E MERCATI.
LA TEORIA DELL’EQUILIBRIO ECONOMICO PARTICOLARE DI A. MARSHALL,
IL MERCATO RILEVANTE, I DISTRETTI INDUSTRIALI E LE CLASSIFICAZIONI
STATISTICHE
3.1 SETTORI E MERCATI: DEFINIZIONI
La prima questione da affrontare per lo studioso di economia industriale e la delimitazione
dell'oggetto di analisi. La definizione dei settori e dei mercati assume contorni diversi a seconda
della natura del soggetto e delle finalità dell'analisi da condurre; le imprese si pongono tale
problema per stabilire le proprie strategie avendo l'esigenza di identificarne l'ambito di
applicazione.
Il termine industria o industry o settore industriale si riferisce ai venditori (sellers), mentre il termine
mercato si riferisce agli acquirenti (buyers). Il settore può essere identificato sulla base dei fattori
dell'offerta e il mercato sulla base dei fattori della domanda.
Per quanto riguarda gli elementi dell'offerta la famiglia di definizioni che incontra più successo
pratico è quella fondata sulla similarità tecnologica, che si ricollega anche alla prima definizione di
industria nell'ambito dell'economia industriale, che risale a P. W. S. Andrews (Manufacturing
Business, 1949), che definisce industria l'insieme di imprese che utilizzano tecnologie di processo
simili e possiedono esperienze e conoscenze comuni che rendono possibile produrre un
particolare quadro prodotto qualora conveniente. Secondo questa definizione sono raggruppati
processi simili in quanto presuppongono stessi patrimoni di esperienze e di conoscenze, stesse
organizzazioni tecniche o materie prime (l’ultimo dei criteri è il più semplice e diffuso).
La classificazione dei settori industriali da parte degli istituti di statistica nazionali è in parte
conforme a questi criteri, ma il problema è che gli insiemi che ne risultano sono troppo
disomogenei il chi rende troppo poco significativo qualsiasi dato.i criteri finora menzionati sono
adatti a settori tecnologicamente maturi ma non a settori science based, caratterizzati da
dinamismo e forte interazione tra gli agenti.
Oltre ai criteri tecnologici e della materia prima nell'ambito degli elementi dell'offerta è possibile
definire settori in funzione dell'esistenza dell'estensione di reti o sistemi di distribuzione delle
imprese: faranno parte di uno stesso settore tutti i beni e servizi che lordi controllata da
un'impresa o da un gruppo può distribuire o raggiungere. Questo criterio soprattutto utilizzato
dall'imprese impegnate nella competizione in mercati che regolano i settori delle public utilities.
Le definizioni basate sulle criterio tecnologico presentano il limite di non tenere conto del mercato
e dei consumatori, mentre al contrario le definizioni basate sul mercato e su elementi della
domanda tengono conto dei gusti e delle preferenze dei consumatori, dei costumi di consumo,
dei bisogni delle funzioni dei prodotti. Secondo tale criterio, i processi produttivi che soddisfano
uno specifico bisogno con beni e servizi costituiscono un’industria.
E l'analisi di J. Bain possiede molti elementi di un'analisi di mercato facendo riferimento al
concetto di sostituibilità tra prodotti dal punto di vista dei consumatori.
Per misurare tale sostituibilità Bain utilizza il concetto di elasticità incrociata tra beni sostituibili,
data dal rapporto tra la variazione percentuale della quantità domandata del bene Y e la
variazione percentuale del prezzo del bene X, ovvero:
In funzione del segno dell'elasticità incrociata possiamo classificare un bene come sostituto, se
l’elasticità è maggiore di zero; complementare, se minore di zero e indipendente, se il suo valore è
uguale a zero. Quanto maggiore è il valore dell'elasticità incrociata, tanto più i tuoi prodotti sono
sostituibili tra loro e configurano un mercato.
Analogamente all’elasticità incrociata misurata dal lato della domanda (D) è possibile misurare
l'elasticità del incrociata dal lato dell'offerta (S), come segue:
Se il valore di questa elasticità incrociata fosse zero, i prodotti sarebbero indipendenti. Un valore
negativo indicherebbe prodotti sostituibili dal lato dell’offerta, mentre un valore positivo in
indicherebbe che i prodotti sono il risultato di produzioni tecnicamente congiunte.
L'interesse delle imprese è quello di segmentare il mercato in particolare al fine di discriminare i
prezzi, piuttosto che quello di stabilirne i confini, dal momento che l'innovazione strategica
dell'impresa si accompagna alla ridefinizione dei confini dei mercati di conseguenza alla scoperta
di nuovi bisogni.
3.2 L’AMBITO COMPETITIVO E L’EQUILIBRIO PARZIALE DI A.MARSHALL
Gli aspetti della domanda e dell'offerta sono connessi a quelli di settore industriale attraverso il
concetto di ambito competitivo (o relevant market), definito come l'insieme delle porzioni della
domanda e dell'offerta che presentano un'elevata elasticità incrociata dell'offerta e di consumi
caratterizzati da una significativa elasticità incrociata della domanda.
La definizione coincide con quella di equilibrio economico particolare o parziale di A.Marshall, e
quindi con il suo concetto di industry. Tale definizione di Marshall è quella di uno spazio
economico in cui “buyers and sellers are in such free intercorse with one another that the prices
of the same good tend to equality easily and quickly” (Principles of Economics).
Il mercato di Marshall è quindi quello in cui può essere identificato un unico prezzo nel quale è
valida l’analisi dell'equilibrio parziale, e la sua teoria considera l'equilibrio quale si realizza in una
parte soltanto dell'economia, cioè in un determinato mercato, supponendo che non variano le
condizioni esistenti negli altri mercati, sulla base delle ipotesi della massimizzazione dell'utilità
quale fenomeno fondamento dell'agire degli individui nel mercato.
3.3 ILMERCATO RILEVANTE: DEFINIZIONE E APPLICAZIONE ALLA NORMATIVA
ANTITRUST
L'applicazione delle normative antitrust pone l'esigenza di definire l'ambito specifico in cui si
esercita la concorrenza tra le imprese, ovvero il mercato rilevante che può essere definito come "il
più piccolo contesto (insieme di prodotti, area geografica) nel cui ambito è possibile la creazione
di un potere di mercato" o, più genericamente, si può definire come il più piccolo insieme di
prodotti in un'area geografica in cui è possibile per le imprese porre in atto fattispecie proibite
dalla legislazione antitrust.
La definizione del mercato rilevante non fa quindi riferimento a caratteristiche intrinseche dei beni,
ma all'insieme dei prodotti e delle aree geografiche che esercitano un vincolo competitivo
reciproco. Spesso tale definizione decide l'esito dei casi antitrust, ad esempio la quota di mercato
di un’impresa sarà considerata una variabile approssimativa del suo potere di mercato. EX: la
quota di mercato della Coca-Cola sarà maggiore se il mercato considerato e quello dei prodotti a
base di cola invece che quello comprendente tutte le bevande analcoliche.
In base alle linee guida sulla definizione di mercato rilevante pubblicati dalla commissione
europea (linee guida comunitarie), il mercato va definito sia sotto il profilo del prodotto che sotto il
profilo geografico, per individuare con i concorrenti effettivi delle imprese interessate che sono
realmente in grado di condizionarne il comportamento e di impedire loro di operare in modo
indipendente da effettive pressioni concorrenziali.
• il mercato rilevante sotto il profilo del prodotto comprende tutti i prodotti servizi che sono
considerati intercambiabili o sostituibili dal consumatore in ragione delle loro caratteristiche dei
loro prezzi e dell'uso cui sono destinati (ed è tramite il calcolo dell'elasticità incrociata della
domanda che si misura il grado di sostituibilità dei prodotti e dunque la misura in cui l'impresa
è soggetto al potere di scelta dei clienti); ***
• Il mercato rilevante sotto il profilo geografico è definito come l'aria nella quale le condizioni di
concorrenza sono sufficientemente omogenee e che può essere distinta da zone geografiche
contigue dove le condizioni di concorrenza sono differenti.tale limite geografico viene
determinato analizzando sia un aumento del prezzo in una località influisca o meno in modo
sostanziale sul prezzo di un'altra località.se è così entrambe le località appartengono allo
stesso mercato geografico. Per l'individuazione di un tale mercato occorre raccogliere le
seguenti informazioni: entità dei costi di trasporto, disponibilità degli acquirenti del prodotto a
spostarsi, eventuale presenza di barriere di natura tariffaria agli scambi internazionali.
L'attività istruttoria dell'attività garante della concorrenza e del mercato italiana (Agcm), e della
commissione antitrust europea, offre numerosi esempi dell'individuare un mercato rilevante:
- 3.3.1 IL CASO DEL MERCATO DEL CALCESTRUZZO
Il primo caso è coerente con le linee guida comunitarie.
Il caso riguarda un'intesa restrittiva nel settore del calcestruzzo sanzionata dall’Agcm nel 2004,
Volta alla ripartizione di forniture con fissazione di prezzi e condizioni contrattuali. Tale istruttoria
condotta dall'autorità ha fatto emergere relazioni tecnico industriali e profili di integrazione
verticale tra il calcestruzzo preconfezionato e il cemento, la principale materia prima per la
produzione del primo, che incide considerevolmente sui suoi costi.
Per quanto riguarda il cemento, il prodotto è stato considerato omogeneo, mentre dal punto di
vista del mercato geografico, è stato considerato composto dalla somma di numerosi mercati
solo locali, a causa dell’alto costo del trasporto del cemento.
Stesso discorso è valso per il prodotto calcestruzzo, in ragione delle caratteristiche di deperibilità
del prodotto e del favorevole rapporto peso prezzo che limitano il raggio di azione.
- 3.3.2 IL CASO DEL MERCATO DELLE PAY-TV
Il secondo caso è non conforme alle linee guida comunitarie, quindi probabilmente erroneo.
Il caso riguardava la fusione tra le due pay TV italiana e Stream (posseduto da NewsCorp) e
Telepiù, chiuso dalla Commissione europea nel 2003.
Nel definire il mercato rilevante del prodotto NewsCorpo sosteneva l'esistenza di un unico
mercato rilevante tra televisione in chiaro e televisioni a pagamento. Al contrario la c
Commissione identificava due mercati distinti, poiché esisteva un mercato separato per la pay TV,
finanziato con gli abbonamenti e in misura minore con la pubblicità e i contributi statali, mentre
nel caso della televisione in chiaro la relazione commerciale esisteva solo tra il fornitore del
programma e l'inserzionista pubblicitario, ma non con lo spettatore.
La Commissione dunque osservava che le condizioni di concorrenza erano diverse per la TV
pagamento e quella in chiaro.nel primo caso il parametro fondamentale è la relazione tra la
struttura dei programmi e il numero di abbonamenti, mentre nel secondo caso il fattore chiave è la
relazione tra lo share di pubblico e i prezzi la pubblicità.
Alla fine quindi la decisione si è basata su una valutazione dei mercati che non ha preso in
considerazione la sostituibilità della domanda dell'offerta e le forme di concorrenza potenziale.
*** viene considerata anche l'elasticità di sostituzione dell’offerta, nel caso in cui questa può
influenzare la sostituibilità dal lato della domanda. Un esempio di sostituibilità dal lato dell'offerta
è rappresentato dai prodotti differenziati in base alla qualità: si devono considerare tutti quanti
prodotti di diversa qualità come l'unico mercato rilevante, nel caso in cui ogni impresa può
modificare agevolmente la propria produzione senza sostenere costi elevati, invece questa
sostituibilità non sarà presa in considerazione per la determinazione del mercato, ma solo nelle
fasi successive dell'istruttoria antitrust di valutazione della concorrenza, nel caso in cui essa è tale
da comportare costi elevati di cambiamento.
3.4 IL DISTRETTO INDUSTRIALE COME OGGETTO DI INDAGINE DELL’EC. INDUSTRIALE
La proposta metodologica di G. Becattini(1979) propone il distretto industriale marshalliano come
nuovo oggetto di indagine dell'economia industriale. La prima definizione dei distretti industriali è
appunto di Alfred Marshall che, nella sua opera Principles of Economics, impiegò questo termine
per descrivere la concentrazione di imprese di piccole medie dimensioni specializzate nella
lavorazione del cotone o della lana o dei metalli nell'Inghilterra industriale del XIX secolo.
Per Marshall la logica dei distretti risiedeva nell'azione delle economie di scala, ovvero nei
vantaggi di costo associati alla concentrazione di un'industria in una particolare area geografica.
Becattini riscopre e arricchisce tale concetto, impiegandolo come categoria interpretativa dello
sviluppo industriale italiano del dopoguerra, trovando in tale contesto la conferma della validità
teorica del concetto di distretto industriale.
Nella sua formulazione, i distretti industriali possono essere riconosciuti laddove si incontri un
esteso numero di piccole imprese, legate da relazioni verticali di cooperazione di relazioni
orizzontali di concorrenza specializzate in una o più industrie complementari in un’area delimitata
naturalmente e storicamente.
La sua visione enfatizza la peculiare interazione tra la vita economica e la vita sociale che si
realizza negli scritti grazie alla densità di relazioni economiche umane, definendo il distretto come
un'entità socio economica caratterizzata dalla compresenza attiva di una comunità di persone e
da una popolazione di imprese in un'area delimitata naturalmente storicamente.
Da questo deriva che il criterio di individuazione non è dato tanto dalla similarità tecnologica
quanto dà un senso di appartenenza una comunità di vita e di lavoro e da un'atmosfera
industriale.
Anche Marshall interpretava il distretto come un costrutto sociale ed economico dove i legami di
amicizia tra la popolazione locale e i rapporti di vicinato favoriscono la diffusione di conoscenza
comune, coerentemente con la sua definizione dell'economia politica o economica che la scienza
degli affari ma anche è più una parte del discorso sull’uomo.
All'estero tale concetto è stato ripreso con il termine di cluster, introdotto da Porter, che ammise il
proprio debito intellettuale con Becattini, che definiva i cluster come una concentrazione di
imprese, in un ambito territoriale definito, interconnesse tra loro (fornitori specializzati, fornitori di
servizi, imprese in industrie correlate, istituzioni…) Che si trovano in taluni casi in competizione ed
in altri a cooperare.
3.5 LE CLASSIFICAZIONI INDUSTRIALI E LE FONTI STATISTICHE
Al fine di condurre analisi settoriali ed indagini riconducibili all'ambito di competenza
dell'economia industriale occorre riferirsi ai sistemi di classificazione delle attività economiche
adottate da istituti di statistica nazionali ed internazionali.
Nel tempo si è accentuato il grado di uniformità dei diversi sistemi di classificazione, giungendo
da pochi anni è una classificazione univoca a livello mondiale. Tale obiettivo è stato perseguito a
partire dalla nuova classificazione definita nell'ambito delle Nazioni Unite: la “International
Standard Industrial Classification of All Economic Activities”, alla quale, per la prima volta, si sono
allineati tutti i paesi del mondo al fine di facilitare la comparazione internazionale dei dati statistici.
(in Italia l’stat, istituto di statistica nazionale, si è adeguato con l’Ateco 2007)
3.5.1 LA CLASSIFICAZIONE ATECO 2007
La classificazione Ateco 2007, che risulta molto cambiata rispetto alla precedente 2002, codifica
ciascuna attività economica generalmente con un numero di cinque cifre, l'ultima delle quali è
separata da un punto dalle due precedenti, a loro volta separati da un punto dalle prime due.
Le varie attività economiche sono raggruppate, dal generale al particolare, in sezioni (1 lettera),
divisioni (2 cifre), gruppi (3 cifre), classi (4 cifre) e categorie (5 cifre). Ciascuno di questi livelli di
classificazione è contraddistinto da un codice alfanumerico, come indicato in parentesi.
La classificazione comprende 918 categorie, raggruppate in 615 classi 272 gruppi 88 divisioni 21
sezioni le quali, allora volta, si articolano in divisioni, gruppi e classi; la maggior parte delle classi
(4 cifre) sono articolate in categorie le quali costituiscono le componenti fondamentali della
classificazione.
Le novità della Ateco 2007 sono ad esempio la sezione informazione e comunicazione (J), che
riunisce le attività di fabbricazione distribuzione dei prodotti culturali informativi, la fornitura di
mezzi di distribuzione di tali prodotti nonché di dati e comunicazioni e la sezione (E) che
comprende fornitura di acqua, reti fognarie, attività di trattamento dei rifiuti il risanamento.
L'attuale classificazione delle attività economiche non risponde completamente alle esigenze di
studio dell'economia industriale: la disaggregazione in classi corrisponde al mercato rilevante, ma
spesso è richiesta una classificazione più fine.
Ciò che in particolare le classificazioni statistiche non riescono a cogliere è la differenziazione
verticale, ossia la differenziazione dei prodotti in funzione del livello dei redditi dei clienti, e in più
l'incapacità di cogliere le relazioni tra le attività.
3.5.2 LE PRINCIPALI FONTI STATISTICHE ITALIANE
Le principali pubblicazioni da cui si possono trarre i dati sul fatturato, il prodotto lordo,
l'occupazione, gli investimenti, i consumi, la dimensione degli stabilimenti… dei settori industriali
sono offerte dall'Istat (la cui gran parte dei dati sono a disposizione sul portale), da Mediobanca
(che pubblica annualmente i dati delle principali società italiane) da Unicredit-Mediocredito
Centrale (che effettua ogni tre anni un'indagine campionaria sulle imprese manifatturiere), e dalla
Confindustria (che fornisce statistiche congiunturali sui settori).
4. LA TEORIA DELL’IMPRESA
4.1 INTRODUZIONE
È un grande cambiamento avvenuto nelle economie di mercato rispetto alle origini riguarda la
natura dei soggetti cui è conferita la proprietà del capitale, e quindi il potere decisionale. E il ruolo
degli individui si è molto ridotto e la figura dell'imprenditore (undertaker) e del capitalista si sono
fuse in quella dell'impresa (firm) e della società (corporation), perciò il capitalismo contemporaneo
è definito corporate o managerial capitalism.
4.2 RUOLO E NATURA DELL’IMPRESA
A partire dal contributo di R. Coease l'impresa fu distinta dal meccanismo della formazione dei
prezzi e descritta come una forma particolare di associazione dotata di una personalità distinta da
quella dei soci azionisti che, grazie al suo capitale, può acquisire risorse trasformabili in prodotti o
servizi da vendere al mercato, ottenendo dalla differenza tra i ricavi di costi sostenuti un profitto
con il quale remunerare il capitale e quindi gli azionisti.
Coase diceva: “al di fuori dell'impresa i movimenti dei prezzi guidano la produzione che si realizza
attraverso una serie di transazioni di scambio sul mercato. All'interno dell'impresa tali transazioni
sono eliminate e il luogo della complicata struttura basata sullo scambio sono le decisioni
dell'imprenditore a guidare la produzione”. Dunque l'impresa non è più considerata una
componente della teoria del valore del prezzo ma un'organizzazione che anzi ne sostituisce i
meccanismi se e quando il principio gerarchico risulti più efficiente del ricorso al mercato.
Ma quale logica quindi ne presiede i meccanismi decisionali? Se l'impresa è individuale o
controllata da un singolo individuo il criterio dell'utilità individuale resta il parametro più realistico
e, considerando esclusivamente la prospettiva del proprietario azionista, la massimizzazione
dell'utilità coincide con la massimizzazione del valore del capitale dell’impresa.
Quest'ultimo non coincide con il criterio della massimizzazione del profitto, dato che il valore
economico del capitale d'impresa può essere rappresentato come V = D / (k - g) dove
• V è il valore corrente;
• D è il risultato distribuito agli azionisti;
• k il tasso di capitalizzazione praticato dal mercato;
• g la crescita attesa di D;
La massimizzazione del valore può essere conseguita quindi agendo su queste tre variabili:
redditività; crescita; rischio.
Risulta però importante esaminare le profonde differenze che corrono tra il sistema capitalistico
americano inglese e quello dell'Europa continentale, differenze in parte dovute a diversità culturali
e psicologiche ed in parte derivate da differenze proprio dei sistemi economici. Fra queste le più
importanti sono:
• la contendibilità del controllo societario, ovvero la possibilità per un gruppo esterno all'effettivo
azionario dell'impresa di assumerne il controllo. Mentre le corporations americane ed inglesi
risultano generalmente contenibili, poiché i sindacati azionari di controllo più grandi
mediamente non superano il 5% del capitale azionario negli USA e il 10% in Gran Bretagna, nel
continente i blocchi azionari di voto o sindacati di controllo vanno da un massimo del 53-56%
in paesi quali Italia, Germania e Belgio ad un minimo del 20% in Francia, ovviamente rendendo
molto più problematica la contendibilità del controllo azionario e conseguentemente la
sostituzione dei gestori;
• Il sistema di formazione del risparmio, in particolare il sistema pensionistico, che nei paesi
anglosassoni è un sistema a capitalizzazione mentre nei paesi continentali a ripartizione: nel
primo caso il sistema pensionistico registra forti avanzi finanziari, che si riversano sui mercati di
borsa, facendone il principale strumento di finanziamento esterno delle imprese, mentre nel
secondo caso il sistema non produce avanzi finanziari ed è quindi il sistema bancario ad
alimentare prevalentemente il finanziamento delle imprese;
4.3 IL CAPITALISMO ANGLOSASSONE (SHAREHOLDERS)
Nel caso dei sistemi anglosassoni, dove prevalgono le società contendibilità fortemente
dipendenti dal mercato azionario, e dove non sono frequenti coalizioni tra singoli azionisti per
detenere stabilmente il controllo delle società, vanno ulteriormente distinte la proprietà che
compete all'insieme degli azionisti e del controllo (ossia l'esercizio del potere di comando sulla
gestione dell'impresa) esercitato dagli amministratori (manager). Mentre i primi si configurano
come mandanti, i secondi come agenti. La principale conseguenza che discende dalla
separazione tra proprietà e controllo e che gli obiettivi delle due categorie possono non
coincidere.
Al suo tempo il problema fu chiaramente identificato da Adam Smith: "dai dirigenti di imprese (le
Joint Stock Companies da cui derivano le moderne società per azioni) essendo costoro gestori di
denaro altrui piuttosto che del proprio, non ci si può attendere che si controllino e vigile con lo
stesso rigore con il quale i soci proprietari badano ai propri interessi: negligenza e spreco, perciò,
devono necessariamente avere luogo" (in Ricchezza delle Nazioni).
In teoria il comportamento dei manager è sottoposto ad una serie di vincoli che tendono a farlo
coincidere con quanto richiesto dagli azionisti:
• vincoli interni all’impresa;
• vincoli derivanti dal mercato del lavoro;
• vincoli derivanti dalla competizione tra le imprese;
• vincoli derivanti dal mercato dei capitali;
I manager sono assunti con un contratto che li induce a comportarsi conformemente agli interessi
degli azionisti; tuttavia, quando l'azionariato è molto frazionato, come nel caso più frequente nei
paesi anglosassoni, la capacità degli azionisti di controllare il comportamento del management si
indebolisce molto.
Per lo stesso motivo si determina una simmetria informativa che rende estremamente arduo per i
primi valutarne esattamente il costo di agenzia, ossia la differenza del valore dell'azienda con o
senza quel particolare management, e quindi la decisione se sostituire o mantenere il
management in carica.
Una delle pratiche utilizzate per arginare questi inconvenienti è l'uso di forme retributive come
incentivo, cioè collegate ai risultati conseguiti dai manager attraverso premi e stock options, che
però non risolve comunque del tutto il problema dal momento che il permanere della simmetria
informativa rende estremamente difficile calcolare la congruità dei premi e delle opzioni, di solito
stabilita da comitati interni composti da altri Ceo e da membri del consiglio di amministrazione,
che dipendono le vertici dell'impresa monitorati da consulenti e pagati dagli stessi beneficiari.
La recente branca dell'economia che si occupa delle asimmetrie informative (agent sì ti ori)
propone una sola soluzione di equilibrio, che si verifica quando il management conduce un
leveraged buyout, ossia l'acquisto delle azioni della società finanziato da un debito che sarà
estinto dal flusso dei profitti generato successivamente: ciò equivale a dire che le società ad
azionariato diffuso, ovvero le public companies, non dovrebbero esistere, o meglio, che se
esistono è solo perché la propensione al rischio dei manager è inferiore alla della media degli
investitori in azioni, rendendo gli azionisti delle public companies non dei veri proprietari ma
piuttosto degli scommettitori.
Il secondo ordine di vincoli deriva dal fatto che i risultati poco brillanti della gestione producono
una cattiva reputazione per i manager che ne sono responsabili e, dal momento che nelle public
companies la rotazione dei management è un fatto piuttosto frequente, l'incentivo ad acquisire
una buona reputazione può determinare nei manager una motivazione coerente con quella degli
azionisti.
Il terzo ordine di vincoli a origine nella competizione tra le imprese: un'impresa poco competitiva e
destinata a scomparire per cui la sopravvivenza dell'impresa, e quindi del proprio posto di lavoro,
genera nel management una motivazione allineata a quella degli azionisti.
Il quarto vincolo deriva dal mercato finanziario: se un'impresa non è gestita in modo da
massimizzare il suo valore di borsa, il basso prezzo delle sue azioni costituisce un'opportunità per
gli investitori (raider) che con una scalata alla maggioranza delle azioni della società (takeover)
possono lucrare la differenza tra il valore corrente delle azioni e quello che si determinerebbe
qualora la società fosse affidata a gestori più abili o più motivati. Il rischio quindi di subire una
scalata ostile funziona anche in via preventiva nel determinare le motivazioni del management.
Mentre da un lato questo insieme di vincoli fa presumere un ragionevole compromesso tra gli
interessi del mercato e del comportamento effettivo degli agenti, le critiche che si rivolgono al
capitalismo anglo americano toccano proprio il cuore della costruzione smithiana: ossia il nesso
tra comportamento razionale ed etica.
L'interesse per i risultati immediati (short terme Ismo) sopravanza di gran lunga quello per le azioni
che daranno benefici in futuro, e questo rende ancora più indispensabile l'azione di correzione
che lo Stato deve compiere sui meccanismi spontanei dell’economia. Ma è proprio il successo
dell'economia di mercato, che si riflette nella globalizzazione, a determinare una crisi nella
potenzialità dell’organizzazione politica basata sugli Stati nazionali di svolgere i ruoli correttivi che
il capitalismo rende necessari.
Le considerazioni sull'etica invece possono essere percepite nella visione di un economista liberal
americano: "L'America nella quale sono cresciuto -degli anni ’50 e ’60- era una società del ceto
medio (middle class), sia nella realtà che nella percezione. Le grandi disuguaglianze di reddito e di
ricchezza dell'età dell'oro e non scomparse, mentre ora viviamo in una nuova età dell'oro.non si
può comprendere che cosa accada oggi in America senza comprendere la misura, le cause e le
conseguenze dell'enorme crescita della disuguaglianza che si è verificata negli ultimi tre decenni,
ed in particolare la concentrazione di reddito e di ricchezza in pochissime mani: la nuova Elite,
come quella vecchia, possiede un immenso potere politico, che potrebbe cimentarsi in un nuovo
e meno democratico regime o plutocrazia”.
Ovvero, con il crescere delle dimensioni delle imprese dello spazio occupato da queste nel
sistema economico, si determina la conseguenza che troppa ricchezza finisce con l'essere
sottratta ai meccanismi impersonali, ugualitaria ed etici del mercato: non più soltanto pochi grandi
capitalisti percepiscono redditi sproporzionati, ormai il grande numero dei manager è in grado di
formare coalizioni che controllano i mezzi di comunicazione, con i conseguenti riflessi di
condizionamento al sistema politico.
A conferma di ciò viene enorme crescita della disuguaglianza tra il salario medio e la
remunerazione dei manager più pagati (1/39).
Mentre da una parte è possibile che, come è successo in passato, l'economia di mercato e la
democrazia produrranno da sé gli anticorpi per fermare correggere queste degenerazioni rispetto
al codice del Self comando alla base del capitalismo, resta comunque la crescita esponenziale
dell'influenza delle lobbies sul potere politico, e quindi delle regolamentazioni e degli aiuti al
sistema delle imprese, che hanno già provocato distorsioni che hanno stravolto lo spirito
originario dell'economia di mercato.
Adam Smith in Ricchezza delle Nazioni: “ il consumo è la sola finalità e obiettivo di tutta la
produzione e l'interesse dei produttori dovrebbe essere preso in considerazione solo in quanto
necessario per promuovere quello dei consumatori, ma nel sistema regolamentato l'interesse del
consumatore è quasi costantemente sacrificato a quello dei produttori, e sembra che si consideri
la produzione e non il consumo il fine ultimo e l'oggetto di tutta l'industria e del commercio. Nei
casi di regolamentazione si può dimostrare che si tratti sempre di banali imbrogli (common piece
of dupery) con i quali gli interessi dello Stato e della nazione sono sacrificati a favore di qualche
specifico gruppo di operatori”.
4.4 IL CAPITALISMO RENANO (STAKEHOLDERS)
La profonda differenza del modello capitalistico che si è affermato nei paesi continentali consiste
nella corporate governance, e in particolare nel fatto che qui il controllo azionario della maggior
parte delle grandi imprese è riconducibile ad un numero limitato di soggetti, e perciò non alla
natura pubblica nel senso inglese del termine.
La massimizzazione del valore per gli azionisti, cioè il profitto, riguardando un fatto privato dei
proprietari, e non anche una pubblica virtù di cui ciascuno può beneficiare, risulta un traguardo
assai meno generalmente accettato di quanto lo sia nei paesi anglosassoni. I sistemi finanziari
renali generano pochi fondi sotto forma di azioni, e ciò rende gli azionisti, ovvero i proprietari
legali, minoritari anche sotto il profilo finanziario rispetto agli altri soggetti, quali le banche, il
pubblico dei risparmiatori, i dipendenti, i creditori… Ciò genera una frattura tra la pratica del
management e le attese degli altri soggetti, e farsi che la cultura renano diffidi della
massimizzazione del profitto e respinga la dottrina del puro profitto a favore di una variante di
compromesso, cioè una dottrina che stabilisce come obiettivo degli amministratori la
massimizzazione del valore non per i soli azionisti (shareholders) ma per un ambito più vasto di
portatori di interessi nell'impresa (stakeholders).
Il principale difetto di un sistema basato sull'individualismo consiste nel fatto che gli interessi del
tempo presente trovano una rappresentazione più forte di quella del tempo futuro: l'economia di
mercato, come la democrazia, consentono di rappresentare solo gli interessi di chi già esiste e
non anche quelli delle generazioni future.
Il modello del capitalismo renano è meno lineare e trasparente, e ciò genera più frequentemente
conflitti di interesse prestandosi di più ad abusi e distorsioni. Ciò si risolve in minore efficienza,
minore dinamicità delle imprese sul piano finanziario, dovuta alla inevitabile limitatezza delle
risorse disponibili da parte del gruppo degli azionisti di controllo, alle esigenze di sviluppo
dell'impresa, e al contrasto che può sorgere tra queste circostanze e l'interesse degli azionisti a
mantenere il controllo della maggioranza azionaria.
4.5 EFFETTI DELLA GLOBALIZZAZIONE SULLE CONDOTTE STRATEGICHE DELLE
IMPRESE: IL FENOMENO DELLE IMPRESE TRANSNAZIONALI (TNC) O “PLATFORM
COMOANIES”
L'interazione tra la liberalizzazione del commercio internazionale e la rivoluzione del sistema delle
comunicazioni (Information and Communications Technology, ICT) ha determinato un profondo
cambiamento dei modelli di attività delle grandi imprese globali, fenomeno ampiamente acquisito
nella cultura dei manager e degli imprenditori che è divenuto attualmente al centro dell'attenzione
a causa del persistere a livelli elevati della disoccupazione, livelli associati al fenomeno della
deindustrializzazione (progressiva riduzione della quota delle attività manifatturiere sul Pil) e per le
implicazioni che ne potrebbero derivare sul piano tecnologico.
La rapida crescita del commercio internazionale e l'ingresso della Cina e dell'India nei sistemi
dell'economia imprenditoriale di mercato nel corso degli anni ’80 ha fatto comprendere che i modi
tradizionali con cui si produceva valore per l’economia e risultati per gli azionisti si sarebbero
modificati.
La produzione del valore nelle attività di impresa avviene in una sequenza che può essere
rappresentata come catena formata da tre anelli:
• concezione e progetto industriale di un prodotto di un servizio;
• produzione manifatturiera;
• attività di marketing di distribuzione;
I modelli tradizionali di management si concentravano principalmente sul secondo anello, che era
considerata l'area strategicamente più rilevante per le imprese e per la loro competitività.
Con le recenti trasformazioni la rilevanza strategica dei singoli anelli della catena del valore è
radicalmente cambiata, poiché l'anello costituito dalla produzione manifatturiera è diventato
quello che più risente della concorrenza low cost da parte dei paesi emergenti e, perciò, nei paesi
più evoluti e più ricchi proprio questo elemento è divenuto il punto debole della competitività per
le imprese.
Per cui le imprese americane ed europee, osservando il comprimersi dei margini di profitto sulle
operazioni manifatturiere, hanno reagito trasferendo queste fasi del processo produttivo nei
mercati emergenti (outsourcing o delocalizzazione). Questo processo ha avuto origine con le
imprese della grande distribuzione (ex. Wall Mart): grandi imprese manifatturiere che si
riorganizzano attraverso la delocalizzazione trasformandosi da multinazionali in imprese
transnazionali o platform companies.
Il modello di management delle TNC consiste nel non considerare strategico l'anello centrale della
catena, eliminandolo o riducendone il peso, determinando così un duplice vantaggio: la riduzione
dei costi di produzione diretti per il minor costo del lavoro e la compressione dell'entità del
capitale investito nei processi produttivi, conseguentemente migliorando in proporzione il
rendimento percentuale sul capitale investito (ritorno un equity o Roe).
Ed è proprio a causa di questo modello di management e di questo fenomeno che si è iniziato a
parlare di the industrializzazione e di progressiva riduzione della quota determinata dalle attività
manifatturiere sul Pil.
Ma questo fenomeno non è del tutto nuovo: nel corso degli anni ’60 in Gran Bretagna
l'economista Nicholas Kaldor (della Cambridge University), seguendo il lavoro di Robert Solo
(della Columbia University), sviluppò un'analisi delle cause degli effetti del progresso tecnologico,
lanciando un allarme sul processo di idendustrializzazione.
Secondo la sua teoria (modello di Kaldor-Verdoom), la diminuzione del valore aggiunto
nell'industria manifatturiera che si andava verificando in Inghilterra avrebbe provocato gravi danni
perché l'industria manifatturiera, a differenza di quella dei servizi, incorporava fattori di progresso
tecnologico.
5. LE TEORIE DELLA DOMANDA
5.1 LA DOMANDA MARSHALLIANA
La prima e più completa formalizzazione della
teoria della domanda è dovuta all'economista
inglese Alfred Marshall, nella sua opera Principles
of Economics, in cui viene presentata come la
relazione formale tra la quantità domandata da un
consumatore il prezzo di una specifica merce.
La curva di domanda di un singolo consumatore,
per un dato prodotto, riassume la relazione tra la
quantità (più precisamente la quantità massima)
del prodotto acquistata nell'unità di tempo e ogni
possibile ipotetico prezzo; la curva di domanda,
quindi, rappresenta sempre la quantità
domandata dal consumatore come funzione del
prezzo, e i suoi punti sono possibilità alternative, non combinazioni di quantità e prezzo ordinati
temporalmente.
Nella forma analitica la funzione può essere rappresentata come q = f (p) dove p è il prezzo e q la
quantità domandata dal consumatore i-esimo, ed è inclinata negativamente.
Tale assunzione discende dal principio dell'utilità marginale decrescente, per cui tanto più alto è il
prezzo tanto minore è la quantità domandata e viceversa, a parità delle altre condizioni.
A questa regola fanno eccezione due casi particolari: quando il consumatore valuta la qualità di
un prodotto dal suo prezzo, e quando è spinto ad acquistarlo proprio per il suo elevato prezzo
(richiamo snobistico di un bene, ad esempio articoli di moda).
Il livello del prezzo (variabile indipendente) è riportato sull'asse delle ordinate, mentre la quantità
domandata (variabile dipendente) si trova sull'asse delle ascisse; la curva si riferisce ad un preciso
momento: ne consegue che tutte le possibili combinazioni prezzo quantità sono ipotetiche, ad
eccezione di una.
Secondo la corrente interpretazione la posizione alla forma di una curva di domanda marshalliana
individuale dipendono da:
• i gusti e le preferenze del consumatore considerato;
• il suo reddito monetario;
• il prezzo di ogni altro prodotto, che per ipotesi sono tenuti costanti.
Al variare di uno di questi tre parametri otteniamo uno spostamento della curva di domanda.
Mentre il reddito monetario è costante per ogni punto sulla stessa curva di domanda, il reddito
reale muta continuamente passando da un punto all’altro.
L'informazione essenziale che si ottiene dalla curva di domanda è il grado di reattività della
quantità domandata di un prodotto ad ogni variazione del suo prezzo: tale rapporto, espresso in
termini percentuali, prende il nome di elasticità.
L’elasticità della domanda del bene X rispetto al prezzo è uguale a:
variazione proporzionale della quantità domandata di X / variazione proporzionale del prezzo di X
in termini analitici: e = - dQ/dP x P/Q
Di tale espressione si osservi che:
• Per convenzione l’elasticità viene presa positivamente, il che spiega la presenza del segno
meno davanti alla frazione: esso viene a posto per rendere non negativo il numero che esprime
l'elasticità;
• L’elasticità della domanda al prezzo è espressa in termini di variazioni relative e non assolute,
nella quantità domandata nel prezzo, data la difficoltà di interpretare variazioni assolute. Un
importante teorema dell’elasticità sottolinea che, se una curva di domanda ha elasticità
maggiore dell'unità (in tal caso si dirà che elastica), una diminuzione del prezzo aumenterà la
spesa del consumatore e viceversa; se invece la curva ha elasticità inferiore all'unità (in tal caso
è inelastica), un aumento del prezzo accrescerà la spesa del consumatore per quel dato bene e
viceversa; infine, se l'elasticità è uguale all'unità, si ha una curva di domanda ad elasticità
unitaria e quindi eventuali variazioni del prezzo non alterano la somma che il consumatore
spende per il bene in oggetto.
L'elasticità della domanda di un bene al suo prezzo dipende dai seguenti fattori:
• La durata del periodo cui si riferisce la curva di domanda: la domanda è solitamente più
elastica per lunghi piuttosto che per brevi periodi di tempo;
• Il numero di beni sostituibili a disposizione ed il loro grado di sostituibilità riguardo al bene in
esame: sei un prodotto a molti sostituti stretti la sua domanda sarà elastica il prezzo;
• L'incidenza di un prodotto sul bilancio del consumatore: all'aumentare dell'incidenza di un bene
sul bilancio del consumatore la società della sua domanda tenderà a crescere;
• I possibili usi alternativi cui un bene si presta: +1 prodotto è adatto a svariate applicazioni, più
elastica e la sua domanda;
Il concetto di elasticità viene riferito anche a variabili diverse dal prezzo, come il livello del reddito
monetario.e nell'unità di tempo e con prezzi costanti tutti gli altri prodotti, la relazione tra il livello
del reddito monetario di un singolo consumatore e la quantità domandata di un bene è illustrata
dalla curva di Engel.
La variazione della quantità domandata al variare del reddito monetario può essere misurata per
ogni punto della curva di Engel per mezzo dell’elasticità della domanda al reddito, data da:
variazione percentuale della quantità domandata / variazione percentuale del reddito
in terminianalitici: ey = - dQ/dY x Y/Q dove:
• Y è il reddito monetario iniziale
• Q la quantità consumata originariamente
• dY la variazione del reddito del consumatore
• dQ la variazione della quantità consumata
Alcuni beni hanno elasticità reddito positiva (cioè gli incrementi del reddito monetario del
consumatore comportano aumenti della quantità domandata di un bene), come accade nella
maggior parte di dei beni. In tal caso l’elasticità potrà essere maggiore di 1 (cioè un incremento di
un punto percentuale nel reddito monetario comporta un aumento percentuale maggiore di uno
nella quantità domandata) oppure minore di uno (cioè un aumento di un punto percentuale del
reddito monetario determina un incremento percentuale minore di uno della domanda).
Altri beni invece hanno elasticità reddito negativa (cioè incrementi del reddito monetario del
consumatore e comportano riduzioni nel consumo di una merce), come avviene nel caso dei
cosiddetti beni inferiori, il cui consumo diminuisce proporzionalmente all'aumentare del reddito
del consumatore.
È importante ricordarsi che con ogni probabilità l'elasticità della domanda di un prodotto il reddito
muta a seconda del livello stesso del reddito monetario individuale: a certe fasce di reddito
corrisponderà un'elasticità positiva, mentre a partire da altre potrà essere negativa.
Una variazione nel prezzo del bene X influenza il comportamento del consumatore in un duplice
modo:
• Da un lato, se il prezzo di X diminuisce, l'acquisto di tale prodotto diventa, a parità del prezzo di
tutte le altre merci, relativamente più conveniente e il nostro consumatore sarà spinto sempre
ad aumentare la domanda del bene X ("teorema di Slutsky"), in sostituzione dei prodotti
divenuti relativamente più costosi. Questo è l'effetto di sostituzione;
• La riduzione del prezzo di X comporta anche un miglioramento del reddito reale del
consumatore, che può far aumentare gli acquisti di tutti i prodotti, compreso il bene X (a meno
che quest'ultimo sia un bene inferiore). Questo è l'effetto di reddito.
Per quanto riguarda la domanda del mercato, essa può venire costruita semplicemente
sommando le schede di domanda individuali: Q = Ʃqi = f (p)
5.2 IL PROCESSO DI REVISIONE DELLA TEORIA NEOCLASSICA
Il modello della domanda marshalliana è un eccellente e tuttora insuperata formalizzazione della
relazione tra quantità domandata e prezzo sotto la condizione “other things the same":
un'assunzione ragionevole nel breve periodo, ma certamente non realistica sia riferimento
temporale diviene più ampio.
Ne consegue che la quantità domandata di un prodotto può variare anche per motivi che non
dipendono solo dal prezzo e dal potere d'acquisto del consumatore. La teoria neoclassica della
domanda è basata sul principio dell'utilità marginale decrescente e si fonda su alcuni postulati:
• Costanza del sistema di preferenze del consumatore;
• Esistenza di una relazione reversibile e differenziabile tra i tre parametri del modello di equilibrio
statico di pareggio: la quantità domandata, il prezzo e il reddito del consumatore;
• Realismo dell'ipotesi di massimizzazione dei duttilità soggettiva nel comportamento del
consumatore;
• Razionalità e autonomia del comportamento del consumatore nei confronti dei fattori e delle
variabili esogene;
Questi assiomi, che caratterizzavano il modello di comportamento del consumatore nell'economia
neoclassica, sono stati progressivamente posti in discussione e, tramite il ricorso ad indagini
empiriche, si è potuto dimostrare l'inattendibilità dell'assioma della stabilità del sistema di
preferenze individuali.
Le variazioni di prezzo e/o di reddito attesi dal consumatore, le sue passate esperienze di
consumo, frequenti fenomeni di comportamenti imitativi, l'attività di promozione delle vendite, la
composizione dei nuclei familiari e i suoi mutamenti sono altrettanto fattori di variabilità, di breve e
lungo periodo, delle funzioni di utilità dei consumatori, dei loro gusti e delle loro preferenze.
Un fenomeno già accennato da Marshall (la difficoltà che l'acquirente abituale di un certo bene
incontra nel ridurre il consumo in seguito all'aumento del prezzo) verrà approfondito da
Duesenberry, nel 1949, definendolo irreversibilità della funzione di domanda. In completa antitesi
con quanto sostenuto dall'analisi neoclassica riguardo la reversibilità della funzione di domanda
(vale a dire all'ipotesi di variazioni simmetriche della domanda a seguito di mutamenti in aumento
o in diminuzione del prezzo), si è constatato che l'elasticità della domanda per un consumatore
assuefatto all'uso di un bene è sicuramente meno sensibile ad un incremento del prezzo di
quanto non si verifichi nel caso di consumatori non assuefatti in occasione di diminuzioni del
prezzo.
Non realistico risulta quindi l'assioma relativo all'indipendenza del sistema di preferenze del
singolo consumatore da ogni condizionamento esterno, tipico della teoria neoclassica, che
ipotizzava un comportamento razionale del consumatore assolutamente autonomo, lasciando
quindi fuori dall'equazione componenti psico-sociologiche che comportano l'assoluta in
probabilità di una funzione di domanda collettiva, come somma delle singole funzioni di domanda
individuali.
5.3 LA TEORIA MARRISIANA
L’ipotesi base del modello di Robin Marris ( The Economic Theory of Managerial Capitalism, 1964)
è riconoscibile nell’assunto secondo cui i consumatori, superato il livello dei bisogni di
sussistenza, sono portatori di un sistema di preferenze tutt’altro che stabile e indipendente ,a, al
contrario, i bisogni dei consumatori sono oggetto di incessante trasformazione.
Un altro elemento fondamentale del comportamento del consumatore è costituito dall'esperienza
di consumo acquisite: memorizzando le esperienze di consumo, il consumatore formula un
quadro di riferimento, continuamente aggiornato, in base alla quale prende le proprie decisioni di
acquisto presenti e future. Si può dire quindi che sia l'esperienza a creare i bisogni.
In più, il ricorso all'esperienza altrui appare fondamentale nello spiegare la diffusione dei consumi
nella moderna società industriale in cui, essendo particolarmente elevato il saggio di introduzione
di nuovi prodotti, è impensabile che ogni individuo possa sperimentare personalmente ogni nuovo
bene: perciò lo scambio collettivo delle sensazioni, positive o negative che siano, ricavate dall'uso
di nuovi prodotti permette di conseguire un livello di informazione e di conoscenza adeguato al
dinamismo dell'ambiente economico.
Con queste premesse si può ora comprendere il meccanismo con cui un nuovo prodotto si
introduce in fasce via via più bassa di consumo.ma Harris ricorre ad una efficace distinzione dei
consumatori: i pionieri e le pecore.
• I pionieri si distinguono soprattutto perché decidono nuovi acquisti senza fruire di stimoli da
parte di altri consumatori, essendo più sensibili nell'esplicitare i propri bisogni latenti, più
vulnerabili e richiamo pubblicitario nonché, in generale, più coraggiosi riguardo le incertezze
delle novità;
• Le le pecore sono invece i consumatori che più si fanno influenzare dalla prima categoria (i
pionieri) nella scelta dei beni di consumo;
La domanda dei consumatori pionieri risulta caratterizzata da una forte anelasticità, a differenza di
quella dei consumatori pecore. In sintesi si può dire che il pioniere incorpora il nuovo prodotto nel
proprio schema di preferenze, creando la propria curva di domanda fino ad allora inesistente,
attraverso quindi un processo irreversibile. Parimenti irreversibile è il cambiamento che subisce il
consumatore pecora tutte le volte che, in seguito ad attivazione, vale a dire il contatto con altri
consumatori (non importa se pionieri o pecore in precedenza attivate) è stimolato ad acquistare
un dato prodotto.
L’insieme di tutti i consumatori che, poiché attivati o poiché pionieri, sono disposti a consumare
quantità positive di un prodotto in un dato prezzo, è definito popolazione del mercato, la cui
dimensione è funzione sia del prezzo e delle quantità del prodotto sia delle caratteristiche della
popolazione stessa.
Questo meccanismo funziona il momento in cui i pionieri raggiungono un determinato numero
critico ed esprimono favorevoli apprezzamenti sul prodotto: le persone con cui entrano in contatto
possono essere stimolate in un comportamento imitativo diventando, da consumatori pecore,
consumatori pecore attivate che, a loro volta, potranno influenzare i nuovi consumatori,
innescando così una reazione a catena di vaste proporzioni.
Importanti quindi sono questi due concetti appena enunciati:
• La criticità, che Marris intende come una particolare condizione della domanda, ossia il
passaggio della domanda di un prodotto dalla fase di gestione a quella di esplosione, in cui
sussiste criticità se la probabilità che si inneschi una reazione a catena è vicino all'unità, cioè
quasi certa;
• il contatto socio- economico, che si ha quando una persona in grado di stimolare un'altra
all'acquisto di un nuovo bene: ciò è possibile se tra i due vi è una certa affinità di gusti, di valori,
se i due individui, in sostanza, appartengono alla stessa classe sociale.pertanto non tutti i
contatti sociali sono socio-economici, e questi ultimi tenderanno a concentrarsi all'interno dello
strato sociale di appartenenza di ciascun individuo;
La domanda complessiva del mercato è data quindi dalla somma delle singole schede di
domanda individuali, che differiscono tra loro a seconda che si tratti di consumatori pionieri o di
consumatori pecore. La funzione che esprime la domanda di un pioniere sarà data da:
qij = Φp ( Xi Xj ) μij , mentre la funzione delle pecore è: qij = ΦS ( Xi Xj ) vij in cui
•
•
•
•
qij è la quantità della merce i acquistata dal consumatore j;
Xi è il vettore delle caratteristiche. di i, come il prezzo;
Xj è il vettore delle caratteristiche di j, come il reddito;
μij assume il valore di 1 quando il pioniere è attivo;
• vij può essere uguale a 1 o a 0 a seconda. che la pecora siao meno attivata;
La domanda aggregata : Qi = Np Φp + Na ΦS in cui
• Np è il numero dei pionieri attivi
• Na è il numerodelle pecore attivate
• NS è il numero totale delle pecore
Si possono distinguere tre fasi caratteristiche. della domanda:
• fase di gestazione, quando Na = 0 e quindi vij = 0;
• fase di saturazione, quando Na = NS ( vij = 1) e Qj = NS ΦS;
• fase du esplosione, una fase instabile intermedia tra le due precedenti;
Premesso che i pionieri sono distribuiti causa casualmente in una popolazione data, la
popolazione del mercato può essere composta da un grande numero di gruppi primari, ossia
gruppi contraddistinti dal fatto che ogni membro è in contatto socio-economico con ogni altro; il
che implica una comunanza di status sociale, di livello del reddito e persino di localizzazione
residenziale. In questi gruppi primari si possono osservare vaste reazioni a catena rese più intensi
da diffusi fenomeni di emulazione di conformismo.
La catena dei contatti non è però nel regolare in interrotta, per cui i contatti effettivi saranno
certamente minori di quelli potenzialmente possibili; i contatti mancati sono quasi sempre
riconducibili alla presenza di sbarramenti sociali e barriere di reddito e di classe, che sono la
causa della forma irregolare della dimensione dei gruppi primari e delle ampie interruzioni nelle
catene di gruppi connessi.le interruzioni, casuali e non, derivanti da questi ostacoli fraziona no
ogni popolazione di mercato in un certo numero di insiemi connessi distinti, chiamato da Maris
gruppi secondari.essi sono caratterizzati dal fatto che alcuni soltanto dei loro membri
appartengono contemporaneamente a due più gruppi.
Con grado di stratificazione intendiamo riferirci al minimo numero di gruppi secondari, legati al
gruppo primario da un certo grado di connessione, in cui può essere divisa una popolazione
razionalizzata (vale a dire priva di eventuali sottogruppi superflui per la nostra analisi).
In teoria, una popolazione omogenea, per quanto possa essere stratificata, può essere sempre
completamente attivata da un produttore che sia in grado di innescare una reazione a catena in
ogni suo gruppo secondario; ma, saturati i gruppi secondaria di una popolazione primaria, il
processo di attivazione non può essere trasferito semplicemente su un'altra popolazione
omogenea, tranne nel caso in cui quest'ultimo abbia un reddito tale da appartenere alla
popolazione del mercato di quel prodotto.
Il numero di gruppi secondari in cui una popolazione viene suddivisa in funzione sia delle sue
cause di interruzione vere e proprie sia anche del grado di stratificazione determinato da la
seguente relazione: λ = radice ennesima di Sn (Sn è il numero di gruppi secondari)
Maris rileva che, ceteris paribus, quanto minore è il valore di λ, tanto più facilmente un nuovo
bene sarei in grado di saturare una data popolazione di mercato.
L'analisi svolta più finora si è sviluppata esclusivamente nell'ambito dei beni finali di consumo, ma
la discussione non sarebbe completa se non si considerassero anche i beni di produzione, cioè
quei prodotti intermedi oggetto di transazioni tra le imprese. Marris dimostra la validità della
propria teoria anche in questa ipotesi: nel caso limite in cui non vi fosse progresso tecnologico, la
domanda dei prodotti strumentali, essendo esclusivamente regolato dall'andamento degli altri
beni, aumenterebbe solo in corrispondenza di esclusione delle vendite registrate dei prodotti di
consumo.
In realtà però, la tecnologia compie continui progressi e perciò nuovi impianti, processi produttivi,
prodotti intermedi vengono introdotti in sostituzione di altri, ormai resi obsoleti dal progresso.
Naturalmente vi sono settori che rispondono più prontamente allo stimolo di un'innovazione
tecnica e altri, che Marris ricollega le produzioni di beni già saturati, ovvero dove essendo la
domanda è stazionaria non è necessario prendere in considerazione innovazioni tecnicoeconomiche di frequente), nei quali l'inerzia raggiunge le punte massime. Nonostante ciò molto
spesso macchinario pur non essendo ancora logoro viene ugualmente sostituito con uno nuovo
per poter usufruire delle innovazioni tecnologiche ivi incorporate.
Certi dirigenti per prendere tale decisione hanno bisogno di uno stimolo, che può derivare:
• dal contatto personale con altri dirigenti che hanno già introdotto l'innovazione;
• dagli effetti delle innovazioni introdotte da altre imprese concorrenti, che si ripercuotono sul
mercato di quel dato prodotto;
Due osservazioni conclusive possono sottolineare l'interesse e limiti della teoria di Marris:
• Nell'analisi delle condizioni di criticità, si è potuto stabilire che, a parità di altre condizioni,
popolazione di mercato di vaste dimensioni è più facile da saturare di una piccola, poiché il
numero critico necessario di pionieri aumenta molto meno che proporzionalmente
all'incremento di dimensione del mercato da penetrare;
• Pure avendo elaborato una teoria della domanda ricca di variabili economiche e sociopsicologiche, Marris di fatto trascura una delle componenti che più influiscono sulla domanda,
specialmente di beni di consumo durevole e di investimento: la durata del prodotto, una
variabile essenziale per analizzare l'andamento della cosiddetta domanda per sostituzione;
5.4 LA DOMANDA DI BENI DI CONSUMO DUREVOLE
Ulteriori motivi di insoddisfazione circa la capacità esplicativa del modello neoclassico di
comportamento del consumatore derivano dalla necessità di considerare le difformità che si
presentano nel caso in cui l'oggetto della decisione di acquisto sia costituito da beni di consumo
immediato, beni di consumo durevoli e beni strumentali.
Considerando le caratteristiche economiche del consumo delle differenti categorie di beni si
conviene che le difformità riscontrabili non consentono una descrizione univoca del loro
comportamento:
• la domanda di beni di consumo immediato (alimentari bevande) è funzione della capacità di
acquisto del consumatore, cioè del prezzo e del reddito di quest’ultimo. I beni di consumo
immediato sono di solito perfettamente divisibili e il loro consumo viene ripetuto
frequentemente, così da consentire la formazione di un giudizio circa le qualità del prodotto;
• Nel caso dei beni di consumo durevoli (elettrodomestici, automobili) l'acquisto è relativamente
saltuario e comporta una spesa non trascurabile in rapporto al reddito del consumatore. Essi
sono indivisibili ed offrono un servizio prolungato nel tempo.ne deriva che l'analisi teorica
neoclassica che ha sempre privilegiato come oggetto di studio i beni di consumo immediato
non può trovare applicazione riguardo tali beni;
A quali leggi risponde l'andamento della domanda di tale categoria di merci? Prima di tutto va
verificata l'applicabilità del principio di accelerazione il consumo dei beni in parola: tale principio è
stato sviluppato in chiave esplicativa dell'andamento della domanda di beni strumentali, secondo
cui la domanda di beni strumentali dipende dalla variazione della domanda finale dei prodotti
ottenuti con l'uso di quel particolare strumento produttivo. Tale principio può essere
rappresentato come:
It = A (Dt - Dt-I) + DSt in cui:
It
è
la
domanda
di
beni
strumentali
al tempo t;
•
A
è
il
coefficiente
che
misura
la
produttività
del bene strumentale;
•
Dt
è
la
quantità
del
prodotto
finale
domandata
al tempo t;
•
Dt-i
è
la
quantità
del
prodotto
finale
domandata
al tempo t-i;
•
DSt
è
la.
domanda
dovuta
alla
necessità
di
sostituire
il macchinario esistente obsoleto;
•
Per quanto riguarda invece i beni di consumo durevole: Dt = A (Rt - Rt-I) + DSt
La domanda dei Beni di consumo durevole dipende dalle variazioni del reddito dei consumatori e
non, come nel caso dei beni di consumo immediato, dall'entità del reddito dei consumatori, oltre
a derivare da altri parametri quali a (che deriva dal grado di saturazione del mercato dal prezzo
unitario del prodotto e dei modelli di diffusione del consumo nelle diverse categorie sociali) e DS
(che rappresenta la domanda di sostituzione, da mettersi in relazione alla vita media del prodotto
e la domanda per incremento del parco** verificatosi negli anni precedenti).
** la domanda per incremento del parco e misurata dalla prima parte del membro di destra
dell'espressione riguardante i beni di consumo durevole.
Per approfondire le applicazioni dei modelli interpretativi della domanda di beni di consumo
durevole sarà bene notare che:
• Partendo dalla separazione della domanda totale in “domanda per incremento del parco (dello
stock)” e “domanda per sostituzione”, alcuni economisti hanno lavorato modelli che si basano
su quello che è stato definito “l'effetto eco”: posto che si è creata automaticamente soltanto da
un processo di ammortamento dello stock di beni già esistenti, la domanda di sostituzione è
uguale alle vendite di nuovi prodotti di consumo durevoli effettuati alcuni anni prima
corrispondenti alla vita media del nostro prodotto. Una possibile variabile di tale modello sia
facendo dipendere la domanda di sostituzione dalla media ponderata delle vendite effettuate in
precedenza, in modo da evitare di considerare tutti i prodotti costruiti nello stesso anno come
caratterizzati da una vita media identica;
• Altri ricercatori hanno elaborato modelli previsionali dove, accanto o in sostituzione della
tradizionale variabile del reddito pro capite attuale disponibile, viene posto come nuovo
parametro il reddito atteso o il reddito permanente o la variazione di reddito registrato tra due
anni successivi;
• Essendo l'acquisto di molti beni di consumo durevole consentito con il ricorso al risparmio
precedentemente accumulato (o anche in forza di un risparmio futuro) la modellistica micro
economica ha fatto ricorso anche a queste variabili;
• Molti recenti modelli interpretativi della domanda di beni di consumo durevole hanno
privilegiato come oggetto della ricerca le fasi di introduzione, vale a dire di gestazione di
esplorazione, di nuovo prodotto. In tali modelli la domanda di beni di consumo durevole per
ampliamento dello stock è fatta dipendere dal reddito, dei prezzi, ma anche dal valore dello
scarto fra il parco effettivo e quello teorico, quest'ultimo definito come lo stock massimo che
sarebbe raggiunto se tutti i potenziali acquirenti diventassero compratori effettivi;
Un aspetto che accomuna tutti questi sistemi è la presenza delle due variabili economiche per
eccellenza: il reddito e il prezzo.
Le ricerche hanno sottolineato come, a differenza di ciò che si verifica per i beni di consumo, ogni
aumento del reddito comporta un incremento più che proporzionale della domanda dei beni di
consumo durevole e, viceversa, un decremento del primo genera una concomitante riduzione più
che proporzionale della seconda.
Riguardo al prezzo invece si deve rivelare che l'analisi empirica della elasticità della domanda
generale dei singoli settori industriali e il prezzo presenta notevoli difficoltà: è quasi impossibile
riuscire a separare gli effetti sulla domanda che derivano dalle variazioni dei prezzi da quelli che
hanno origine dei mutamenti dei mezzi di promozione delle vendite. In ogni caso i più importanti
beni di consumo durevole mostrano una elasticità al prezzo sensibilmente inferiore a quella del
reddito, essendo la domanda di molti beni di consumo durevole influenzata dal prezzo di altri
prodotti che concorrono a determinarne il costo di utilizzazione.
5.5 LA DOMANDA DI BENI INTERMEDI E DI INVESTIMENTO
Riguardo ai beni di produzione "intermedi" (materie prime, semilavorati) i modelli che
maggiormente si addicono ad una previsione della domanda aggregata sono quelli di
interdipendenza input-output e quelli che si riferiscono alla politica di immagazzinamento
perseguita dalle imprese.
La previsione della domanda presenta notevoli difficoltà a causa delle particolari caratteristiche di
tali beni (molto eterogenei, sia sotto l'aspetto tecnologico sia riguardo agli utilizzatori finali).
La loro domanda è funzione della domanda delle imprese industriali che ne fanno uso
direttamente nei loro processi produttivi, ma anche indirettamente della domanda dei beni finali
ottenuti con i prodotti intermedi in parola: ne consegue che la domanda di beni intermedi dipende
non solo dalle variabili proprie della funzione di domanda dei beni finali ma anche dai
cambiamenti nella tecnologia.
L'azione di quest'ultima variabile fa si che una materia prima venga richiesta in funzione non solo
del livello assoluto del prezzo ma soprattutto del rapporto fra tale prezzo e quello di altri materiali
succedanei.
In più si noti che i beni intermedi possono essere immagazzinati in grandi quantità senza gravi
pericoli di deterioramento: la loro domanda risulta quindi influenzata anche dal livello degli stock
costituiti presso l'impresa utilizzatrice, nonché dalle aspettative economico-congiunturali e
tecnologiche di queste ultime.
I beni finali di produzione o beni di investimento presentano alcune rilevanti analogie con i beni di
consumo durevole: la previsione della domanda per incremento netto del parco (stock) è
condizionata dalle variabili che definiscono la domanda di beni di consumo finale, in particolare
dalla macro variabile reddito nazionale, per cui anche in questo caso opera il principio di
accelerazione, definito da:
I = f (dY) dove: I sono gli investimenti e dY le variazioni del reddito
Per previsioni di lungo periodo le ricerche ricorrono alla macrovariabile “investimenti nazionali
netti”, se ci si riferisce alla sola domanda per incremento netto dello stock, e lordi se vi si
aggiunge la domanda per sostituzione.
Le macro variabili “investimenti nazionali” e la sua dinamica possono essere analizzate con
riferimento al lungo e il medio-breve periodo:
• Nel primo caso si ricorre a modelli macroeconomici del tipo di quello di Harrod-Domar, che si
fonda sulla previsione dell'andamento delle due tradizionali variabili propensione al risparmio e
coefficienti marginali capitale-prodotto ignora del tutto oscillazioni di carattere congiunturale;
• Nel secondo caso invece si utilizzano modelli che mettono in risalto anche gli elementi
congiunturali e ciclici, modelli cui ricorrono sia l'operatore pubblico sia le singole grandi
imprese industriali. I modelli in parola vengono di solito ricondotti a due principali categorie:
- modelli basati fondamentalmente sul principio di accelerazione, che fanno cioè dipende dagli
investimenti dalla variazione della domanda (cioè del valore aggiunto prodotto);
- modelli del tipo "profitti-investimenti" in cui gli investimenti sono fatti dipendere dai profitti o
dei fondi propri disponibili delle imprese;
Esempi ne sono:
• Il modello di gruppo di studio di Ancona, di tipo accelerative, fa dipendere gli investimenti
industriali fissi lordi direttamente dalla variazione del valore aggiunto dell'industria (vale a dire
dalle variazioni della domanda di beni industriali), quest'ultimo rettificato per mezzo di un
coefficiente adatto a quantificare i vincoli incontrati dall'industria e nell'attuare gli investimenti
programmati. Tali vincoli derivano sia da elementi di ordine tecnico (raccolta informazioni) che
di ordine economico, i quali operano in modo differenziato a seconda che la fase congiunturale
si espansiva o recessiva.
Gli investimenti industriali fissi lordi dipendono quindi direttamente, secondo il principio
dell'acceleratore, dal saggio di variazione del valore aggiunto dell'industria, vale a dire della
domanda di beni industriali, non che dei profitti realizzati dall'impresa negli anni trascorsi, che
permettono l'accumulazione di fondi propria disposizione; inversamente, dal costo del capitale
della capacità produttiva inutilizzata;
• Il modello di Sylos Labini si ricollega soprattutto ad una logica di tipo “profitti-investimenti".
Punto di partenza è la distinzione tra la funzione degli investimenti industriali per le grandi
imprese e quella per le medie e le piccole imprese: il saggio di variazione degli investimenti
industriali delle prime dipende direttamente dalla cosa di profitto corrente, del saggio di
variazione di tale quota e dal grado di capacità produttiva inutilizzata; nel caso delle mediepiccole imprese investimenti sono funzione dei profitti correnti, dei loro saggio di variazione e
della liquidità totale. I modelli econometrici di tipo macro economici danno informazioni sulle
variazioni degli investimenti industriali fissi lordi, ma sono carenti sia sotto il profilo della
distinzione tra domanda di sostituzione e domanda per ampliamento dello stock sia riguardo
l'analisi delle variazioni delle scorte;
In molti modelli utilizzati dalle singole imprese industriali per prevedere la domanda di beni di
produzione nel medio-breve periodo sono utilizzati i seguenti parametri:
• il costo del denaro, rappresentato dal saggio di interesse corrente;
• la disponibilità di linea di credito, espressa dalla variazione della liquidità del sistema creditizio;
• i profitti correnti delle imprese (pari alla quota dei profitti sul reddito conseguito dall'impresa in
un dato periodo) e/o i profitti attesi (misurati dal saggio di variazione della quota dei profitti);
• il grado di utilizzazione della capacità produttiva, misurabile con il ricorso o a determinati
coefficienti empirici, quali gli indici adottati in Italia dall'Icso (Istituto nazionale per lo studio della
congiuntura), oppure il rapporto tra produzione effettiva e produzione potenziale massima;
• il tempo di aggiustamento (time of adjustment), vale a dire il lasso di tempo necessario perché
il parco effettivo di beni strumentali si adegui, tramite mutamenti indotti dalla domanda, alle
variazioni teoriche del parco;
5.6 LA DOMANDA RESIDUALE
Con domanda residuale si intende quella parte della domanda di mercato che si rivolge ad una
singola impresa offerente.in un contesto di economia statica la domanda residuale è
semplicemente è costituita dalla differenza tra la domanda complessiva del mercato e la quota
assorbita dalle altre imprese che costituiscono l'offerta ovvero: Dj = D - Ʃ Dj
6. STRUTTURA E REGIMRE DI VARIAZIONE DEI COSTI DI PRODUZIONE
6.1 INTRODUZIONE
La struttura e il regime dei costi di produzione costituiscono l'aspetto più importante tra le
condizioni di base dell'offerta nel paradigma stucture-conduct-performance (SCP).
Numerose previsioni formulate dalla teoria economica si basano sul concetto di costo marginale,
ad esempio quelle relative ai prezzi e dalle dimensioni dell’imprese. A partire dalla teoria dei
mercati contendibilità (Baumol, Panzar e Willig, 1982) sono apparsi sempre più numerosi studi
che pongono l'accento sul fatto che il comportamento oligopolistico è strettamente correlato a
particolari tipi di costo fisso.
6.2 STRUTTURA DEI COSTI DI PRODUZIONE
La struttura dei costi di produzione si riferisce al breve periodo, espressione con la quale si
intende un intervallo di tempo tanto breve da non consentire all'impresa di variare la quantità
impiegata di alcuni dei suoi fattori. Al crescere del periodo di tempo considerato, la quantità di un
numero sempre maggiore di fattori diventa variabile: nel lungo periodo, infatti, tutti i fattori l'ultimi
sono variabili e la loro quantità è lasciata alla discrezione dell’imprenditore.
Potremmo definire il breve periodo come l'intervallo di tempo compreso tra quello in cui tutti i
fattori sono fissi e quello in cui tutti fattori sono variabili. Nonostante ciò, l'estensione temporale di
breve periodo sarà diversa da impresa impresa: nell'industria in cui la quantità dei fattori fissi non
è rilevante ed è facilmente modificabile, il breve periodo può riferirsi ad un breve intervallo di
tempo, mentre per altre può rappresentare anche un periodo di vari anni.
In riferimento al breve periodo e alla struttura dei costi di produzione, è opportuno distinguere tre
concetti di costo totale: il costo totale fisso, il costo totale variabile e il costo totale.
• I costi totali fissi sono le passività totali che l'impresa deve sostenere nell'unità di tempo per i
fattori fissi. Poiché la quantità di tali fattori è costante, il costo totale fisso sarà il medesimo
indipendentemente dalla quantità prodotta. Alcune voci che concorrono a costituirlo sono il
deprezzamento dei fabbricati e delle attrezzature e le imposte sul patrimonio;
• I costi totali variabili sono i costi totali che l'impresa deve sostenere per acquistare i fattori
variabili. Essi aumentano al crescere della produzione dell'impresa, perché livelli produttivi più
elevati richiedono fattori variabili in quantità maggiore mentre, per bassi livelli produttivi, gli
incrementi nell'utilizzazione dei fattori variabili possono dar luogo ad incrementi della loro
produttività. Di conseguenza i costi totali variabili aumentano con la quantità prodotta ma ad un
tasso decrescente e, superato un certo punto, i rendimenti marginali del fattore variabile
diventano decrescenti e i costi totali variabili aumentano ad un tasso via via maggiore. Questa
proprietà dei costi totali variabili deriva dalla legge dei rendimenti marginali decrescenti;
• I costi totali sono la somma dei costi totali fissi e dei costi totali variabili;
Le funzioni dei costi totali sono molto importanti ma serve anche analizzare il comportamento del
costo integrandole con quelle dei costi medi e marginali: ci sono tre funzioni del costo medio, che
corrispondono alle tre funzione del costo totale.
• Il costo medio fisso è dato dal rapporto tra il costo totale fisso e la quantità prodotta. Esso
diminuisce al crescere della quantità prodotta (dal punto di vista matematico la funzione che ne
descrive l'andamento è un'iperbole equilatero, e in ogni suo punto il prodotto tra l’
ascissa ,ovvero la quantità prodotta , e l’ordinata, ovvero il costo medio fisso, è uguale ad una
costante, ovvero il costo totale fisso);
• Il costo medio variabile è dato dal rapporto tra il costo totale variabile e la quantità prodotta;
• il costo medio totale è il rapporto tra il costo totale e la quantità prodotta. Questo sarà pari alla
somma del costo medio fisso e del costo medio variabile. Per i livelli produttivi in
corrispondenza dei quali le curve del costo medio fisso e variabili hanno entrambe andamento
decrescente, il costo medio totale sarà necessariamente decrescente. Esso, tuttavia,
raggiungerà il livello minimo dopo il costo medio variabile, perché in un certo intervallo gli
incrementi di quest'ultimo sono più che compensati dalle dimensioni del costo medio fisso;
• Il costo marginale è l'incremento del costo totale conseguente ad un incremento unitario della
quantità prodotta. Per bassi livelli produttivi, il costo marginale può assumere un andamento
decrescente al crescere della quantità prodotta, per raggiungere un minimo e poi crescere
all'aumentare della produzione: le ragioni di questo comportamento vanno rinvenute nella legge
dei rendimenti marginali decrescenti;
Se C(Q) è il costo totale corrispondente ad una produzione di Q unità, il costo marginale
nell’intervallo compreso tra Q e (Q - 1) unità prodotte C(Q) - C (Q - 1).
Se, in seguito ad una variazione dQ nella. quantità prodotta, dCTV e dCTF rappresentano
rispettivamente il conseguente incremento del costo totale variabile e del costo totale fisso,fisso,
il costo marginale sarà pari a:
dCTV - dCTF / dQ (essendo dCTF nullo sarà dCTV / dQ )
Inoltre, se il prezzo del fattore variabile è un dato per l'impresa, dCTV = P (dI), dove dI
rappresenta la variazione nella quantità impiegata del fattore variabile conseguente ad un
incremento pari a dQ nella produzione. Il costo marginale così sarà pari a:
MC = P ( dI / dQ) = P ( I / PMa) (dove PMa è il prodotto marginale del fattore variabile)
Poiché al crescere della quantità prodotta il prodotto marginale del fattore variabile generalmente
a andamento decrescente, raggiunge un massimo e poi declina, il costo marginale normalmente
diminuisce, raggiunge un minimo e per poi aumentare.
Esiste dunque un nesso tra la forma della funzione del costo marginale e la legge dei rendimenti
marginali decrescenti. Il costo marginale non è altro che il costo dell'ultima unità prodotta, per cui
se esso è più basso del costo medio tende ad abbassare la media, mentre se esso è più alto del
costo medio tende a far aumentare la media. Più semplicemente: se si aggiunge un valore
inferiore alla media questa si abbasserà, mentre se si aggiunge un valore superiore si alzerà.
Ne consegue che l'unico punto in cui MC = AC è quello corrispondente al punto di minimo della
curva dei costi medi.
Importante menzionare la funzione dei costi formulata da Sylos Labini: questo studioso ha
formulato la funzione dei costi data da C = vq + k, dove v sono i costi variabili, q la quantità
prodotta e k i costi fissi. Fino al pieno utilizzo della capacità produttiva, il costo medio di
produzione decrescente, mentre il costo marginale costante e uguale al costo variabile.
Il costo medio è decrescente fino al punto q*, che corrisponde al pieno utilizzo della capacità
produttiva: oltre a questo punto il costo medio di produzione tenderà a crescere perché il
rendimento degli impianti portato oltre l'utilizzo ottimale degli stessi tenderà a diminuire. Aldilà del
punto q*ci sarà quindi una crescita abbastanza accentuata dei costi medi (AC). Il costo marginale
sarà costante e pari a v fino a q*e da quel punto in poi sarà crescente superiore al costo medio.
6.3 L’ANALISI DEL “BREAK EVEN POINT” (BEP)
La variabilità dei costi di produzione nel breve periodo, con la capacità produttiva data, dipende in
definitiva dal peso relativo dei costi variabili e dei costi fissi. Se tutti i costi sono variabili, sono
cioè proporzionali alla quantità prodotta, la variabilità del costo in relazione ai diversi gradi di
utilizzo della capacità produttiva è nulla; se invece tutti i costi sono fissi, la variabilità del costo
medio di produzione alle variazioni della quantità prodotta sarà molto grande perché mano a
mano che aumenta la produzione il costo per ogni singola unità sarà sempre più piccolo.
Ciò determina forti conseguenze nella struttura del settore che possono essere esaminati
attraverso il grafico dei ricavi e dei costi (brek even) di un’impresa.
Questo è basato sostanzialmente sulla struttura dei costi di produzione, ossia sul rapporto tra
costi fissi e costi variabili: supponendo un’elasticità unitaria della domanda, possiamo dire che
esiste una relazione unitaria tra prezzo e quantità prodotta che determina un'inclinazione a 45°
rispetto all'asse delle ascisse della retta dei ricavi.
I costi di produzione sono rappresentati da una retta orizzontale (costi che non variano al variare
della quantità prodotta), e i costi variabili da una retta inclinata (costi che crescono al crescere
della produzione).
Da queste due rette dei costi si ricava la retta dei costi totali, che è parallela a quella dei costi
variabili, ma parte della quota in cui i costi fissi intercettano l'asse delle ordinate.La posizione di
BEP si raggiunge quando la retta dei costi totali interseca quella di ricavi, nel punto q*.
Questa semplice analisi a un largo utilizzo pratico: un'impresa può servirsene per determinare
l'effetto sui profitti di una relazione attesa nelle vendite o per determinare quanti unità di un dato
prodotto deve vendere affinché il suo bilancio sia in pareggio.
6.4 ALTRI CONCETTI DI COSTO (OPPORTUNITA’, “SUNK COSTS”)
Il concetto di costo opportunità riveste un'importanza fondamentale nelle decisioni economiche,
poiché esso fa parte del modo di pensare e di agire di ogni agente razionale. Il costo opportunità
di usare una qualunque risorsa (tempo, denaro…) per un determinato scopo è il beneficio che si
sarebbe potuto trarre dall'impiego di quella risorsa nel miglior uso possibile alternativo (si parla
volte anche di costo imputato).
I costi opportunità indicano quindi la convenienza o meno a proseguire una determinata attività.
Altro concetto importante è quello di costo irrecuperabile o sunk cost: un costo irrecuperabile è
un investimento in un bene capitale che non ha usi alternativi (in questo senso si parla di beni
capitali specifici). In altre parole, un costo recuperabile è un costo sostenuto per acquistare un
fattore produttivo che era un costo opportunità nullo, un costo paragonabile al latte versato.
Invece i costi, inclusi quelli fissi, che non si devono pagare in caso di interruzione di una attività
sono definiti costi evitabili.
6.5 IL REGIME DEI COSTI DI PRODUZIONE (LUNGO PERIODO)
Nel lungo periodo, l'impresa può installare gli impianti delle dimensioni e del tipo voluto, per cui
tutti i fattori sono variabili e non ci sono funzioni di costo fisso di lungo periodo, poiché non
esistono fattori fissi. Si può guardare a lungo periodo come ad un orizzonte di programmazione.
La decisione principale che l'impresa deve prendere nel lungo periodo rispetto ai costi riguarda la
dimensione dell'impianto di produzione: l'impresa può costruire l'impianto delle dimensioni
desiderate o trasformare quello esistente in modo che risponda alle proprie esigenze; tale scelta
dipende dalla quantità che l'impresa intende produrre nel lungo periodo.
La funzione del costo medio di lungo periodo mostra il costo unitario minimo corrispondente ad
ogni livello produttivo nel caso che sia possibile costruire l'impianto delle dimensioni desiderate.
Il costo unitario minimo corrispondente a ciascun livello produttivo è dato dalla funzione del costo
medio di lungo periodo, LL’.
Tale funzione è tangente a ciascuna delle curve del costo medio di breve periodo nel punto in cui
gli impianti ai quali esse si riferiscono sono a livelli di produzione ottimale. Dal punto di vista
matematico la funzione dei costi medi di lungo periodo è l'inviluppo di quelle di breve periodo.
Nel tratto in cui è decrescente, LL è tangente alle funzioni di breve periodo a sinistra del loro
punto di minimo, mentre, nel tratto in cui è crescente, è tangente a te le funzioni alla destra del
loro punto minimo.
Per quanto riguarda le combinazioni tra i fattori che assicurano il minor costo, la funzione del
costo medio di lungo periodo può essere interpretata come segue: in corrispondenza di ogni
livello produttivo, il costo totale e medio di lungo periodo è minimo quando tutti i fattori (non solo
quelli variabili nel breve periodo) sono combinati in modo che il prodotto marginale di ogni euro
investito in un fattore sia pari a quello di ogni euro investito negli altri.
Solamente nel caso in cui l'impresa, per ogni livello produttivo, usi la combinazione tra i fattori che
assicura il miglior costo, è possibile raggiungere la funzione del costo medio di lungo periodo.
Nella maggioranza delle produzioni industriali la funzione dei costi medi di lungo periodo alla
caratteristica forma ad L, in luogo di quella tradizionalmente supposta ad U.
Questo significa che la funzione è decrescente per un lungo intervallo per poi rimanere costante
per un tratto di lunghezza variabile fino a scomparire delle diseconomie di scala.
Dalla curva si possono ricavare le differenze di efficienza e di competitività che si determinano tra
imprese di dimensioni diverse.
La pendenza della curva esprime il vantaggio che si acquisisce in termini di costo medio unitario
di produzione avendo una dimensione più elevata: se la pendenza è molto accentuata nella fase
iniziale, le imprese più grandi saranno più efficienti delle imprese più piccole; se, invece, la
pendenza non fosse accentuata, o al limite non vi fosse pendenza, non ci sarebbe alcun
vantaggio a passare da una piccola quantità prodotta ad una grande quantità.
Il punto in cui la curva smette di crescere identifica quella che viene definita la dimensione ottima
minima (Dom) dell'industria presa in considerazione.
Dato il costo medio di lungo periodo relativamente ad un certo livello produttivo, non è difficile
calcolare il costo totale di lungo periodo, poiché, in tal caso, basterebbe moltiplicare il costo
medio di lungo periodo per la quantità prodotta. La relazione che intercorre tra il costo totale di
lungo periodo e la quantità prodotta prende il nome di funzione del costo totale di lungo periodo,
partendo dalla quale non è difficile calcolare la funzione di costo marginale di lungo periodo, che
invece mostra la relazione esistente tra la quantità prodotta il costo risultante dalla produzione
dell'ultima unità addizionale nel caso che l'impresa abbia modo di attuare quelle variazioni della
quantità impiegata di tutti i fattori che le consentono di raggiungere la combinazione attuale.
Il costo marginale di lungo periodo sarà rispettivamente minore, uguale e maggiore del costo
medio di lungo periodo nel tratto in cui quest'ultimo è decrescente, minimo tre crescente.
6.6 LE ECONOMIE DI SCALA
Le economie di scala indicano i vantaggi di costo che si ottengono all'aumentare della
dimensione (scala) della capacità produttiva e della produzione. Un'impresa realizza economie di
scala quando il costo medio unitario di produzione diminuisce all'aumentare della produttività dei
suoi impianti. La presenza di economie di scala rilevanti in un settore influenza il suo grado di
concentrazione, che costituisce uno degli elementi fondamentali della struttura di mercato di un
settore. Economie di scala si associano la presenza di rendimenti di scala crescenti, anche se
possono derivare da numerosi altri fattori tecnici, statistici, organizzativi…
Le economie di scala vanno tenute distinte da:
• i rendimenti di scala crescenti, che si riferiscono alla relazione esistente tra variazione degli
input di produzione e variazione dell’output (relazione espressa più che altro in termini fisici,
mentre per le economie di scala la reazione è quella tra dimensione dell'impianto e costo medio
unitario di produzione);
• le economie di saturazione, dovute al fatto che, dato un certo impianto, il costo medio unitario
diminuisce all'aumentare della quantità prodotta, in quanto i costi fissi si ripartiscono su un
numero maggiore di unità di prodotto;
6.7 LE DETERMINANTI DELLE ECONOMIE DI SCALA
Le economie di scala possono derivare dalla presenza di rendimenti di scala crescenti, e quindi
da tutti i fattori che ne possono determinare la presenza, nonché da fattori connessi con il grado
di controllo del mercato, correlati con la scala di produzione.si parla in tal caso di economie
monetarie, per mettere in evidenza il fatto che nulla cambia dal punto di vista fisico.
Una delle prime cause delle economie di scala fu individuata da Adam Smith in Ricchezza delle
nazioni, 1776, nella quale poneva in evidenza i vantaggi della divisione del lavoro manifatturiera:
grandi volumi di produzione permette una maggiore divisione del lavoro che aumenta la
produttività delle risorse umane impiegate delle macchine, per mezzo della specializzazione delle
mansioni e dei processi.
L'indivisibilità dei fattori produttivi da luogo al principio dei multipli, secondo cui, se un'impresa
utilizza diversi macchinari indivisibili, deve scegliere come livello di produzione minimo il minimo
comune multiplo della produzione dei vari macchinari. Quando un processo realizzato con più
fattori produttivi che non sono divisibili all'infinito, l'aumento della dimensione determina una
riduzione dei costi di produzione.
È importante distinguere tra economie di prodotto, relative al volume di ogni singolo prodotto
fabbricato e venduto, economie di impianto, relative alla produzione totale proveniente da un
impianto, ed economie multi impianto, derivanti dalla gestione di molteplici impianti da parte di
una singola.
• Economie di scala a livello di prodotto: la lavorazione dei componenti può richiedere lo stesso
tipo di operazioni meccaniche ma un diverso assetto o attrezzaggio del layout (sequenza) degli
impianti per poter produrre il prodotto nella varietà di forme dimensioni richieste. Se il tempo di
riassetto del layout o di riattrezzaggio delle macchine è lungo, rischia di essere superiore a
quello di produzione. Quante più unità di ciascun articolo si producono, tanto più i tempi
influiscono in misura minore sul costo totale di lavorazione del singolo articolo. In generale
l'introduzione di macchine automatiche permette lotti di produzione più ampi: e quando si
fabbricano grandi quantità di singoli prodotti, cresce la necessità di dedicare più attenzione
all'individuazione di difetti nei relativi processi produttivi;
• Economia a livello di impianto: a livello di impianto, le economie di scala più importanti derivano
dall'aumento delle dimensioni delle singole unità di produzione. Entro certi limiti, la produzione
di un impianto tende ad essere all'incirca proporzionale al suo volume, a parità di altre
condizioni, mentre la quantità di materiali e l'attività di fabbricazione necessaria per costruire
unità addizionale in questione saranno proporzionali alla superficie occupata dalla camera di
reazione, dai serbatoi o tubi dell’unità. In tali casi i tecnici applicano la regola empirica dei due
terzi, in base alla quale se l'area di una superficie varia con un rapporto di due terzi rispetto alla
variazione del suo volume, anche il costo di costruzione di un'unità produttiva nell'industria di
processo aumenterà di due terzi rispetto alla crescita della propria capacità produttiva, almeno
entro dati limiti dimensionali. Ciò equivale a dire che l'elasticità dei costi rispetto al volume
prodotto è di circa 0,6. Un altro vantaggio del maggiore dimensionamento degli impianti e
quello dell'economia e delle riserve di capacità: in un impianto le cui dimensioni consentono di
utilizzare solo una macchina specializzata deve esistere una macchina di riserva per evitare
interruzioni per questi accidentali;
• Economie multi impianto e a livello di impresa: le economie derivanti dalla specializzazione e
dalle riserve di capacità possono valere anche nel caso della gestione di numerosi stabilimenti
da parte di una singola impresa in quanto le diverse unità produttive organizzative specializzate
possono beneficiare di una maggiore scala, mentre in caso di interruzione della produzione di
uno stabilimento o di avaria di un macchinario è possibile contare sulla disponibilità di un altro.
Allo stesso modo, in caso di imprevisti e fluttuazioni della domanda servita da uno stabilimento,
può farvi fronte l'impianto con capacità di eccesso. In molte circostanze è più conveniente
disporre di più impianti disseminati sul territorio piuttosto che tu non li vuoi impianto
centralizzato (questo avviene quando i costi di trasporto sono elevati rispetto al valore del
prodotto trasportato, oppure quando l'impresa produce numerosi beni differenziati tra loro).
Le economie di scala possono anche non riguardare le singole unità o impianti, ma avere luogo
a livello di impresa o di gruppo, che includono vantaggi nell'approvvigionamento delle materie
prime, nella promozione delle vendite, nella raccolta del capitale e nella dotazione di risorse e
competenze di tipo organizzativo-manageriale. Tali vantaggi derivano da tre motivi principali:
effettivi risparmi nell'ordinazione, nella programmazione della produzione e nell’
amministrazione; possibilità di stipulare contratti più favorevoli quando si acquistano grandi
quantità; maggiore potere contrattuale e di ritorsione nei confronti dei fornitori in quanto grandi
imprese possono minacciare più credibilmente azioni di integrazione nel senso verticale della
produzione. Alla grande dimensione vengono inoltre associati vantaggi anche nel reperimento
di risorse manageriali e organizzative specializzate e nell'innovazione tecnologica.
6.8 ECONOMIE DI AMPIEZZA O DI GAMMA
La maggior parte delle imprese non offre un unico prodotto, ma una gamma di prodotti diversi, tra
loro collegati. Quando la produzione congiunta di due prodotti è più conveniente rispetto alla
produzione separata di ciascuno dei due, si parla di economie di ampiezza (economies of scope)
o di gamma (economie di varietà).
In termini analitici, siamo in presenza di economie di ampiezza quando il costo per produrre
congiuntamente q1 unità del bene 1 e q2 unità del bene 2 è più basso del costo di produrre
separatamente: vale quindi la condizione di subb-additività dei costi di produzione, ovvero la
disuguaglianza C(q1, q2) < C(q1, 0) + C(0 + q2). Spesso le economie di ampiezza si
accompagnano a casi di integrazione verticale o diversificazione.
Le economie di ampiezza sono determinate dalla condivisione di:
• fattori o componenti del sistema produttivo (quali impianti, attrezzature, linee di produzione);
• attività materiali della struttura commerciale (canali distribuzione, reti);
• risorse materiali in dotazione all’impresa (immagine, reputazione, know how, managerialità);
Con riguardo alle strutture commerciali, sono soprattutto i canali distributivi o le reti di vendita a
prestarsi per la commercializzazione di più prodotti anziché di uno solo.
6.9 DISECONOMIE DI SCALA
Vi sono numerosi fattori che tendono a far crescere dopo un certo livello la curva dei costi
supposta ad L, tra questi i fattori legati ai costi dei processi di coordinamento e di informazione
che aumentano con la dimensione dell’impresa. Oltre una certa scala il costo del fattore
organizzativo imprenditoriale può crescere più che proporzionalmente o la sua efficacia diminuire.
Per cui, nelle grandi imprese, i vantaggi prima elencati della grande scala possono così essere
compensati da inefficienze amministrative e organizzative (rischi di burocratizzazione), come già
posto in evidenza da E.Penrose.
Con la crescita della scala dimensionale, inoltre, aumenta anche il numero di mercati serviti della
stessa impresa con diverse unità di business. Il coordinamento di tali unità tende ad aumentare i
costi di trasporto le difficoltà logistiche. Si noti che le fonti delle economie e diseconomie di scala
sono tra loro differenti: mentre queste ultime sono legate a fattori organizzativi e operativi/logistici,
le prime includono anche fattori di natura tecnologica e transitiva.
Si noti inoltre che un aumento della dimensione dell'impresa può risultare contemporaneamente
in economie e diseconomie di scala.
6.10 ECONOMIE DI SCALA ESTERNE
I vantaggi della produzione sul larga scala possono essere contrapposti vantaggi derivanti dalla
localizzazione dell'attività produttiva, ossia della concentrazione di più imprese di piccola e media
dimensione specializzate nella produzione di un singolo bene o di più beni tra loro correlati in uno
spazio delimitato territorialmente.ciò significa che le piccole imprese, se non possono beneficiare
delle economie dipendenti dalle loro risorse interne, della loro organizzazione ed efficienza,
possono profittare dalle economie dipendenti dallo sviluppo generale dell’industria, ossia delle
economie esterne di produzione. Marshall le definiva come "risparmi di costo che dipendono
dallo sviluppo di un'industria e che si producono grazie alla concentrazione in piccoli spazi di
piccole e medie imprese, grazie alla localizzazione di un'industria" in Principles of Economics.
Tali vantaggi derivano, per le piccole imprese, dai processi che si sviluppano a livello locale
soprattutto attraverso:
• lo sviluppo di industrie ausiliarie (che facilitano la comunicazione tra i vari tipi di attività o
fabbricano strumenti e macchine particolari richieste al processo produttivo);
• la diffusione delle conoscenze tecniche e l’educazione alle abilità e ai gusti necessari all'attività
produttiva;
• la circolazione delle idee riguardanti i prodotti, le tecniche produttive e i mercati;
• il facile reperimento di manodopera specializzata e la facilità con cui lavoratori specializzati
trovano impiego;
Questi processi determina una serie di vantaggi sul lato dell'offerta che costituiscono la nostra
triade marshalliana delle economie esterne:
• economie di specializzazione degli input produttivi, con riguardo in particolare al mercato del
lavoro specializzato;
• economie di specializzazione a livello di beni e servizi intermedi, con riguardo in particolare alla
presenza di fornitori specializzati;
• trasferimenti di informazioni e competenze tecnologiche (information spillover);
Aggiungono inoltre i vantaggi sul lato della domanda la localizzazione dell'attività produttiva che
fanno riferimento soprattutto alle economie di approvvigionamento: incorre in costi più bassi e
acquirente che si reca in una unica località per visionare i prodotti, contrattare il prezzo e
condizioni di offerta, che nel caso occorra visitare i fornitori localizzati in punti dello spazio diversi
tra loro distanti.
6.11 ECONOMIE DI APPRENDIMENTO
A volte si parla di economie di scala dinamiche, contrapposte a quelle statiche, per indicare le
cosiddette economie di apprendimento, cioè le riduzioni dei costi medi unitari generati
dall’esperienza. L'esistenza di processi di apprendimento fu evidenziata per la prima volta
nell'industria aeronautica degli anni ’30: ciò che accadeva è che con il passare del tempo la
produttività degli operai, delle maestranze e delle macchine cresceva, la progettazione e il layout
degli impianti diventava più razionale grazie alla maggiore esperienza accumulata, con la
conseguenza che il costo medio diminuiva.
Tale fenomeno può essere rappresentato da una curva in cui in ordinata è indicato il costo di
produzione in ascissa una variabile che è prossima (proxy) l'esperienza accumulata (tasso di
apprendimento), che può essere misurata con la produzione o gli investimenti cumulati o con il
tempo. Un modo alternativo di rappresentazione è la formula costo(n) = costo (1) n - k, dove:
• n è il numero delle unità prodotte;
• costo(n) e costo(1) sono i costi della n-esima e della prima unità;
• k è l’elasticità del costo unitario in relazione al volume cumulato;
Analogamente alle economie di scala, le economie di esperienza possono riguardare sia la
produzione sia le altre attività dell’impresa. Il termine apprendimento viene in genere utilizzato per
abbracciare tutti i tipi di miglioramento del know how (conoscenze, abilità, professionalità del
capitale umano) e delle procedure organizzative che avvengono passivamente, per il semplice
accumulo di esperienza nel fare qualcosa.
Sono state individuate diverse tipologie di apprendimento: “learning by doing”, “learning-byusing”, “learning-by-interacting”, “learning-by-monitoring”(avanzamenti della tecnologia),
“learning-by-searching”.
La curva di apprendimento fornisce ulteriore giustificazione della persistenza della dominanza o
del rafforzamento di questa di un'impresa leader di mercato: vendendo di più, l'impresa
dominante riduce i suoi costi più velocemente, il che la rende ancora più competitiva, facendone
aumentare le vendite.
Dalla presenza di curve di apprendimento deriva una legge generale dell'economia industriale,
che oltretutto una delle prime analisi che si devono effettuare per giudicare la validità di un piano
strategico all'interno di un’azienda. Se nel mercato esistono situazioni di concorrenza, i prezzi dei
prodotti industriali devono diminuire nel tempo in termini reali, proprio per effetto delle curve di
apprendimento. Il guadagno di produttività che si ottiene in conseguenza dell'accumularsi delle
esperienza viene trasferito al mercato attraverso la riduzione dei prezzi per effetto del processo di
competizione tra le imprese.
La presenza di mercati processi di apprendimento conferisce una forte dinamicità alle dinamiche
concorrenziali dei mercati e contribuisce a spiegare perché talvolta le posizioni di dominanza
siano difficilmente superabili.
6.12 MISURAZIONE DELL’ANDAMENTO DEI COSTI
Analisi empirica dell'andamento dei costi, la misurazione delle economie di scala, di ampiezza o
di apprendimento o l'identificazione della dimensione ottima minima in termini quantitativi sono
assai rilevanti per tutte le decisioni dell'impresa che riguardino la crescita interna o le operazioni di
fusione e acquisizione, l'entrata uscita in un mercato, le strategie di integrazione diversificazione,
ma hanno anche rilevanza delle autorità pubbliche, sia ai fini dell'applicazione della normativa per
la concorrenza sia per quella autorità che si trovino a dover determinare il bacino ottimale di
offerta nel quale assegnare il diritto esclusivo di operare (franchise bidding).
I metodi e gli approcci di misurazione dei costi possono essere suddivisi in quattro categorie:
• Un primo metodo consiste nell'analisi del rendimento del capitale investito, attraverso l'analisi
dei bilanci, dall'imprese che appartengono a diverse categorie dimensionali. Si associa alla
dimensione dell'impresa, misurata attraverso la variabile del capitale investito, con il livello di
redditività sul capitale investito, ossia il Roi (return on Investment). In tal modo, se vi è una
correlazione positiva tra la dimensione del capitale investito e il Roi si possono spettare la
presenza di economie di scala, cioè di una funzione dei costi decrescenti al crescere della
produzione. Tale tecnica può essere applicata solo a livello di impresa, perché utilizza i bilanci
delle imprese, mentre si occorre misurare la presenza di economie di scala a livello di impianto
si ricorre preferibilmente alla seconda tipologia;
• Il secondo metodo consiste nell'analisi del fabbisogno di investimento per unità di produzione
rispetto a diverse alternative dimensionali. Si indicano sulle ascisse la dimensione produttiva
dell'impianto, in ordinata la spesa per investimento per unità di prodotto corrispondente ad
impianti delle dimensioni che si trovano in ascissa. Supponiamo un investimento per unità di
prodotto congiungendo i punti trovati si ottiene una stima della funzione del costo di
produzione di lungo periodo e quindi una stima delle economie di scala presenti nella
produzione. Tale metodo si basa su stime ingegneristiche;
• Il terzo approccio è stato sviluppato da Stigler, a partire dall'osservazione secondo la quale, se
una particolare dimensione di stabilimento è efficace, con il trascorrere del tempo tutte le
imprese appartenenti all'industria tenderanno ad avvicinarsi a quella dimensione. Di
conseguenza, qualsiasi dimensione di stabilimento o di impresa che sopravvive nel tempo è
efficiente (tecnica dell'analisi della sopravvivenza o survivor technique);
• Ultimo metodo più diretto e adatto in particolare per gli impianti è l'analisi statistica o
econometrica dei costi. Al fine di determinare la pendenza della curva dei costi di lungo periodo
di un impianto, si pongono in relazione ai costi medi di produzione registrati per un campione
abbastanza ampio di impianti con statistiche che riflettono il prodotto di questi ultimi,
considerando anche altre variabili (la percentuale di utilizzo delle capacità, differenze nell'età
dei beni strumentali, differenze di prezzo degli input). Analogamente, nel caso di stime
econometriche, si individueranno diverse variabili atti a misurare l'andamento dei costi nel
campione indagato, in funzione del modello specificato. I modelli econometrici più ampiamente
utilizzati sono funzione di costo (totale o costi variabili) o funzioni di produzione
translogaritmiche e funzione di costo totale o variabile di frontiera efficiente (cost frontier
approach). La difficoltà in questo metodo risiede principalmente nel reperimento dei dati, non
sempre pubblici, ma spesso da richiedere alle imprese (molto volentieri restii a fornirle).
6.13 IL FENOMENO DELLE ESTERNALITA’
Il fenomeno dell'esternalità è rappresentato dalla presenza di circostanze che influenzano il livello
della produttività o dei costi di produzione malgrado essi non vengono normalmente presi in
considerazione dall'imprenditore nelle proprie valutazioni decisionali.Le esternalità possono
essere positive se si hanno le effetto di aumentare la produttività dei fattori o ridurre i costi e
negative nel caso contrario.
7. LA CONCENTRAZIONE DELL’OFFERTA, MISURAZIONE, CAUSE/EFFETTI
7.1 INTRODUZIONE
Il punto di partenza dell'analisi empirica di economia industriale è la definizione del grado di
concentrazione che caratterizza e determina la struttura di un'industria. Con industria si intende
l'aggregato di unità produttive individuate sulla base di una comune denominatore: un prodotto o
una gamma di prodotti omogenei in funzione dei materiali e delle tecnologie utilizzate nel
processo produttivo, o omogenei in funzione dell'uso finale, individuati in base al grado di
sostituibilità delle rispettive domande finali.
Sulla base di tale definizione si intende far riferimento ad un tipo di concentrazione orizzontale,
distinta dei fenomeni di integrazione verticale di concentrazione globale o aggregata (che
interessa le imprese multiprodotto o multinazionali).
La concentrazione misura la distribuzione delle imprese in un'industria per dimensione:
un'industria è concentrata se il numero n delle imprese in esso operanti è piccolo; a parità di n il
grado di concentrazione cresce all'aumentare della variabilità delle dimensioni e, in particolare,
quando “una larga porzione di un qualche aggregato di ritenute da parte di una piccola porzione
di unità produttive e decisionali, la quale domina l'aggregato" (Bain, 1959).
La concentrazione è molto importante anche per il paradigma SCP, che si basa sull'ipotesi che “lo
scopo di un indice di concentrazione e di predire di quanto il prezzo di equilibrio di un'industria si
allontani dal livello di concorrenza" (Stigler, 1968).
Il grado di concentrazione dell'industria riflette il comportamento potenziale dell'impresa in esso
operanti e in particolare il potere da esercitato nel determinare un prezzo di mercato superiore al
costo marginale. Secondo l'ipotesi strutturalista la concentrazione è una determinante importante
della struttura di un'industria ma "non è di per sé stessa una misura del monopolio o del potere di
mercato" (Comanor e Wilson, 1967), essendo quest'ultimo l'effetto di numerosi fattori strutturali e
della loro interazione (economie di scala, condizioni di ingresso, caratteristiche del prodotto e
della sua domanda).
7.2 MISURE STATISTICHE DELLA CONCENTRAZIONE
Un efficace indice di concentrazione deve essere facile da calcolare interpretare, indipendente
dalla dimensione della brigata di base e deve variare tra zero e uno.
La sua definizione pone molti problemi di natura empirica e statistica, ad esempio:
• La scelta della variabile da porre a misura della dimensione, tra: a) le vendite o le quantità
prodotte (output); b) il numero degli occupati e. il capitale investito; c) gli immobilizzi;
• La definizione dell’aggregato di riferimento. Azione richiede, accanto all'individuazione del
criterio economico più adeguato, definizione geografica, sia la delimitazione territoriale rispetto
alla quale tutto il livello di concentrazione dell’aggregato;
• La scelta dei metodi di misura più efficaci. La duplice dimensione della concentrazione (numero
delle imprese e distribuzione per dimensione) pone vari problemi, e gli indici presidenza come
saranno gli indici di concentrazione assoluti (quelli legati sia al numero delle imprese che alle
rispettive quote relative di mercato) e gli indici di concentrazione relativi o di disuguaglianza tra
parentesi che misurano unicamente la dispersione delle quote di mercato);
I due fattori dimensionali che caratterizzano la concentrazione sono rappresentati attraverso la
curva di concentrazione: questo è definito dalla percentuale cumulata dell'output (asse y) e dal
numero comprato dell'impresa ordinati a partire dalla più grande (asse x).
Curve rappresentate sono tutte concava verso il basso (essendo la variabile in ascissa
accumulata in ordine dimensionale decrescente) o, al limite, delle rette nel caso di imprese di
uguale dimensione.
Ognuna delle curve disegnate rappresenta un'industria, e Hannah e Kay (1977) suggeriscono
alcuni utilizzatori di lettura di tali curve di
concentrazione:
• criteri di classificazione: un'industria più
concentrata di un'altra se la sua curva di
concentrazione giace, per ogni suo punto, al di
sopra della curva dell'altra;
• principio del trasferimento delle vendite: il
trasferimento delle vendite da una piccola una
grande impresa causa un aumento della
concentrazione, che si traduce in un rigonfiamento
della curva;
• condizioni di entrata: l'entrata di una piccola
impresa, ferme restando le quote delle altre, porta
ad una diminuzione della concentrazione. L'ingresso
di nuovi concorrenti di elevate dimensioni può
tradursi in un aumento della concentrazione;
• condizioni di fusione: la fusione portato un
aumento della concentrazione, potendo essere
scomposta in un trasferimento di vendita di una
piccola grande impresa combinato con l'uscita
dell'impresa dal mercato;
7.3 INDICI DI CONCENTRAZIONE ASSOLUTA
La categoria degli indici di concentrazione assoluta è caratterizzata sia dal numero delle imprese
che te le rispettive quote di mercato. Si definiscono l'output dell'industria come X = ∑ xi e la quota
relativa dell’i-esima impresa come si = xi / X .
Un indice di concentrazione assoluto ci, in termini generali, è definito come C = ∑ hs si dove hs è.
la ponderazione attributi alle quote di mercato delle imprese.
Sono indici di concentrazione assoluta:
• Il reciproco del numero delle imprese, pari a 1/n, che soddisfa tutte le condizioni tranne quelle
del trasferimento delle vendite. Viene scarsamente utilizzato a causa della non considerazione
della dimensione relativa all'imprese, si, a cui negli indici è attribuito un peso pari a zero;
• Il rapporto di concentrazione, che misura la proporzione dell'output delle r imprese più grandi,
con r scelto arbitrariamente, e risulta C = ∑ si dove hs = 1. L'indice di rilevanza, nella scelta di R,
solo ad un tratto della curva di concentrazione dell’industria;
• L’indice di Herfindahl-Hirschman, particolarmente usato negli studi sulla concorrenza
oligopolistica, propone una ponderazione proporzionale della quota di mercato detenuta dalla
singola impresa e soddisfa tutte le condizioni di Hannah e Kay. Risulta come HH = ∑ si *2 dove
hs = si. La scelta di tale tipo di ponderazione consente di attribuire un peso maggiore all'imprese
che detengono una quota di mercato maggiore; per converso, il valore dell'indice non risente
molto della presenza di imprese di piccolissime dimensioni.
In caso di monopolio l'indice HH avrà valore massimo pari a 1; nel caso di molte imprese di
uguali dimensioni e sarà pari a 1/n, e tenderà a 0 in presenza di un numero infinito di imprese.
• Entropia, un indice che mira a rappresentare l'elemento, mutato dalla fisica, del disordine o
dell'incertezza caratterizzanti una data industria. Esso è utilizzato come una misura inversa
della concentrazione, in quanto ad un minor numero di imprese presenti sul mercato e/o alla
presenza di poche grandi imprese dovrebbe corrispondere un minor grado di incertezza.
Risulta come E = ∑ si ln( 1/si). Il peso dato alle quote di mercato è in questo caso paria a ln(1/
si). Tanto maggiore è il coefficiente di entropia tanto più incerto diviene il controllo della quota di
mercato per la singola impresa; nel caso di monopolio, l’entropia è minima e l'indice è uguale a
0, mentre nel caso di molte piccole imprese di uguale dimensione l’entropia sarà uguale a ln(n).
L’entropia aumenta sia all'aumentare dell'omogeneità delle quote di mercato sia all'aumentare
del numero delle imprese.
7.4 INDICI DI CONCENTRAZIONE RELATIVA
Tali misure non tengono conto del numero (in valore assoluto) delle imprese e tra una loro
rappresentazione sintetica nella curva di Lorenz.
Essa è definita dalla percentuale cumulata dell'output dell'industria (asse y) e dalla percentuale
cumulata delle imprese disposti in ordine crescente (a partire dalle più piccole) sull'asse X. La
linea OT rappresenta l'ipotesi in cui le imprese dell'industria considerata abbiano tutti uguale
dimensione (importante notare che il numero delle imprese non influisce sull'andamento della
curva di Lorenz).
Sono indici di concentrazione relativa:
• Il Coefficiente di Gini, dato dal rapporto tra l'area tratteggiata, sottostante la linea di
equidistribuzione, e l’area OTS: maggiore è la disuguaglianza dell'industria, maggiore è l'area
tratteggiata e, dunque, il valore del coefficiente di Gini all'interno dell'intervallo [0,1];
• Il coefficiente di variazione, dato dal rapporto tra la deviazione standard della dimensione di
ciascun impresa (quindi della dimensione media dell'intera industria) la dimensione media e
risulta come c = σ / x bar (cioè simbolo della media). L'indice rileva la dispersione delle
dimensioni relative delle imprese del valore medio delle stesse;
• La varianza dei logaritmi della dimensione di impresa, utile quando l'analisi verte sulla crescita
relativa delle imprese. La sua formulazione si basa sulla rappresentazione logaritmica delle
quote relative all'impresa e sul concetto di media geometrica e risulta come
dove xg è la media geometrica delle dimensioni delle imprese operanti nell'industria esaminata.
7.5 I PROCESSI DETERMINISTICI
I contributi teorici dell'analisi dei fattori che determinano il grado di concentrazione di un'industria
sono sostanzialmente riconducibili a due approcci:
• quello deterministico, che sottolinea il carattere originario del fenomeno per cui in un dato
momento in un dato mercato le condizioni di costo e di domanda saranno tali da spingere le
imprese a muoversi con azioni deliberate verso un livello di concentrazione di equilibrio;
• quello stocastico, che si basa su una interpretazione casuale dei fenomeni di crescita delle
singole imprese presenti in un dato mercato: detti fenomeni sono risultato di eventi incerti che,
combinati al comportamento delle singole imprese, determinano la performance delle stesse e
l'evoluzione della struttura dell’industria.
Il livello di concentrazione di equilibrio, cui tendono deliberatamente le imprese, varia al mutare
delle condizioni tecnologiche di costo e delle condizioni di domanda.il fattore che, nell'approccio
all'esame, occupa ruolo centrale intermediari livelli crescenti di concentrazione è quello delle
economie di scala.
7.6 I PROCESSI STOCASTICI
L'approccio in esame si basa sull'ipotesi che la struttura di un mercato e, quindi, il suo livello di
concentrazione è il frutto di un processo stocastico. Gli eventi casuali che producono effetti sulla
dimensione dell'impresa possono essere rappresentati dalla distribuzione normale di GaussLaplace (curva continua). Essendo la probabilità di detti cambiamenti uguale per ciascun impresa
e soprattutto indipendente dalla sua dimensione iniziale, le imprese piccole dovrebbero
gradualmente raggiungere le dimensioni di quelli grandi, cosicché il gruppo tenderebbe a divenire
più omogeneo. Nella realtà, tuttavia, si osservano distribuzione dimensionale delle imprese
simmetriche e, più precisamente, spostata verso l'origine degli assi.
La spiegazione di questo spostamento della distribuzione normale e nell'ipotesi di crescita,
sottostante l'approccio teorico in esame, nota come legge dell'effetto proporzionato. Sulla base di
questo modello di crescita, formulato da chi Gibrat, tutte le imprese, indipendentemente dalla loro
dimensione, hanno la stessa proprietà di una data crescita percentuale: eventi casuali, dunque,
influenzeranno la dimensione della singola impresa con la stessa probabilità ma con tassi di
crescita reali diversi.
È importante sottolineare che non esiste un vantaggio dell'imprese più grandi in tale processo di
crescita, essendo l'aumento dimensionale legato ad una serie di eventi che influenzano tutte le
imprese dell'industria considerata con la stessa probabilità: la presenza di economie di scala che
dovrebbe favorire la crescita delle imprese più grandi offre un impulso aggiuntivo ma non
determinante all'aumento della concentrazione.
7.7 POTERE DI MERCATO, CONCENTRAZIONE ED ELASTICITA’ DELLA DOMANDA
Il teorema fondamentale del paradigma SCP, costituito dalla relazione tra le performance di
un'industria, le caratteristiche delle sue strutture e i comportamenti, può trovare conferma sotto il
profilo delle relazioni teoriche.
Assumendo che le performance di un settore siano misurati dal suo tasso di profitto (π) si può
dimostrare analiticamente che quest'ultimo dipende da tre fattori:
• l’elasticità della domanda;
• la concentrazione dell'offerta;
• le condotte collusive;
•
Si definisce potere di mercato il rapporto tra il margine di profitto, ovvero la differenza tra il prezzo
e il costo marginale (p - MC), il prezzo: tale rapporto viene convenzionalmente indicato dall'indice
di Lerner per cui L = ( p - MC ) / p che, per l’insieme delle imprese che costituiscono l’offerta,
assumendo che le funzioni di costo non siano omogenee, diventa L = ∑ si ( p - MC ) / p
L'indice di Lerner può essere definito come la media ponderata dei margini di profitto dell'impresa
in un settore.
Per un'industria nel suo complesso esso è uguale all'inverso della siccità della domanda ossia:
L = ( p - MC ) / p = 1 / e
9. LA DIFFERENZIAZIONE, EFFETTI DELLA SPESA PUBBLICITARIA, QUALITA’
E INNOVAZIONI DI PRODOTTO E LA “NON PRICE COMPETITION”
9.1 INTRODUZIONE
La differenziazione del prodotto è un elemento che tiene tanto le condizioni strutturali del mercato
quanto chiaramente caratterizzano la condotta degli operatori insufficienti.
Il concetto di differenziazione implica che i prodotti (brands) in concorrenza nel mercato abbiano
caratteristiche differenti siano considerati prodotti differenti dagli acquirenti. I venditori
percepiscono perfetta sostituibilità dei propri prodotti rispetto a quelli dei concorrenti, (condizione
strutturale); l’opportunità di indurre e utilizzare elementi di differenziazione della domanda dei
propri prodotti incide in modo sostanziale sulle strategie delle imprese (condizione di condotta).
Sì prodotti sono differenziati e quindi percepiti come non perfetti sostituti da parte degli
acquirenti, ciascun impresa definita una propria curva di domanda residuale (Chamberlain, 1933).
Nel caso di prodotti invece perfettamente omogenei, tutte le imprese concorrenti devono
applicare lo stesso prezzo, se vogliono continuare a vendere il proprio prodotto: il consumatore
non accetterebbe infatti di pagare un prezzo maggiore per un bene identico beni che presentano
un prezzo più conveniente.
Il prezzo del bene è dunque determinato sulla classica curva di domanda inclinata negativamente
dalle quantità totali offerte sul mercato. Le singole imprese possono essere considerate price
taker per cui: p1 = p = a - b(Q) = a - b(q1 + q2).
Tanto più il prodotto di un'impresa 1 è differenziato, tanto più il suo prezzo è indipendente dalla
condotta dell'impresa 2.
9.2 LA DIFFERENZIAZIONE DEI PRODOTTI: MODELLI TEORICI
Un prodotto si differenzia dei prodotti in concorrenza quando presenta una caratteristica di
cattura, parità di altre qualità, la preferenza di tutti i consumatori (differenziazione verticale).
D'altra parte vi sono i casi più frequenti in cui consumatori valutano in modo differente le
caratteristiche qualitative dei prodotti in concorrenza: alcuni scelgono un dato prodotto per una
caratteristica non riscontrabile (o riscontrabile misura minore) nel prodotto concorrente;
quest'ultimo presenta un'altra qualità (non presente o presente il misura minore nel primo) che
incontra le preferenze di altri consumatori (differenziazione orizzontale).
La domanda dei consumatori non è orientata tanto al prodotto quanto alle caratteristiche e agli
attributi dei prodotti concorrenti (ipotesi degli attributi a Arrow-Debreu). Ciascun prodotto è
individuato attraverso la definizione delle caratteristiche che meglio rappresentano la funzione di
utilità dell'acquirente i-esimo per ciascun prodotto k: uik = bij ckj + bi4 ck4 - pk
(dove bij è la valutazione del consumatore i-esimo per la. caratteristica j-esima del prodotto
considerato; ckj è la proporzione della caratteristica j-esima contenuta nel prodotto considerato).
L’ipotesi sottostante a tale modello è che il consumatore razionale scegliere il prodotto che
possiede il mix di caratteristiche che massimizza la sua funzione di utilità.
La presenza di costi fissi di economie di scala nella produzione di ciascuna combinazione fa sì
che ciascun consumatore non troverà il prodotto corrisponde perfettamente alla sua
combinazione ottimale: la sua scelta sarà determinato dei prezzi relativi delle combinazioni offerte.
Ciascun consumatore, nel prendere le proprie decisioni di acquisto, investire nell'acquisizione di
diverse tipologie di informazioni fino al punto in cui i benefici attesi da una scelta più oculata tra i
brand offerti sul mercato eguaglia il costo marginale dell'informazione (Porter, 1976).
Le fonti di informazioni possono essere la pubblicità, i consigli degli amici, l'esperienza diretta dei
prodotti, la raccolta di dati attraverso ricerche personali, le informazioni tecniche fornite da fonti
indipendenti…
Ciascun consumatore a disposizione un set di informazioni incompleto e generalmente diverso da
quello degli altri acquirenti: ne consegue che, anche se le preferenze di tutti i consumatori sulle
caratteristiche rilevanti del prodotto fossero identiche, essi esprimerebbero per ciascun livello di
prezzo dei prodotti in concorrenza una preferenza diversa, in quanto diverso è il set di
informazioni a loro disposizione.
Infine, per alcuni particolari prodotti, i consumatori sostengono un costo specifico (switching cost)
nel passare ad un prodotto concorrente: eventuali variazioni di prezzo che incidono sulla funzione
di preferenza inducono alcuni ma non tutti gli acquirenti ad un cambiamento di prodotto.
La presenza di costi di transazione può divenire un elemento di differenziazione contribuendo
essa determina le condizioni strutturali che definiscono la curva di domanda di un prodotto
differenziato.
- 9.2.1 IL MODELLO DI AKERLOF
L’importanza della qualità dell'informazione nel determinare, in situazioni di incertezza, le scelte
dei consumatori e del funzionamento dei meccanismi di mercato sono stati analizzati per la prima
volta da Akerlof, 1970.
Utilizzando il mercato delle auto usate (market for lemons) egli ipotizza una situazione in cui gli
acquirenti si affidano a valutazioni statistico-probabilistiche per superare l'incertezza delle
informazioni sulle caratteristiche qualitative del prodotto e i venditori avranno quindi un incentivo
ad offrire prodotti di bassa qualità. In tale situazione, il beneficio connesso alla vendita di prodotti
di buona qualità avvantaggia principalmente tutto il gruppo dei venditori, al quale si applicano le
valutazioni statistiche, anziché il singolo venditore: l'effetto sarà una progressiva riduzione della
qualità media dei prodotti offerta e della dimensione stessa del mercato.
Secondo l'esempio possiamo considerare che l'acquirente di un'auto nuova non sa se il prodotto
che ha acquistato sia buono o cattivo: è verosimile quindi che egli all'inizio consideri ogni
possibile auto di qualità media (ovvero associ una probabilità q all'eventualità che l'auto
acquistata sia buona ed una probabilità 1 - q che essa risulti cattiva).
Dopo aver posseduto l’auto per un po' di tempo il proprietario (di divenuto venditore nel mercato
dell'usato) conosce la qualità della propria auto molto meglio del compratore che, a sua volta,
scopre l'effettiva qualità dell'auto usata solo dopo averla acquistata.
Il prezzo a cui il proprietario vorrà vendere la sua auto sarà maggiore di quello che il compratore
sarà disposto a riconoscere che sulla base delle informazioni a sua disposizione: il prezzo
dell'auto buona e di una cattiva è per il compratore identico, e coincide con il prezzo medio.
Il venditore, che non potrà ricevere il valore effettivo della sua auto, uscirà dal mercato: ne
consegue che il numero dei bisogni del mercato aumenterà con il conseguente peggioramento
della qualità percepita dal compratore.
La conseguenza estrema di tale processo è la distribuzione dello stesso mercato nel caso in cui
prevalga la presenza di venditori che, offrendo beni di qualità inferiore, portano fuori del mercato
quelli di qualità superiore.
Akerlof individua diversi istituti idonei a mitigare l'effetto dell'incertezza e ridurre il costo della
disonestà di venditori opportunisti (ad esempio la garanzia).
9.3 ANALISI EMPIRICHE
Per analizzare modelli teorici della differenziazione vanno definiti anche degli strumenti idonei alla
misurazione del grado di differenziazione che caratterizza un gruppo di prodotti in concorrenza.
Il concetto di non perfetta sostituibilità dei prodotti in concorrenza introduce dal punto di vista
teorico la misura più appropriata del grado di differenziazione.
La valutazione empirica dell'elasticità incrociata o di sostituzione dei prodotti considerati pone
non pochi problemi nella ricerca di dati sul loro prezzi relativi e nella definizione delle funzioni di
domanda dei consumatori. L'approccio teorico basato sulle caratteristiche del prodotto introduce
semplificazioni e soluzioni percorribili: questo approccio consiste nel definire un prodotto
attraverso le sue caratteristiche più rilevanti.
Il problema più importante nell'impostare analisi empirica sugli effetti della differenziazione resta
quello di stimare la valutazione del consumatore e il peso che ciascuna delle caratteristiche che
identificano il prodotto hanno nel definire il mix ottimale (e soprattutto necessario individuare gli
strumenti econometrici che consentono di arrivare dette stime dei dati disponibili su ciascun
prodotto tipologia di prodotto).
Caves e Williamson (1985) propongono un approccio basato sull'analisi fattoriale (factor analysis):
considerate le variabili osservabili di un particolare prodotto o categoria di prodotti e di prodotti o
categorie di prodotti sostituti si utilizza la correlazione rilevabile tra le stesse come stima dei fattori
non osservabili (le variabili bij) e della loro rilevanza ckj nel differenziare il prodotto (factor loading).
9.4 EFFETTI DELLA SPESA PUBBLICITARIA
L'approccio teorico basato sulla teoria dell'informazione e dei costi di transizione individua nella
spesa pubblicitaria un potenziale fattore di differenziazione dei prodotti: essa contribuisce a
definire il sette di informazioni a disposizione degli acquirenti le loro preferenze e in più
rappresenta una fonte di informazione relativamente economica.
Il contenuto informativo della pubblicità dipende dal fatto che i consumatori possano o meno
determinare la qualità del prodotto prima di acquistarlo (Nelson, 1970).
Si definiscono prodotti con qualità individuabili quelli che possono essere valutati prima
dell'acquisto (auto, computer…); in tal caso la pubblicità mira ad informare il consumatore sulle
qualità del prodotto (pubblicità informativa).
Si parla invece di prodotti con qualità da sperimentare quando questi devono essere prima
acquistati e poi provati (cibo, servizi…); in tal caso la pubblicità all'obiettivo di informare il
consumatore sull'esistenza del prodotto e sulla sua reputazione e di rafforzare o spostare la sua
preferenza verso il prodotto (pubblicità persuasiva).
Sulla base di questa distinzione Nelson suggerisce che l'intensità di pubblicità sarà maggiore per i
beni con qualità da sperimentare, sottolineando la funzione più persuasiva che informativa della
stessa.è evidente che l'acquirente cercherà riscontro delle qualità evidenziate nella pubblicità che
anche una pubblicità persuasiva tenere conto dell'effettiva abilità del consumatore di giudicare la
qualità del prodotto dopo l’acquisto.
In più, per entrambe le tipologie dei beni, è fondamentale la considerazione che l'intensità di
pubblicità e la sua persistenza nel tempo può essere di per sé stessa segnale di qualità ed avere
una valenza informativa (signaling advertising) dal momento che, un prodotto di qualità, mantiene
alti livelli di vendite nel lungo periodo che giustifica un alto livello di spese in pubblicità.
Porter (1974) fa riferimento agli abitudini di acquisto dei consumatori distinguendo tra beni di
convenienza e beni di spesa: i primi sono caratterizzati da un basso prezzo di acquisto e da
un'elevata frequenza di acquisto (detersivi, calzini…) e il consumatore spende meno tempo nel
loro acquisto, e quindi sono più suscettibili all'effetto della pubblicità; i secondi hanno un prezzo
unitario maggiore, sono acquistati meno frequentemente e il consumatore li acquista dopo aver
valutato le offerte diversi punti vendita e può essere influenzato dall'assistenza commerciale più
che dalla pubblicità.
Altre ipotesi sulla relazione tra intensità della spesa pubblicitaria natura del prodotto:
• i beni caratterizzati da un elevato grado di innovazione possono essere soggetti ad un più
elevato livello di pubblicità in quanto l'interesse delle imprese produttrici e quello di informare
costantemente i consumatori sui miglioramenti portati ai prodotti ( auto, computer, telefoni…);
• i beni ad alto contenuto di moda richiedono massicci investimenti in pubblicità al fine di creare
e mantenere un'immagine (profumi, vestiti, design…);
• Prodotti caratterizzati da un elevato turn-over degli acquisti avranno un basso investimento in
pubblicità, poiché il venditore è meno incentivato a sensibilizzare verso il prodotto acquirenti
che lasceranno presto il mercato;
- 9.4.1 LA LEGGE DI OTTIMIZZAZIONE DEL MARKETING MIX
Nel modello Dorfman-Steiner le variabili strategiche che definiscono la politica di marketing di
un’impresa sono prezzo, qualità e pubblicità; un’impresa monopolistica utilizza queste variabili e,
in particolare, sceglie il livello ottimale di pubblicità con l’obiettivo di massimizzare i profitti.
Ipotizziamo una funzione inversa di domanda: Q = f(p, s, z)
(dove la quantità Q è definita dalle variabili prezzo p, pubblicità se qualità z; la pubblicità viene
eseguita attraverso un unico canale di informazione di acquistata ad un prezzo costante unitario
per messaggio pubblicitario pari a T*i e il fattore qualità viene considerato costante).
Il profitto dell’impresa sarà dato da π = pQ (p, s, z) - C[Q(p, s, z)] - sT
Il risultato del modello e che, in un'impresa monopolistica, il livello ottimale della spesa
pubblicitaria, dato dal rapporto tra spese pubblicitarie fatturato, risulta essere uguale al rapporto
tra l'elasticità della domanda la spesa unitaria ed elasticità della domanda al prezzo. L'intensità di
pubblicità è maggiore quanto maggiore è l'elasticità della domanda pubblicità e quanto minore è
l'elasticità della domanda al prezzo (o maggiore il margine prezzo-costo).
La funzione di domanda della singola impresa è definita dalla seguente equazione Q = f (s, smedia)
dove s indica il totale dei messaggi pubblicitari acquistati dalle imprese rivali.
Un’aumento della pubblicità da parte dei rivali riduce la domanda dell’impresa, ovvero:
9.5 GLI EFFETTI DELLE POLITICHE DI QUALITA’ E DELL’INNOVAZIONE DI PRODOTTO
Altri importanti fattori che contribuiscono alla differenziazione del prodotto sono legati
all'innovazione e al progresso tecnologico. L'innovazione può essere individuata (come è definita
nell'Oslo Manuel) nell'implementazione di un prodotto (bene o servizio), processo, metodo di
marketing o metodo organizzativo, nuovo o significativamente migliorato; requisito minimo
affinché si possa parlare di innovazione è che il prodotto, processo, metodo siano nuovi o
significativamente migliorati, con riguardo all'impresa in questione: affinché si possa parlare di
innovazione non è necessario che venga sviluppato all'interno dell'impresa.
Le innovazioni possono essere divise in quattro categorie fondamentali:
1. innovazione di prodotto;
2. innovazione di processo;
3. innovazione organizzativa;
4. innovazione di marketing;
1. Si parla di innovazione di prodotto quando vengono introdotti nuovi beni o servizi o sviluppate
nuove modalità di utilizzo di questi, o apportati significativi miglioramenti alle caratteristiche
funzionali, di utilizzo o fruizione di quelli preesistenti, in modo da migliorarne le performance
alla qualità. Il design gioca un ruolo rilevante nell'introduzione di innovazioni di prodotto: si
traducono in innovazione di prodotto solo quei cambiamenti di design che comportano un
mutamento significativo nelle caratteristiche funzionali e di utilizzo di un certo prodotto,
mentre negli altri casi si può parlare di innovazione di marketing.
2. Per innovazione di processo si intende l'introduzione di nuovi o significativamente migliorati
metodi di produzione o distribuzione, compresi i vari aspetti logistici dell'impresa, che vanno
dall'acquisizione delle materie prime, alla ripartizione degli input, fino alla distribuzione del
prodotto finito.generalmente vi ci si associa una riduzione dei costi medi unitari di produzione
o distribuzione o un aumento qualitativo dell'output finale.
3. L'innovazione organizzativa consiste nell'introduzione di un nuovo o significativamente
migliorato metodo per l'organizzazione delle pratiche, routine e procedure che caratterizzano
lo svolgimento delle attività nell'impresa, o può riguardare l'organizzazione interna dell'impresa
con riferimento alle modalità di suddivisione del lavoro, ripartizione delle responsabilità e del
potere decisionale o anche le modalità di gestione delle relazioni esterne dell'impresa con altri
agenti economici o istituzioni pubbliche. Generalmente essi sono finalizzati all'aumento delle
performance dell'impresa, attraverso la riduzione dei costi amministrativi di transizione,
l'aumento della soddisfazione sull'ambiente di lavoro e quindi anche della produttività o una
più efficiente gestione delle risorse delle informazioni.
4. L'innovazione di marketing è finalizzata all'implementazione l'uomo solo di marketing, ovvero
nuove strategie, concetti e strumenti che non siano stati precedentemente utilizzati
dall’impresa. L'obiettivo finale è l'aumento delle vendite, aumentando l'attrattività del
prodotto, estendendo il suo target, aprendo nuovi mercati, modificando le modalità di
collocamento del prodotto sul mercato. Esempi possono essere il cambiamento del
packaging o le modalità di promozione.
Tali definizioni fanno riferimento a innovazioni che presentino un significativo grado di novità per
l’impresa, e, mentre vengono esclusi i cambiamenti minori non significativi, sono positivamente
valutati anche le innovazioni che sono state implementate da altre imprese e mercati e
successivamente adottati dall’impresa.
Il processo di diffusione è di fondamentale importanza poiché, se è vero che le imprese che per
prime implementano l'innovazione possono essere considerate i driver del processo innovativo, è
anche vero che l’impatto economico delle innovazioni dipendere la loro diffusione.
Accanto al concetto di nuovo per l'impresa occorre tenere in considerazione anche quello di
nuovo per il mercato e di nuovo per il mondo.
Importante è tenere a mente la contrapposizione tra innovazione radicale e innovazione
incrementale: tali definizioni si rifiniscono a due dimensioni fondamentali, una interma, legata alle
competenze risorse richieste dal processo innovativo, l'altra esterna, relativa al cambiamento
tecnologico e all'impatto sulla struttura di mercato e la competitività dell’imprese.
• Relativamente alla dimensione interna si segnala che, mentre le innovazioni incrementali
poggiano su un preesistente sistema di risorse conoscenze e pertanto possono essere definite
competence-enhancing, le innovazioni radicali richiedono dati di configurazione strutturale il
bagaglio di risorse e conoscenze interne possedute dall'impresa, per cui possono essere
definite competence-destroying;
• Per quanto riguarda la dimensione esterna, la distinzione tra le due innovazioni si basa sulla
considerazione che un'innovazione incrementali si caratterizza per un modesto avanzamento
tecnologico e pertanto non rende obsoleti e non competitivi i prodotti esistenti sul mercato,
mentre un'innovazione radicale presenta un notevole cambiamento tecnologico e da un
significativo impatto sul mercato, rendendo obsoleti i prodotti preesistenti. In generale
un'innovazione incrementali avvantaggia le imprese presistenti ma lo rende particolarmente
vulnerabile nei confronti dell'innovazione radicale;
Ad oggi però, con l'avvento delle ICT, l'impatto economico delle due tipologie di innovazione è
risultato molto diverso da come appena descritto, per cui è stata aperta la strada ad una
classificazione più completa del fenomeno.
Henderson e Clark (1990) considerando in completa e potenzialmente fuorviante la tradizionale
contrapposizione, propongono una classificazione delle varie tipologie di innovazione sulla base
dell'impatto di quest'ultima sulle competenze coinvolte nella realizzazione di un certo prodotto,
con l'intento di spiegare come mai la competitività di imprese già operanti sul mercato possa
essere messo a dura prova anche da innovazioni non radicali.
In particolare vengono individuati due tipi fondamentali di competenze richieste per sviluppare
nuovi prodotti ed introdurre delle innovazioni (le conoscenze di base dei componenti e quelle alla
base dei legami tra i componenti, definite conoscenze architetturali).
Sulla base di questi due elementi è possibile individuare quattro tipologie fondamentali di
novazione:
• le innovazioni incrementali sono quelle che hanno uno scarso impatto sia sulle conoscenze dei
componenti di un prodotto sia su quelle architetturali;
• le innovazioni modulari sono quelle che comportano dei cambiamenti significativi delle
conoscenze alla base dei componenti mantenendo sostanzialmente inalterate le conoscenze
architetturali;
• le innovazioni architetturali esercitano il loro impatto sulle conoscenze relative ai legami dei
componenti ma non coinvolgono le conoscenze alla base dei componenti;
• le innovazioni radicali sono quelle che poggiano su un nuovo set di conoscenze, sia alla base
dei componenti di architettura;
Abernathy e Clark (1985) propongono una classificazione che si basa sull'impatto dell'innovazione
su due tipologie di competenze, quelle tecniche e quelle commerciali, ritenute fondamentali per il
successo di un’innovazione. Le competenze tecniche sono indispensabili per lo sviluppo e
l'implementazione di una certa innovazione, mentre si rendono necessarie anche le competenze
commerciali, affinché si possa proporre al meglio la novità sul mercato e beneficiare
economicamente dalle innovazioni introdotte. A dirla tutta sono proprio le elevate competenze
commerciali che potrebbero spiegare il mantenimento della leadership da parte di imprese già
operanti sul mercato anche a seguito dell'introduzione, nello stesso mercato, di un'innovazione
radicale.
Sulla base di tali considerazioni vengono distinte quattro tipologie di innovazioni:
• innovazioni creatrici di nicchia, che preserva no le conoscenze tecnologiche e rendono
obsolete quelle di mercato;
• innovazioni rivoluzionarie, che rendono obsolete le conoscenze tecniche preservano quelle di
mercato;
• innovazioni regolari che preservato sia le conoscenze tecniche e di quelle di mercato;
• innovazioni architetturali che rendono più solide entrambe le tipologie di competenze;
Christensen (2004) introduce il concetto di disruptive technologies, ovvero quelle innovazioni,
contrapposte alle sustaining technologies, che risultano essere la causa principale della perdita
della leadership di alcune imprese operanti sul mercato. Tale criterio di classificazione non si basa
più sulla complessità tecnologica né sulle competenze, bensì fa riferimento alla domanda dei
consumarori: questo tipo di tecnologie presentano dei livelli di performance inferiori rispetto alle
funzionalità richieste dai consumatori tradizionali, ma superiori con riferimento a dimensioni
secondarie valutate da nicchie di consumatori correnti o futuri potenziali.
Inoltre i prodotti che incorporano le nuove tecnologie disruptive generalmente costano di meno. Si
possono individuare tecnologie disruptive “low end” cioè indirizzate ai segmenti bassi del
mercato, e “new market”, cioè finalizzate all’apertura di un nuovo mercato.
A causa del fatto che queste tecnologie non sono volte a soddisfare l'esigenza della quota
maggioritaria dei consumatori correnti, vengono vengono spesso sottovalutate dalle incumbents,
che generalmente preferiscono investire in tecnologie sustaining, volta cioè migliorare i prodotti
presi stenti e a soddisfare l'esigenza dei consumatori tradizionali.
È opportuno considerare che l'innovazione si sostanza in un processo economico che, per quanto
desiderabile, presenta alcuni criticità:
• in primo luogo richiede una fase iniziale in cui i principi scientifici o le idee di prodotto vengono
sviluppati nuovi processi o in applicazioni (prototipi), una fase chiamata di invenzione, che
richiede investimenti in attività di ricerca rischioso in quanto sono incerti gli esiti della stessa;
• la successiva fai dell'innovazione richiede un ulteriore attività di sviluppo, che unità di iniziative
di marketing, possono decretare il successo del lancio commerciale di un prodotto. Se
l'innovazione è significativa e ha successo, si diffonde con effetti positivi sul benessere dei
consumatori e sulla crescita del sistema economico;
• nella terza fase della diffusione sono soprattutto le imprese in concorrenza con l'innovatore a
giocare un ruolo fondamentale, dal momento che una volta che il bene pubblico e disponibile,
può essere riprodotto è un costo molto basso e non è facile impedire all'imprese concorrenti di
beneficiarne (in appropriabilità e indivisibilità);
9.6 STRUTTURA DI MERCATO E INNOVAZIONI DI PRODOTTO
Il problema cruciale nello studio dei processi d’innovazione è quello di valutare l'influenza di
strutture di mercato monopolistico concorrenziali anno sull'attività di innovazione: l'obiettivo è
quello di definire quale contesto competitivo offra gli incentivi maggiori all'attività di innovazione.
L'analisi classica sulla teoria dell'innovazione (Arrow, 62) individua nella concorrenza la forma di
mercato in cui gli incentivi all'innovazione sono più forti. L'intuizione del modello proposto da
Arrow è che se l'impresa opera inizialmente in un contesto competitivo avrà un incentivo
maggiore di introdurre innovazioni di processo che consente variazioni dei costi rispetto ad
un'impresa monopolistica, dal momento che l'impresa in concorrenza beneficerà del profitto
derivante dalla riduzione dei costi su una quantità di prodotto maggiore che nel caso di
un'impresa monopolistica.
Nella figura è riportato il caso di un'innovazione che determinava un'azione moderata dei costi da
c a c’. Nell'ipotesi di concorrenza, l'inventore (esterno all'impresa in concorrenza) fisserà,
remunerazione dell'utilizzo dell'invenzione, una royalty al massimo pari a cc’: la royalty totale
(ovvero l'incentivo ad innovare) è uguale all'area cabc’. Il monopolista, dopo aver introdotto
l’invenzione, otterrà un profitto uguale all'area puvc’. L’incentivo ad innovare in monopolio, pari
agli extra profitti dovuti all'invenzione, è minore che in concorrenza in quanto l'aria wxyc è
maggiore dell'area putc, e l’area cabc’ è maggiore dell'area ctvc’.
L’incentivo aggiuntivo offerto da un contesto concorrenziale rispetto al monopolio è pari all'area
tvba + (wxyc - putc) ed aumenta al diminuire delle riduzioni di costo indotte dall’innovazione.
Demsets (1969) critica le conclusioni di Arrow argomentando che le stesse dipendono dalle
ipotesi poste nell'esame della fattispecie analizzate. E’ ovvio che le differenze tra concorrenza e il
monopolio scompaiono nel momento in cui si assumono imprese di uguali dimensioni, ovvero
nell'ipotesi che l'impresa in concorrenza produca lo stesso tutti quelli in monopolio.
La contrapposizione tra concorrenza e monopolio, sintetizzata nelle argomentazioni di Arrow e
Demsetz, è ricomposta nella visione shumpeteriana della distruzione creativa (Shumpeter, 1950).
Nelle sue tesi prevale indubbiamente l’argomentazione che la grande dimensione offre di per sé
incentivi maggiori all'innovazione tecnologica: le grandi imprese hanno risorse maggiori a
destinare l'attività di ricerca (Galbraith, 1963). La sua analisi tuttavia non conduce il classico trade
off monopolio/concorrenza perfetta, ma implica piuttosto una visione dinamica che lascia spazio
nel breve periodo a forme di potere monopolistico: l'effetto benefico della concorrenza deriva non
dalla concorrenza di imprese esistenti ma, piuttosto, dalla concorrenza potenziale che noi prodotti
e nuovi processi possono portare al mercato distruggendo la posizione acquisita dal monopolista.
9.7 LA DIFFERENZIAZIONE E IL POTERE DI MERCATO
Nell'esaminare i diversi fattori che possono determinare la differenziazione dei prodotti sono state
evidenziate le implicazioni in termini di potere di mercato e concorrenza. Detta relazione è
esemplificata attraverso la formalizzazione di un modello di differenziazione orizzontale in cui
prodotti, pur essendo perfetti sostituti dal punto di vista qualitativo, si differenziano per l'elemento
spaziale e la localizzazione geografica dell'offerta rispetto al luogo di domande e consumo
(locational-spatial model).
Si consideri una lunga spiaggia, due venditori di gelato localizzati ai due estremi potenziali
consumatori uniformemente distribuiti lungo la spiaggia e si può tizia che questi due offrono un
prodotto perfettamente omogeneo allo stesso prezzo.anche in presenza di queste condizioni, ma
sono ben pochi i consumatori indifferenti a comprare dall'uno dall'altro poiché ciascun
consumatore preferirà il venditore più vicino, in quanto il costo di spostamento sarà minore.
La situazione rappresentata in questo esempio può essere generalizzata a tutte le situazioni in cui
i venditori e compratori sono fisicamente separati è un costo di trasporto deve essere pagato
dall’acquirente per comprare da uno specifico venditore.
Il modello di Hotelling (1929) offre una soluzione al problema sopra definito: I due venditori
devono in primo luogo scegliere la localizzazione migliore data la distribuzione dei potenziali
clienti e nell'ipotesi in cui il prezzo sia fissato esogena mente.i venditori cercheranno di
posizionarsi l'uno alla destra dell'altro al fine di sottrarre al concorrente un numero maggiore di
consumatori: questo gioco raggiunge un punto di equilibrio quando entrambi si collocano
esattamente nel punto centrale della spiaggia. Il problema decisionale dei due venditori può
essere formulato come la scelta della politica di prezzo ipotizzando che la localizzazione sia
esattamente fissata.
Il posizionamento, che sia spaziale o qualitativo, del proprio prodotto rispetto ai prodotti rivali ha
una valenza strategica fondamentale nel mitigare gli effetti di un'intensa competizione basata sui
prezzi.
10. LA DIVERSIFICAZIONE
10.1 DEFINIZIONI E MISURE
Con il termine diversificazione si intende il processo per cui un'impresa caratterizzata da un
particolare tipo di attività produttiva avvia attività economiche diverse da quelle tradizionali, pur
mantenendo la propria presenza nell'ambito originale. Il punto di arrivo di tale processo è
un'impresa diversificata, e, se ciò comprende numerose attività, il termine con il quale viene
definita l'impresa con tali caratteristiche è impresa conglomerata o conglomerare.
Lo strumento di tale processo può essere costituito dal puro e semplice sviluppo di nuove attività,
dalle acquisizioni di altre imprese (aquisitions) o dalle fusioni (mergers).
Il processo può essere orizzontale, se riguarda mercati contigui al mercato originario dell'impresa,
verticale, se avviene in settori che si trovano a valle o a monte del settore originario, oppure
propriamente conglomerare, se riguarda attività non connesse tra di loro. L'applicazione del
concetto di diversificazione dipende in larga misura da come viene definita la diversità.
La misurazione della diversificazione si fonda sui concetti di:
• attività prevalente, il ramo del processo di creazione di valore dell'impresa che risulta prevalente
per importanza delle sue attività. La formula più semplice consiste nell'assumere come criterio
l'entità del fatturato;
grado
di diversificazione, che può essere misurato secondo due tipologie. La prima, utilizzata
•
dal Census of Manufactures degli Stati Uniti, rapporta le attività secondarie all'attività capitale.
Il secondo,preferibile, è l'indice HH, costituito dalla somma di valori elevati al quadrato delle
attività dell'impresa stessa (espressa come frazione dell'unità) in luogo delle quote di mercato
delle varie imprese. Tale indice assume il valore di 1 quando l'impresa non è diversificata, di 1/n
in caso in cui le attività siano tutte della stessa dimensione;
10.2 FATTORI CHE DETERMINANO LA DIVERSIFICAZIONE
Cause che possono spiegare i processi di diversificazione sono teoricamente distinguibili in
quattro principali categorie:
• vantaggi nei costi di produzione;
• vantaggi nei prezzi di vendita;
• strategie di sviluppo dell'impresa;
• aspetti finanziari;
10.3 EFFETTI SUI COSTI DI PRODUZIONE
Una giustificazione più frequentemente proposta per le operazioni di fusione e di diversificazione
è basata sui risparmi di costi che si possono ottenere per mezzo della ripartizione dei costi
indivisibili una più ampia gamma di prodotti.la diversificazione motivata dalla presenza di fattori
indivisibili (come la pubblicità, la ricerca…) Non va confusa con il fenomeno delle economie di
scala, cioè della diminuzione di costi unitari di produzione all'aumentare il volume del prodotto.
Ad esempio nel settore alimentare, dove sono presenti forti elementi di stagionalità della
domanda, un'impresa diversificata, ripartendo una buona parte di costi fissi del personale su
diverse linea di produzione con differenti profili di stagionalità, può risultare più competitiva
dell'imprese monoprodotto, le quali sosterranno costi per una capacità produttiva che nell'anno e
solo parzialmente utilizzata.
10.4 EFFETTI SUI PREZZI DI VENDITA
La questione dell'effettiva possibilità di ottenere o meno vantaggi nei prezzi di vendita mediante la
diversificazione è un argomento simmetrico alle osservazioni svolte nel caso della differenziazione
dei prodotti, e consiste nel fatto che mediante la diversificazione o la differenziazione sia possibile
segmentare la domanda del mercato e quindi sfruttare le differenti elasticità dei segmenti della
curva di domanda con prezzi differenziati.
Per altro verso i vantaggi che deriverebbero dalla diversificazione dei prodotti dipendono dall'uso
di due tecniche di vendita, che vanno sotto il nome di:
• tying sales ( o full line forcing), si hanno quando un venditore, verosimilmente monopolista di un
particolare prodotto, condiziona la vendita di quel prodotto all'acquisto contemporaneo di un
altro prodotto. Tale pratica è vietata dalla legislazione antitrust ,secondo il trattato di Nizza art.
81, anche se si possono avanzare dubbi sul fatto che un'impresa dominante possa
effettivamente incrementare il proprio profitto con tale tecnica (ovvero che tali pratiche
determinino semplicemente il trasferimento dei profitti all'interno del gruppo diversificato);
• bundling sales, che consiste nell'offrire un certo numero di prodotti diversi all'unico prezzo.
Questa tecnica mi dà piuttosto trasferire una parte della rendita che si formerebbe per i
consumatori;
La diversificazione sotto il profilo delle condotte di prezzo può consentire i sussidi intergruppo
(deep pocket), ovvero l'estensione di una posizione dominante da un settore ad un altro.
Un'impresa che si trova in una posizione dominante nel settore A può, costituendo un'impresa nel
settore B dove non ha particolari vantaggi competitivi, sovvenzionare la nuova impresa
mettendolo in condizione di praticare prezzi predatori, con cui costringere i concorrenti all'uscita
del settore, e quindi estendere la posizione dominante da settore a settore B.
10.5 STRATEGIE DI SVILUPPO DELL’IMPRESA
Uno dei più tipici motivi che spingono le imprese ad avviare processi di diversificazione si verifica
quando la generazione di risorse prodotte dall'attività tradizionale sopra le esigenze dell'impresa
stessa per mantenere la propria competitività nel settore di origine.
Assumendo che la domanda del mercato attraversi dei cicli del genere di quelli descritti dalla
domanda marrisiana e che quindi si susseguono le fasi di introduzione, crescita, maturità e
declino, e che la quota di mercato sia indice di potere di mercato e quindi profittabilità, si può
costruire una matrice che viene definita BCG (Boston Consulting Group, la società di consulenza
che per prima ne ho te lo schema) in cui all'asse delle ascisse corrispondono le quote di mercato
detenute da una specifica impresa per un dato prodotto, mentre alle ordinate corrisponde il tasso
di crescita delle vendite di quel prodotto. La matrice può essere scomposta in quattro quadranti
che danno differenti combinazioni delle variabili potere di mercato crescita.
Sono definiti cash cows I prodotti che hanno una buona profittabilità e bassi tassi di crescita. La
generazione di risorse (cash flow) di questi prodotti dovrebbe superare le esigenze di crescita e
quindi liberare dalle disponibilità per il management. I prodotti stars sono quelli a maggiore
redditività e crescita mentre i prodotti question marks quelli su cui puntare per lo sviluppo, e i
dogs quelli che dovrebbero essere eliminati.
Potrei dire le imprese che porta la diversificazione consiste dunque in un continuo processo di
selezione tra il mix di prodotti esistenti allo sviluppo di nuovi prodotti.
10.6 PROFILI FINANZIARI
Sotto il profilo finanziario la diversificazione di un'impresa o di un gruppo solleva rilevanti
questioni che riguardano:
• Il valore del capitale economico (capitalizzazione) espresso dalle quotazioni delle azioni del
medio lungo periodo;
• il costo del capitale di rischio (ke), ovvero il rendimento richiesto dal mercato per le azioni di una
particolare impresa;
• la crescita, stabilità del gruppo e l'adeguatezza del risorse finanziarie;
Il primo e il secondo aspetto possono essere considerati simultaneamente, perché il valore delle
azioni è dato semplicemente dal rapporto tra il risultato atteso e il saggio di rendimento richiesto
dal mercato che, fatto salvo il fattore fiscale, coincide con il costo del capitale proprio per
un’impresa. Con risultato atteso si intende l'insieme dei risultati che verosimilmente possono
determinarsi, secondo dei quali è una data probabilità la cui somma è uguale ad uno ciascuna
distribuzione probabilistica è caratterizzato da due tipi di parametri: il primo è costituito dalla
media che, dato il tipo di distribuzione, e anche il risultato più probabile; la seconda è costituita
dalla deviazione standard che misura la dispersione dei risultati possibili e torna risultato medio.
La teoria finanziaria assume che il mercato sia in prevalenza costituito da operatori avversi al
rischio, ossia che, a parità di rendimento atteso, e si assegnano all'attività più rischiosa un valore
inferiore e di conseguenza il costo del capitale per le imprese caratterizzate da un più elevato
valore di σ risulterà più alto.
Un obiettivo del processo di diversificazione può consistere nel compensare il fattore di rischio
dell'industria con quello di un'altra industria, così da ottenere una covarianza inferiore alla
varianza delle singole attività industriali. In questo caso, risultando diminuito il rischio complessivo
di un'impresa, dovrebbe simmetricamente diminuire il costo del capitale ed aumentare il valore
delle azioni e dunque dell'impresa nel suo complesso. In realtà i mercati azionari dimostrano di
non apprezzare quasi mai il fatto che un'impresa ne sostituisca le funzioni per la diversificazione
del rischio.è proprio questa la ragione per cui il valore del mercato dell'impresa conglomerata è
generalmente inferiore al valore delle singole attività che ne sono ricomprese.
La diversificazione può concorrere all'obiettivo della stabilità dell'impresa, attraverso il fenomeno
della covarianza, ma ciò normalmente avviene ad un costo che è rappresentato dal maggior
rendimento richiesto del mercato sfruttando questa circostanza vi fu, nel corso degli anni 80, un
avere propria corsa alle scalate (take overs) delle imprese conglomerali, le cui attività venivano poi
vendute separatamente (spin off) lucrando la differenza di valore.
11. L’INTEGRAZIONE VERTICALE
13.1 DEFINIZIONI E MISURE
L'integrazione verticale può essere definita secondo due diverse prospettive:
• secondo la prospettiva SCP, il termine interazione verticale uno degli elementi della struttura
industriale e indica la misura in cui una singola impresa realizza al suo interno fasi successive
diluizioni di distribuzione di un prodotto;
• secondo la prospettiva strategica, comune a diverse teorie dell'impresa, il termine si riferisce
alla strategia di un'impresa che decide di muoversi verso un'altra fase del processo produttivo
distributivo, sia attraverso una fusione o acquisizione verticale che avviando nuovi attività di
produzione distribuzione. Quando le fasi internalizzate (ossia svolte all'interno o direttamente
dell'impresa) riguardano la produzione o la prima trasformazione delle materie prime e degli
input, si realizza una integrazione a monte o ascendente; quando invece lo stesso processo
riguarda fasi della produzione fino alla distribuzione, servizio integrazione a valle o discendente.
Tutti i processi produttivi possono essere scomposto il numero finito di fasi distinte ed elementari.
L'integrazione verticale può anche essere considerato un caso specifico di respirazione che
avviene nell'ambito di un unico processo produttivo. Essa è invece contrapposta alla
specializzazione: un'impresa è specializzata si svolge una singola fase del processo produttivo.
L'integrazione verticale ha dunque una dimensione quantitativa e può riguardare tutte qualcuno e
fasi di filiera produttiva, che include l'insieme delle fasi che vanno dalla produzione lavorazione
della materia prima alla commercializzazione del prodotto, configurando casi di completo di
parziale integrazione che possono essere misurati da opportuni indici.
A tal proposito Adelman (1958) ha suggerito il rapporto tra la sommatoria del valore aggiunto (VA)
e la sommatoria delle vendite (S), che formalmente è:
Quanto più un’impresa è integrata, tanto più alto è il valore dell’indice che, nel caso limite di
completa integrazione, assume valore 1. Al contrario l'indice assume valori tanto più piccoli
quanto meno sono integrate le attività e più numerose divengono le transazioni tra le imprese.
Un'altra famiglia di indici è quella che utilizza le tavole input-output, dalle quali si può desumere
quanto un settore dipende dal mercato, ossia da altri settori produttivi input di beni servizi
intermedi attraverso degli indici che misurano l'incidenza di settori (o branche) di origine sui settori
di destinazione. I limiti di questa misura discendono dal grado di applicazione geografica e
settoriale delle matrici intersettoriali. Inoltre, se gli indici sono espressi in termini monetari, i prezzi
di trasferimento tra i vari stadi possono divergere dei prezzi di mercato generando alcune
inesattezze.
11.2 CAUSE. E OBIETTIVI DEI PROCESSI DI VERTICALIZZAZIONE
Diverse teorie dell'impresa configurano diverse teorie dell'integrazione verticale: in una
prospettiva statica che non considera il cambiamento economico, tecnologico e istituzionale, si
individuano almeno tre determinanti principali dell'integrazione verticale:
• vincoli o economie tecnologiche;
• economie di transazione;
• imperfezioni di mercato.
In una prospettiva dinamica, si distinguono due filoni :
• Il primo, da ricollegare agli intenti strategici dell'impresa, considera le scelte dell'impresa in
materia di integrazione verticale come una modalità per acquisire potere di mercato, dati certi
incentivi di natura economica;
• un secondo, di natura evolutiva, pone l'accento più che sulle strategie, sugli aspetti dinamici
dell'integrazione verticale e sulle competenze varietà di comportamenti delle imprese;
- 11.2.1 FATTORI TECNOLOGICI
Con riguardo alla prima spiegazione dell'integrazione verticale, alcuni processi produttivi sono
caratterizzati da forti interdipendenze tecnologiche. Questi processi sono interdipendenti, nel
senso che i costi di trattamento e di fusione sono le lotti se tali processi sono condotti in continua
integrazione permette di evitare la ripetizione di un'operazione consente il risparmio su una serie
di materiali ausiliari. Oltre al caso dell'interdipendenza dei processi riduttivi, rientra nell'alveo delle
spiegazioni tecnologiche anche quelle che interpretano l'integrazione verticale come un tentativo
di sfruttamento economico delle tecnologie derivate nei settori a valle.
Il patrimonio tecnologico dell'impresa si presta ad essere applicato a campi diversi da quelli in cui
si è originariamente sviluppato, per cui l'impresa ha interesse a sfruttare tale patrimonio
soprattutto nei settori contigui a monte o a valle della sua attività principale che meglio conosce.
Le complementarietà tecnologiche possono avere natura statica o dinamica: nel caso di settori
caratterizzati da conoscenza stabile, con tasso di innovazione contenuto e apprendimento lento,
le conoscenze sono spesso codificate in brevetti proprietari che possono essere utilmente
sfruttate nelle fasi di distribuzione di produzione, mentre nel caso di settori caratterizzati da forte
dinamismo tecnologico, la rapidità dei cambiamenti nella natura tacita delle conoscenze che si
trovano incorporati nelle routine organizzative dell'impresa e delle sue maestranze prende non
disponibili e difficili da coordinare sul mercato le diverse conoscenze richieste, spingendo quindi
all’integrazione verticale.
- 11.2.2 ECONOMIE DI TRANSAZIONE
Importante notare l'aspetto dell'organizzazione imprenditoriale che occupa un posto preminente
nella teoria dei costi di transazione: la teoria di Cose e Williamson.
Il primo operò una distinzione tra il coordinamento del mercato e il coordinamento imprenditoriale
dell'attività economica (1937): entrambe le forme di coordinamento delle transazioni che
avvengono nel mercato e nell’imoresa si associano a costi, nel primo caso di transazione o di uso
del mercato, nel secondo caso di organizzazione.
I costi di transazione sono quelli sostenuti per acquisire e trattare le informazioni sulla qualità degli
input, sui prezzi, sulla ricusazione del fornitore, per la negoziazione mentre i costi organizzativi
sono generati da rendimenti decrescenti della funzione organizzativa e dalla crescente probabilità
di errori nella gestione del momento in cui vengono intraprese più attività, quindi al crescere della
dimensione.
La struttura organizzativa “impresa” nasce per economizzare sui costi di transazione quando:
• l'utilizzo del meccanismo dei prezzi risulta troppo ingiusto e diventa conveniente internalizzare
le transazioni che in precedenza erano svolte sul mercato (caso di fallimento di mercato);
• il ricorso ad una molteplicità di contratti completi comporta costi di negoziazione più elevati di
quelli connessi ad un unico contratto in completo (ad esempio contratto collettivo di lavoro);
In base alla sua formulazione, l'impresa intraprenderà direttamente delle nuove attività fino al
punto in cui i costi di coordinamento interno dell'ultima attività da internalizzare uguaglino i costi
del coordinamento del mercato. Il mercato evidenzierà un grado di equilibrio dell'integrazione
verticale (in condizioni concorrenziali) che tra lui con la più efficiente organizzazione della
produzione della distribuzione.
Il suo approccio è stato ripreso e sviluppato da Williamson (1975 e 1885) che considerò in
dettaglio i fattori che influenzano i costi di transazione e spiegano l'interazione verticale.
Egli ipotizza che gli attori economici agiscono in condizioni di razionalità limitata (in base alla
formulazione di Simon, è la limitata capacità umana di prevedere il risolvere problemi complessi) e
opportunisticamente, ossia traendo profitto dalle opportunità vantaggiose che si presentano.
Queste ipotesi comportamentali vengono combinate nel suo schema con le dimensioni di
incertezza, di frequenza delle relazioni e di relazioni di scambio tra un numero limitato di soggetti,
per determinare in quali casi è conveniente sostituire il coordinamento del mercato con
l'organizzazione interna all'impresa e quindi ricorrere all'integrazione verticale.
In generale le suoi conclusioni sono che l'organizzazione interna consente di economizzare sui
costi connessi alla razionalità limitata (fattore umano) in tutti quei casi in cui il sistema dei prezzi
non offre un'informazione sufficiente e l'incertezza (condizioni ambientali) è sostanziale. Alla
stessa stregua, l'organizzazione interna consente di economizzare sui costi determinati
dall'opportunismo (fattore umano) dei contraenti e dal fatto che via via che è un contratto viene
rinnovato, diminuisce il numero delle parti che effettivamente vi partecipano (condizione
ambientale).
Scendendo nel dettaglio, le situazioni che inducono all'integrazione verticale sono quattro:
1. specificità dei beni capitali (asset specificity);
2. incertezza;
3. compressione o blocco informativo (information impactedness);
4. coordinamento estensivo;
1. Un bene capitale specifico, come un macchinario, viene realizzato su misura per uno o alcuni
acquirenti particolari e non potrebbe essere utilizzato per servire il ciclo produttivo di un altro
acquirente. In questo caso il fornitore dipende completamente dal suo acquirente e, in caso di
contrasti, potrebbe rischiare di uscire anche gli dal mercato. La specificità può riguardare,
oltre il caso dei beni capitali, anche il capitale umano (specializzazione) e può spiegare la
maggiore preferenza per contratti di lavoro piuttosto che di consulenza.
La specificità di una risorsa va valutata anche con riferimento alla frequenza delle transazioni,
che si riferisce al numero di scambi in cui viene effettuata la transazione: possiamo distinguere
tra transazioni con frequenza occasionale o ricorrente.
Sulla combinazione degli aspetti di frequenza e di specificità, è possibile osservare in generale
che all'aumentare delle risorse materiali ed umane richieste da un certo investimento
aumentano anche i costi di transazione, mentre tendono a diminuire con l'aumentare della
frequenza delle transazioni. Si farà ricorso all'integrazione verticale in caso di elevata
specificità le risorse e di transazioni ricorrenti
2. Il ricorso al mercato è contraddistinto da numerosi fattori di incertezza e di rischio, che
possono riguardare ritardi, interruzioni nelle consegne, strozzatura dell'attività produttiva con
conseguente perdita di clienti o diminuzione delle vendite, mancato rispetto dei termini di
consegna… L'incertezza è uno dei più rilevanti casi di imperfezioni del mercato, per il quale
sono stati proposti numerosi modelli che analizzano gli incentivi all'integrazione verticale.
Per premunirsi contro tali rischi, le imprese aumentano livello di scorte, ma questo può portare
ad un incremento delle immobilizzazioni non compatibile o in grado di pregiudicare l'equilibrio
finanziario dell'impresa: l'interazione con i produttori di materie prime può permettere di
contenere il livello delle scorte.
3. Il terzo motivo che spinge all'integrazione riguarda le informazioni: può essere difficile stipulare
un contratto che dà all'impresa fornitrice gli incentivi adeguati per raccogliere le informazioni.
Ad esempio, se un'impresa paga un'altra una quota fissa per ottenere informazioni sui mercati
di recente sviluppo, quest'ultima non incentivi ad essere molto produttiva e l'acquirente non
ho modo di stabilire se il fornitore a fornire informazioni complete: possono pertanto sorgere
controversie sui pagamenti difficile da risolvere, se non con l'integrazione verticale.
4. Il quarto motivo è che l'integrazione facilita un coordinamento ampio, come accade nelle
industrie dotate di reti.
La teoria di Williams On si discosta dall'approccio SCP in quanto studia l'organizzazione interna
dell'impresa (anziché assumere a priori che essa persegue un comportamento teso alla
massimizzazione dei profitti) e descrive l'ambiente in cui questa opera in termini di distribuzione
dei costi di transazione anziché in termini di struttura di mercato.
- 11.2.3 IMPERFEZIONI DEI MERCATI
Le imperfezioni dei mercati comprendono tutti quei casi in cui i beni vengono venduti a prezzi non
competitivi o non vengono prodotti affatto (incompletezza dei mercati). Per molti prodotti di
recente introduzione (modello di stile) il mercato a monte dei componenti, i macchinari e le
attrezzature per produrli, ovvero che è una distribuzione non sono abbastanza sviluppati e
possono portare a prezzi molto elevati. La minaccia di sostituirsi al fornitore o al distributore può
essere un efficace mezzo per costringerli ad offrire condizioni migliori. Situazioni di prezzi non
competitivi si possono sviluppare come risultato di situazioni monopolistiche, in conseguenza di
fluttuazioni dei prezzi o per fluttuazioni legate alle valute con cui avvengono le transazioni.
Ma, tra le spiegazioni di chiamare in causa le imperfezioni di mercato, l'incertezza è uno dei fattori
maggiormente citati. In un mercato concorrenziale non esistono più incentivi all'integrazione
verticale in quanto tutti i fattori produttivi o gli output possono essere acquisiti ai prezzi
liberamente determinati dal mercato.
A Rho (1975) discute il caso di asimmetrie di informazione tra i prodotti a monte a valle che
genera un incentivo all'integrazione verticale. Nella sua analisi le imprese a valle hanno
informazioni limitate sul prezzo delle materie prime e questo limita la loro capacità di prendere
decisioni efficienti sulle proporzioni da usare nei loro processi produttivi.
Come hai detto, un motivo piuttosto comune che porta all'integrazione verticale e quello di
garantirsi una fornitura di fattori di produzione importanti. Carlton presenta un modello valido per
cui mercati in cui il prezzo non è il solo strumento utilizzato per allocare i beni e sono possibili a
fenomeni di razionamento della domanda (1979).
Quando il razionamento è possibile si crea un incentivo all'integrazione verticale per aumentare la
probabilità di ottenere per tempo il prodotto. L'impresa, in questo caso, potrebbe produrre i propri
input per soddisfare il livello prevedibile di domanda e fare affidamento sui fornitori per la
domanda meno stabile. Tuttavia, in questa situazione, i fornitori reagiranno (opportunisticamente)
aumentando i prezzi quando l'impresa ordina gli input a causa di un amento non previsto di
domanda da parte del suo mercato di sbocco: di qui l'incentivo dell'impresa ad integrarsi.
- 11.2.4 MOTIVAZIONI STRATEGICHE E RESTRIZIONI DELLA CONCORRENZA
Gli incentivi monopolistici all'integrazione verticale hanno rappresentato un'area di intensa recente
attività di ricerca nella letteratura economico industriale. Bain (1956, 1959) segnalava che
l'integrazione verticale, quando non è spiegata da economie legate a complementarietà
tecnologica dei processi impiegati, è interpretabile in termini di barriere all'entrata: l'integrazione a
monte e a valle ottiene risultato immediato di eliminare uno o più concorrenti potenziali per i
mercatini qualsiasi opera e aumenta i requisiti in termini di fabbisogno di capitale iniziale per i
potenziali entranti.
Tale interpretazione è affine a quella che vede l'integrazione come una forma di comportamento
strategico, con il fine ultimo di escludere dal mercato gli avversari non integrati, elevandone i
costi. Altri casi considerati nella letteratura sono quelli dell'interazione di attività monopolistica in
successione, motivata dalla ricerca di profitti congiunti, quelli motivati dalla ricerca di opportunità
per effettuare una discriminazione del prezzo.
A volte l'integrazione viene realizzata anche per oggi dalle normative di regolamentazione antitrust
o per evitare i controlli sui prezzi e le tasse.
Tali modelli, riconducibili a spiegazioni di difesa o conquista di potere di mercato, vanno
considerati congiuntamente a quelli sulle restrizioni verticali: queste sono accordi sanzionati da
contratti tra produttori e distributori o tra produttori e fornitori volti ad ottenere gli stessi effetti
dell'integrazione verticale, ma tra imprese che preservare la loro indipendenza giuridica e
strategica. Le restrizioni sono oggetto di attenzione da parte dell'autorità antitrust nei mercati in
cui esiste potere di mercato. In alcune circostanze e se possono portare all'aumento del potere di
mercato dell'impresa che vi ricorrono (alcuni esempi sono il prezzo imposto o la clausola di
esclusiva che possono essere usate come strumento di connessione oppure come uno strumento
per escludere i rivali dal mercato). Le più diffuse sono:
• Gli accordi di franchising, in cui il produttore vende i diritti di esclusiva, ossia i diritti a vendere il
prodotto che normalmente è coperto da un marchio, al distributore, dietro il pagamento di un
canone di concessione. Oggetto del contratto sono in genere uno o più licenze di diritti di
proprietà intellettuale (marchi, insegne, know how) nonché assistenza tecnica e commerciale.
Tali accordi permettono al proprietario di tali diritti, il franchisor, di sfruttare difendere la propria
reputazione;
• Il prezzo imposto è la pratica in base alla quale il produttore impone un prezzo minimo a
rivenditori. Questi accordi creano un incentivo ai venditori al dettaglio a concentrare l'attenzione
su variabili diverse dal prezzo;
• Gli accordi per le vendite in esclusiva, che nascono dall'esigenza dei produttori di evitare che
dei propri investimenti traggano beneficio i rivenditori, se questi vengono anche prodotti dei
concorrenti.le clausole risolvono queste esternalità tra produttori ma possono anche causare
l'uscita dei concorrenti dal mercato e perciò vengono perseguiti dalle autorità antitrust;
• La pratica delle vendite abbinate copre diverse tipologie di vendita, in cui due o più beni sono
venduti congiuntamente, E non si riferisce necessariamente prodotti collocati in fasi
consecutive di uno stesso processo o filiera produttiva.
- 11.2.5 MODELLI DINAMICI
Il grado di integrazione verticale di un'industria può perire nel tempo, in funzione della fase del
ciclo di vita che lo stesso settore si trova ad attraversare. L'approccio di Stiglerr. sviluppa un
modello dell'integrazione verticale in termini dinamici sulla base del teorema smithiano secondo il
quale "la divisione del lavoro è limitata dall'ampiezza del mercato" (Stigler, 1951).
In una prima fase di crescita del settore le imprese tendono a svolgere internamente tutte le
attività intermedie e complementari connesse con la produzione dell'output finale in quanto il
mercato dei prodotti intermedi è limitato dallo sviluppo ancora modesto dell'industria di sbocco.
Anche se ci sono dei rendimenti crescenti, a un'impresa non conviene specializzarsi in quanto
incorrerebbe in rilevanti costi fissi che non potrebbero essere distribuiti su un output elevato.
Anche se ci sono i rendimenti crescenti, a un'impresa non conviene specializzarsi in quanto
incorrerebbe rilevanti costi fissi che non potrebbero distribuirsi su un output elevato. A mano
mano che l'industria si sviluppa raggiunge la fase di maturità, si sviluppano nuovi prodotti che
vengono gran parte della domanda il tutto originale, perciò il settore si riduce di dimensioni: di
conseguenza, le imprese si integrano il nuovo verticalmente.
Le conclusioni cui giungevano hanno trovato nel tempo numerosi riscontri empirici, soprattutto
nei cambiamenti di lungo periodo del settore tessile o di altri di altre industrie di più recente
formazione. A conclusioni simili giunse anche il modello della concorrenza dinamica di J. Steindl.
12. I CASI DELLA CONCORRENZA, I MERCATI CONTENDIBILI, I CASI DI
MONOPOLIO E MONOPSONIO E LA CONCORRENZA MONOPOLISTICA
Le determinanti della struttura di un'industria solo nel seguito classificate in diversi ipotesi di
forme di mercato, con l'obiettivo di valutare, coerentemente al paradigma SCP, le condotte degli
operatori e gli effetti in termini di performance ad essi conseguenti. La concorrenza perfetta il
monopolio rappresentano due modelli di riferimento nell'analisi dei mercati reali.
12.2 I CASI DELLA CONCORRENZA, EQUILIBRIO DI BREVE E LUNGO PERIODO
Il modello di concorrenza perfetta si basa su cinque ipotesi principali:
• Struttura del mercato atomistica: le imprese operanti nel mercato sono numerosissime e
ciascuna impresa ricopre una quota di mercato così piccolo che la sua condotta non ha alcun
impatto significativo sulle altre imprese sul mercato;
• Omogeneità del prodotto: i prodotti offerti dalle singole imprese sono perfetti sostituti e quindi
ciascun consumatore è indifferente acquistare da un'impresa piuttosto che da un'altra, a parità
di prezzo;
• Informazione perfetta (trasparenza del mercato): imprese e consumatori hanno una conoscenza
perfetta delle informazioni di mercato, inclusi i prezzi, qualità e caratteristiche tecnologiche del
prodotto;
• Libertà di accesso e di uscita dal mercato e completa mobilità dei fattori di produzione: le
imprese possono entrare uscire rapidamente dal mercato senza incorrere in costi rilevanti e i
fattori produttivi, come il lavoro, possono spostarsi senza costo di un mercato ad un altro le
materie prime le altre risorse di produzione non sono controllate da pochi operatori;
• Price taking: in concorrenza perfetta ciascun impresa considera come dato il prezzo di mercato
in quanto si fissa un prezzo maggiore a quello applicato dall'altra impresa essa perde, per le
condizioni esaminate, l'intera quota di mercato mentre se fissa un prezzo inferiore a questa
intera domanda di mercato a fronte di una capacità produttiva considerata costante nel periodo
di mercato (spot market).ne consegue che l'impresa, dato il prezzo di mercato, individua livello
di produzione ottimale considerando una curva di domanda individuale perfettamente
orizzontale: lungo questa curva il prezzo eguaglia il ricavo marginale dell'impresa in esame
( P = MR ) e, considerando che l'impresa sceglie il suo livello di produzione ottimale nel punto
in cui MR = MC si deriva la regola ottimale sulla base della quale in concorrenza il prezzo
eguaglia il costo marginale, P = MC.
Le caratteristiche sopra descritte richiedono al loro volta alcune condizioni, alcune delle più
importanti sono la perfetta divisibilità della produzione, l'assenza di esternalità e di costi di
transizione.mentre la prima è una condizione legata alla tecnologia di produzione ed implica che
la singola impresa possa produrre il singolo consumatore possa acquistare una singola unità o
una frazione sufficientemente piccola riproduzione, la seconda garantisce che ogni impresa
sostenga tutti i costi associati alla sua attività di produzione e non abbia la possibilità di passare
parte di essi su altri operatori del mercato. Altra condizione è la trasparenza del mercato, che
implica che imprese consumatori non sostengono costi particolari (di transazione) per operare nel
mercato.
Nel definire il processo di aggiustamento che porta imprese price taker individuare il proprio livello
ottimale di produzione dato il prezzo di mercato, è stato introdotto il concetto di periodo di
mercato (sport market), durante il quale la quantità offerta dell'impresa può essere considerata
costante. Il prezzo di mercato sarà determinato dalla curva di domanda negativamente inclinata e
da una funzione di offerta rappresentata da una retta perfettamente verticale.
Se si analizza la posizione dell'impresa nel breve periodo, ciascuna impresa price taker, dato il
prezzo di mercato, individua il livello produttivo in corrispondenza del quale questo eguaglia i
costi marginali. L’equilibro di breve periodo, in corrispondenza dell'intersezione tra domanda e
offerta, può determinare una situazione di profitto per l'impresa in quanto il prezzo è superiore al
costo medio dell’impresa (situazione temporanea, perché i profitti registrati nel mercato
attireranno l'ingresso di nuovi operatori).
Nel lungo periodo, la presenza di profitti nel settore indurre all'ingresso di un numero
considerevole di imprese produrranno lo stesso livello di costo delle imprese già presenti nel
mercato.
12.3 EQUILIBRIO DI CONCORRENZA E FUNZIONI DI PRODUZIONE
Nel definire l'equilibrio di breve e di lungo periodo, le curve di offerta di mercato sono state
rappresentate come la somma orizzontale delle curve di offerta individuali delle imprese.
L'ipotesi che rende valida la formulazione è che le curve di offerta dei fattori produttivi siano
perfettamente elastiche, ovvero che, se si verifica un aumento o una diminuzione della produzione
di tutte le imprese del settore considerato, il prezzo dei fattori rimanga invariato.
Nel lungo periodo, se l'aumento della produzione determina un aumento dei prezzi dei fattori la
curva di offerta tende a crescere diventa chinata positivamente.
Un secondo fattore che determina l'ipotesi alla base della formulazione attiene alla funzione di
produzione: l'analisi l'equilibrio di breve e di lungo periodo riportata presuppone l'impostazione
classica basata su una funzione di produzione caratterizzata da rendimenti di scala costanti.
In ipotesi di prezzi dei fattori produttivi costanti la presenza di rendimenti di scala costanti
garantisce che, dopo il raggiungimento della dimensione ottima minima e per un lungo tratto della
curva dei costi medi e marginali, tutte le imprese non avranno incentivo ad aumentare la propria
scala produttiva per sfruttare economie di scala, o a diminuirla per non incorrere in diseconomie.
Siamo una funzione di produzione del tipo Cobb-Douglas:
12.4 STABILIZZAZIONE DEI MERCATI CONCORRENZIALI, “FUTURES” E “FLOOR PRICES”
I mutamenti nella funzione di offerta (elasticità) introducono possibili fonti di squilibrio e di stabilità
nel proprio nel processo concorrenziale, e nello stesso modo mutamenti nelle abitudini dei
consumatori (gusti, redditi…) possono determinare spostamenti della curva di domanda.
A tal proposito si consideri il modello dinamico noto come “teorema della ragnatela”: tale modello
è utile prevedere gli effetti di variazioni della produzione e dei prezzi nei settori dove tali effetti
sono potenzialmente rilevanti rendono fortemente instabili mercati dei prodotti. In tali mercati il
rischio è che, per effetto du variazioni nella domanda o nell’offerta, le variazioni del prezzo siano
tali da compromettere l’esistenza del settore stesso. In tali ipotesi gli interventi governativi di
sostegno fissano un prezzo di intervento, o floor price, al fine di evitare che il prezzo di mercato
scenda al di sotto del livello soglia mettendo in crisi il settore.
Una soluzione a questi problemi è rappresentata per molti importanti settori dell'economia
moderna dei futures: il contratto future attribuisce al sottoscrittore il diritto e l'obbligo di
acquistare o vendere un determinato bene (commodity futures) o strumento finanziario (financial
futures) di una scadenza prefissata; è un contratto standardizzato negoziato in mercati
amministrati per effetto del quale alla scadenza le quantità vendute o acquistate vengono
acquistate e consegnate dall'operatore del mercato il prezzo prefissato.
12.5 I MERCATI CONTENDIBILI
Molte delle ipotesi su cui si basa il modello di concorrenza perfetta sono difficili da riscontrare nel
mercato reale: anche in assenza di una delle condizioni principali del modello il meccanismo
dell'entrata e dell'uscita e determinante nel garantire che la concorrenza funzioni produca risultati
analizzati.
Tale meccanismo funziona in assenza di costi di ingresso di uscita e nell'ipotesi che tutti gli
operatori, anche quelli potenziali, possono liberamente agevolmente avere accesso al mercato
delle materie prime: si parla in tal caso di mercati perfettamente contendibili ( Baumol, Panzar e
Willig, 1982).
In un mercato perfettamente contendibile, l'equilibrio di concorrenza perfetta è sostenibile se
nessuna potenziale entrante alla possibilità di ottenere dei profitti. In caso contrario, un potenziale
concorrente potrebbe entrare realizzare un po' di anni prima che i prezzi cambino, e quindi uscire
senza costo se le prospettive future non sembrano favorevoli: il mercato e quindi vulnerabili ad
una concorrenza del tipo hit and run.
12.6 I MONOPOLI
Il modello di monopolio puro si basa sull'ipotesi che in un mercato caratterizzato da un prodotto
per il quale non sia possibile individuare prodotti sostituti o prima sull'impresa. I fattori che
possono determinare in un mercato la presenza di una sola impresa sono di varia natura:
• un'impresa può acquisire e conservare lo status di monopolista perché detiene un vantaggio
competitivo rilevante (come quello associato alla conoscenza di tecnologie particolari) che crea
una barriera all'entrata o alla sopravvivenza dei concorrenti;
• un vantaggio acquisito dal monopolista può in alcuni ipotesi essere protetto da specifici
interventi dello Stato, come nel caso della legislazione sui brevetti;
• la motivazione del monopolio più significativa resta quella cosiddetta del monopolio naturale:
un'impresa è un monopolio naturale si può produrre la quantità di mercato Q ad un costo
inferiore a quello che caratterizzerebbe la produzione di un numero k di imprese che si dividono
in parti uguali la quantità Q (le proprietà e le economie di scala possono determinare la
presenza di quest’ultimo).
12.7 EQUILIBRIO MONOPOLISTICO
Il monopolista stabilisce il livello di prezzo e di output in funzione della massimizzazione del
proprio profitto. La curva di domanda di mercato, D = p (Q), coincide con la curva di domanda del
monopolista: il monopolista sceglierà la quantità che desidera vendere determinando in modo
automatico sulla curva di domanda il prezzo a cui gli acquirenti sono disposti ad acquistarla o
fisserà il prezzo e quindi la quantità individuabile in corrispondenza dello stesso.
L’equilibrio del monopolio individuato nel punto in cui ricavo marginale è uguale ai costi marginali.
Il monopolista applica al prezzo di concorrenza p = MC un mark-up P - MC, la cui ampiezza
dipende dalle proprietà della curva di domanda e dall'elasticità della domanda al prezzo.
Siri elasticità è molto alta una piccola variazione di prezzo determinato arrivante diminuzione della
quantità. Si osservi che se la domanda fosse completamente anelastica, non sarebbe possibile
soddisfare la condizione di massimizzazione del profitto esplicitato nell’equazione.
Una visione dinamica del comportamento del monopolista potrebbe giustificare comportamenti
differenti dalla pura massimizzazione del profitto e dunque l'applicazione di prezzi minori al prezzo
Pm, se l'obiettivo di lungo periodo è quello di scoraggiare l'ingresso di potenziali rivali: tali
presupposti rendono l'esercizio del potere di mercato una strategia più articolata della pura
massimizzazione del profitto.
12.8 COSTI E BENEFICI DEL MONOPOLIO
La possibilità di restringere l'output ed incrementare i prezzi determina due effetti sul benessere
sociale rispetto ad un equilibrio di concorrenza. Con il termine benessere sociale si intende la
somma del surplus del produttore e del surplus del consumatore.
Il primo effetto del passaggio da una situazione di monopolio e redistributivo e si sostanza in un
trasferimento di surplus del consumatore al produttore pari al profitto che questi è in grado di
ottenere applicando il markup pm - pc alla quantità Qm.
Il secondo effetto è una perdita per il consumatore (non trasferito al produttore) che deve
rinunciare all'acquisto del bene, producendo una perdita secca di benessere (deadweight loss)
per il produttore pari al surplus che avrebbe ottenuto prosciutto producendo la quantità (Qm - Qt)
al prezzo di concorrenza pc.
La perdita secca di benessere è stata definita sulla base della formulazione adottata. da
Harberger, 1954, che utilizza stime dei parametri della curva di domanda marshalliana dei singoli
settori per derivare un'approssimazione lineare di tale aria nella formulazione:
Elasticità della domanda al prezzo e quindi il parametro determinante nella definizione della
perdita secca.nonostante ciò l'effetto dell'elasticità della domanda sulla misura della perdita
secca non è sempre univocamente determinabile; in particolare un aumento del Markup,
determinato da una riduzione della siccità della domanda al prezzo, non necessariamente si
traduce in un aumento della perdita secca.
Situazioni di monopolio caratterizzate da elevati Markup coincidono con quelle caratterizzate da
una bassa elasticità della domanda al prezzo: questo implica che aumenti anche significativi del
prezzo non hanno un impatto rilevante in termini di quantità domandate (e quindi di perdita secca
di benessere) ma si traducono in ingenti trasferimenti monetari dal consumatore al produttore, che
non sembrano avere nessun effetto sulla misura della perdita secca proposta da Harberger.
Il metodo di calcolo della perdita secca si basa sullo strumento della curva di domanda
marshalliana: l'approccio utilizzato è quello dell'equilibrio economico particolare. Lungo una curva
di domanda marshalliana l'utilità del consumatore non è costante.
La definizione di una curva di domanda hicksiana , Che attraverso variazioni compensative
mantiene costante l'utilità del consumatore, consentirebbe di incorporare nel confronto anche
l'effetto dell’elasticità al reddito della domanda del bene considerato.
La dimensione di equilibrio economico particolare non consente di includere nel calcolo della
perdita secca l'effetto che il trasferimento del reddito monetario il monopolista ha sia sulla
quantità domandata di altri prodotti e quindi sugli output di equilibrio in altri settori, sia sul livello
di utilizzo dei fattori produttivi.
In una prospettiva più ampia di equilibrio economico generale, il valore della perdita secca di
benessere indotta dalla monopolizzazione di uno o più settori dell'economia dipende non solo
dall'elasticità della domanda del bene considerato al prezzo, ma anche dall'elasticità al reddito e
dalla elasticità incrociata delle domande di tutti i beni.
Nell’analisi di Bergson (1973) si evince che: il passaggio al monopolio di uno o più settori
compromette il pieno utilizzo dei fattori produttivi se si considera costante il reddito reale dei
consumatori; solo l'ipotesi di un incremento del reddito reale dei consumatori tale da compensare
la variazione di prezzo imposto dal monopolista garantisce il mantenimento del pieno utilizzo dei
fattori produttivi nel nuovo punto di equilibrio determinato dall'abbandono di un sistema
completamente concorrenziale.
Dal punto di vista applicativo dunque, il metodo proposto da Harberger è quello che consente,
seppure con dei limiti, una valutazione empirica del valore della perdita secca di benessere.
Negli anni la sua formulazione è stata sviluppata, con l'obiettivo di includere nel calcolo tutti gli
effetti analiticamente trattabili e, in particolare, quelli relativi alla valutazione delle differenze di
costo riscontrabili nelle due forme di mercato.
La sua analisi si sviluppa dal lato della domanda ipotizzando che l'impresa in monopolio è quella
in concorrenza abbiano la stessa curva dei costi marginali MC.
tullock (1967) e Posner (1975) sostengono che la stima della perdita di benessere è sottostimata
se non si considerano i costi necessari all'ottenimento e al mantenimento del potere
monopolistico: questi costi assumono la forma di un eccesso di capacità produttiva o di
eccessivo investimenti in pubblicità e differenziazione del prodotto.
Un'altra fonte dei maggiori costi del monopolio è quella relativa all'inefficienza intrinseca al
processo produttivo che caratterizza tale forma di mercato.è indubbio che le conseguenze di
comportamenti inefficienti sono diverse per il monopolio per la concorrenza: un'impresa efficiente
che opera in concorrenza esce dal mercato mentre un monopolista efficiente può continuare
l’attività con profitto.
Queste considerazioni hanno portato alcuni economisti a ritenere che il monopolio sia per sua
natura meno efficiente della concorrenza: Leibenstein definisce come x-inefficienty tutti quei
fattori associabili alla mancanza di motivazione determinata dall'assenza della pressione
competitiva e del confronto con altri competitors.
Alcuni importanti benefici del monopolio sono quelli riconducibili alla maggiore capacità di
investire nella ricerca e sviluppo di nuovi processi prodotti associato alle potenzialità di profitto del
monopolista.
12.9 IL MONOPSONIO
Sotto il profilo teorico il monopsonio (un solo compratore che si contrappone a una pluralità di
venditori) rappresenta un caso perfettamente speculare di quello del monopolio: il monopsonio
Insta limita i propri acquisti alla quantità che fa coincidere il costo marginale del fattore acquistato
con la sua produttività marginale; ma, la restrizione della quantità domandata rispetto a quella che
sarebbe offerta in concorrenza di mercato con all'effetto di ridurre il prezzo, e non di aumentarlo
come avviene nel classico caso del monopolio.
Seguentemente l'area del sovra profitto (rendita) del monopsonio Insta è maggiore di zero, e può
essere scomposto in una parte che misura il trasferimento di rendita tra i produttori più efficienti il
monopsonio está stesso, e in un'altra parte che misura la perdita netta di benessere sociale,
corrispondenti al valore della differenza di ciò che si sarebbe prodotto in condizioni di
concorrenza bilaterale e ciò che effettivamente viene prodotto.
Fra i casi classici che ricadono nella forma di mercato monopsonistico vi sono il mercato del
lavoro, delle commesse pubbliche e i settori che si trovano a monte di industrie fortemente
concentrate.
Tuttavia è altamente improbabile che il monopolista si limiti a restringere i propri costumi per
ottenere un sovra profitto: il principale interesse del monopolista nel lungo periodo è legato alla
conservazione di una pluralità di fornitori, evitando il rischio che questi ultimi tendono a
concentrarsi fino al punto di creare un monopolio bilaterale.
Perciò i prezzi offerti, imposti o accettati dal monopsonio Insta sono normalmente configurati sulla
base di un mark-up positivo, ovvero essi praticano un price-up app sui costi stimati dei fornitori
che consente a questi ultimi di restare nel mercato; ciò può dare luogo ad una forma ad una fonte
di notevoli inefficienza che deriva dalla mancata spinta concorrenziale del settore.
Il monopsonio Insta, perciò, per raggiungere i propri obiettivi di profitto o di contenimento della
spesa, tende ad intervenire sulla struttura dei propri fornitori, in modo da determinare oltre alle
condizioni di prezzo che ne garantiscono la sopravvivenza, anche a prezzi di fornitura più
contenuti.
12.10 LA CONCORRENZA MONOPOLISTICA
La teoria di Chamberlin (1933) propone il modello di concorrenza monopolistica come una valida
alternativa il modello di concorrenza perfetta quando, in modo realistico, si abbandona l'ipotesi di
perfetta omogeneità dei prodotti rivali. La concorrenza monopolistica conserva tutte le
caratteristiche esaminate nel caso della concorrenza perfetta (largo numero di imprese
concorrenti e insignificante interazione tra le stesse, assenza di barriere all'entrata e uguali
opportunità di ingresso nel mercato) ad eccezione del fattore strutturale strategico individuato
nella differenziazione del prodotto. Le ipotesi del modello sono dunque:
• nel mercato ci sono molti produttori e il prodotto di ciascuno di essi, per quanto differenziato,
sia un sostituto sufficientemente buono di quello degli altri;
• il numero delle imprese sia sufficientemente elevato da generare in ciascuna impresa le
aspettative delle proprie azioni sfogano i concorrenti che non hanno la possibilità di adottare
misure ritorsivi contro di essa;
• la curva di domanda e le funzioni di costo siano le stesse per ciascuna impresa del gruppo;
Si ritiene che il settore del commercio al minuto abbia molte delle caratteristiche della
concorrenza monopolistica. Per aumentare le sue vendite, l'impresa dispone di tre leve: può agire
sulle variazioni di prezzo, sulle caratteristiche del prodotto, sulla spesa pubblicitaria promozionale.
12.11 L’EQUILIBRIO NELLA CONCORRENZA MONOPOLISTICA
L'abbandono dell'ipotesi di omogeneità dei prodotti implica che la curva di domanda della singola
impresa non sia perfettamente orizzontale come nel caso della concorrenza perfetta: la singola
impresa è in qualche misura price maker e adotta le proprie decisioni di prezzo e quantità a lungo
una curva di domanda residuale negativamente inclinata che mostra la quantità che l'impresa
potrà vendere se poi un prezzo diverso da quello attuale mentre le imprese rivali mantengono i
prezzi esistenti.
12.12 CRITICHE AL MODELLO DI CHAMBERLIN
La concorrenza monopolistica offre un interessante modello di analisi delle forme di mercato
intermedio tra concorrenza perfetta e monopolio: le sue ipotesi tuttavia sono state oggetto di
critiche che hanno Ri marcato la distanza del modello del funzionamento dei mercati reali.
• Stigler critica il concetto di gruppo di imprese che è alla base del modello, osservando che la
sua definizione è ambigua in contraddizione con le quote di differenziazione del prodotto: se si
sostiene la sostanziale analogia delle curve di domanda e di costo delle imprese che
concorrono al gruppo, il gruppo deve essere necessariamente definito in modo da
comprendere sulle imprese che vendono prodotti omogenei e, se si restringe in tal modo la
definizione di gruppo, è evidente che non abbia senso parlare di curve di domanda residuale
inclinata negativamente.
• Harrod sottolinea che il processo che porta a definire l'equilibrio di lungo periodo si basa su un
procedimento che utilizza una curva dei costi marginali di lungo periodo ed una di ricavo
marginale di breve periodo, in quanto derivata dalla curva di domanda residuale dell'impresa
tipo: questo determina la fissazione di un prezzo sufficientemente alto da indurre l'ingresso di
nuove imprese e il successivo spostamento verso il basso della nuova curva di ricavo
marginale. La sua analisi cerca di eliminare questo errore dimostrando che il margine di
capacità inutilizzata è, se esiste, minore di quello riportato nella formulazione originaria.
14. TEORIA DELL’OLIGOPOLIO: I COMPORTAMENTI COLLUSIVI
14.1 I CARATTERI COMUNI DEGLI OLIGOPOLI
Sotto la dominazione di oligopoli che raccolgono forme competitive, e dunque modalità di
comportamento delle imprese, sai differenziate, tanto da richiedere lo svolgimento di tali distinte
per i vari casi di oligopolio (oligopolio omogeneo, differenziato, concentrato, dinamico…).
Se si prendono in considerazione gli aspetti del comportamento delle imprese che appaiono nelle
situazioni di oligopolio si può tentare di dare una definizione della forma di mercato che sottolinea
gli aspetti comuni ai diversi segmenti in cui in concreto si articola la casistica degli oligopoli.
Le caratteristiche fondamentali e comuni delle forme di mercato oligopolistiche sono:
• scarsa numerosità delle imprese che operano in un particolare ambito concorrenziale. Nelle
forme di mercato oligopolistico le imprese che operano nel processo competitivo sono di
numero limitato, nel senso che devono essere poche le imprese che tengono un potere di
mercato nell'ambito di un settore e cioè che dispongono di un certo margine di discrezionalità
nella formulazione delle proprie politiche. Un ambito concorrenziale può definirsi oligopolistico
anche se il numero delle imprese che ne fanno parte elevato ma solo poche imprese si
configurano quali imprese leader, mentre la maggioranza opera in condizioni subordinate. Da
questa caratteristica deriva che i prezzi sono frutto di decisioni autonome delle singole imprese,
influenzate senz'altro dalle condizioni della domanda e delle altre variabili del mercato ma
determinate da decisioni arbitrarie;
• le decisioni delle singole imprese non possono limitarsi alla conoscenza della domanda di
mercato ma, nel caso dell'oligopolio, le singole imprese devono tenere conto delle reazioni
delle imprese rivali. La curva di domanda di ogni singola impresa deve considerare anche
l’elasticità di sottrazione, cioè l'effetto che una qualsiasi azione di prezzo o promozione può
avere come conseguenza di variazioni delle quote di mercato. Singole imprese non hanno
dunque di fronte asse una curva di domanda reale, cioè derivabili dagli elementi oggettivi del
mercato, ma una dipendente da ipotesi formulabile circa il comportamento delle altre imprese,
una curva di domanda immaginata;
• tali forme di mercato sono comunque caratterizzate da un elevato grado di incertezza e,
diversamente dalle altre forme di mercato, nel caso di popoli non esistono posizioni di equilibrio
competitivo spontanee;
Quali caratteristiche comuni sollevano tre gruppi di problematiche:
1. Problemi della formazione e del mantenimento dell'equilibrio oligopolistico;
2. Esplorazione della modalità delle forme del comportamento collusivo tra gli oligopolisti;
3. Comportamento dell'impresa di populistiche di fronte a variazioni dei costi e della domanda.
14.2 L’EQUILIBRIO NEGLI OLIGOPOLI: FORMULAZIONI TEORICHE
La teoria economica si è occupata per lungo tempo della ricerca di una formulazione
soddisfacente del comportamento degli oligopolisti e degli effetti che tali comportamenti derivano
con le caratteristiche del settore.in generale le costruzioni teoriche anche le più sofisticate,
possono essere ricondotte a due ipotesi fondamentali che descrivono il comportamento degli
oligopolisti:
• La prima ipotesi di comportamento, che si può risalire a Curnot, definisce un comportamento
indipendente degli oligopolisti. Posto in condizioni di incertezza circa le reazioni dei rivali alle
proprie decisioni in materia di prezzi, ciascun oligopolista tenderà a semplificare il problema
assumendo che da parte di rivali non vi sarà alcuna reazione in occasione di variazioni dei
prezzi decise dal singolo competitore: ciascuna impresa prende le proprie decisioni assumendo
che nulla vari nella situazione attuale di mercato e ciascuna impresa tende dunque a
massimizzare il proprio profitto in modo indipendente dagli altri competitori.
Una variante all'ipotesi di Cournot è costituita dal cosiddetto postulato di Sylos Labini:
Secondo tale postulato i competitori si comportano come se si attenessero dei rivali la reazione
più sfavorevole, consistente nel propendere a mantenere inalterata la propria quota di mercato
nel caso di aumento della quantità offerta.
• La seconda ipotesi, richiamata con il nome di Chamberlin, definisce un comportamento
opposto a quello previsto da Cournot . Le imprese che operano in settori in numero limitato non
possono non rendersi conto che le rispettive performance sono interdipendenti: ne segue che
le imprese fisseranno un prezzo monopolistico che massimizza i profitti del settore, ripartendo
poi tra loro le quote di mercato secondo tattiche collusive.
14.3 MODALITA’ E FORME DELLA COLLUSIONE OLIGOPOLISTICA
Il richiamo alle principali formulazioni teoriche circa determinazione dei prezzi e dei profitti
nell’oligopolio ha condotto ad interrogarsi sulle modalità con cui possono stabilirsi comportamenti
collusivi tra le imprese che hobby erano nell'ambito di un oligopolio; comportamenti intesi ad
eliminare la caratteristica incertezza che contraddistingue tale forma di mercato e a impedire che
la concorrenza tra le imprese faccio scendere prezzi saggio di profitto monopolistico del settore o,
peggio, produrre perdite per le imprese medesime.
Se l'obiettivo delle tattiche collusive è sempre il mantenimento del saggio di profitto al di sotto del
livello normale, le modalità con cui la condizione può in concreto verificarsi sono varie:
1. Accordi formali e informali.
La collusione può innanzitutto avvenire mediante la stipulazione di intese volte a limitare o ad
impedire la competizione tra le imprese che sottoscrivono tale accordo. Gli accordi possono
riguardare la formulazione di una politica comune di prezzi, la suddivisione del mercato, la
formazione di organizzazioni in tese a disciplinare i vari aspetti del processo competitivo… Gli
accordi di prezzo possono o meno essere resi noti al pubblico: nel primo caso si ha la
pubblicazione listini o tariffari comuni, nel secondo l'accordo prenderà forma di gentlemen's
agreement. L'accordo sui prezzi porta a formulare un prezzo monopolistico o comunque un
ricavo unitario superiore al costo unitario di produzione, ma è chiaro che non appena ciò si
verifica le singole imprese sono stimolate ad espandere la produzione per massimizzare i
profitti e con ciò la possibilità di mantenere il prezzo concordato risulta compromessa. Spesso
si ricorre allo strumento del cartello, che può configurarsi come:
• cartello obbligatorio, che consiste in un accordo inteso a limitare la produzione delle singole
imprese assegnando a ciascuno una quota massima di produzione;
• cartello di offerta, che si applica nei settori che producono su commessa, e consiste
nell'interporre tra i committenti e l'impresa organismo che provvede a raccogliere le ordinazioni
a distribuirle in proporzione alle quote di mercato storicamente detenuti dalle varie aziende che
ne fanno parte;
• cartello di razionalizzazione, è la forma più rigida di collusione, e consiste nel coordinare i piani
di produzione le politiche di vendita delle diverse imprese del settore in modo integrato, come
se si trattasse di un'azienda unica;
2. Price leadership.
Si verifica quando il gruppo di imprese che costituisce l’offerta del settore attribuisce ad una
singola impresa (o più imprese coordinate in un cartello) la funzione di stabilire i prezzi di
vendita. Vi è dunque uno o più imprese che si comportano da price maker, defininendo
autonomamente e tenendo conto delle condizioni del mercato i prezzi di vendita da stabilirsi,
mentre le altre sono price taker e seguono passivamente le decisioni delle prime.
Vi sono due tipi di price leadership:
• price leadership con impresa dominante, in cui il settore è caratterizzato dall'esistenza di
un'impresa di vaste dimensioni, che da sola copre una quota rilevante del mercato, e da un
elevato numero di piccole imprese, ciascuna dotata di una quota trascurabile il mercato
complessivo;
• price leadership barometrica, in cui la struttura del settore si presenta in modo meno definito, e
di norma non sono riscontrabili nella struttura del settore elementi che spiegano in modo
compiacente il comportamento delle imprese e la ragione per cui una particolare impresa
assume la leadership: di regola la spiegazione ed a cercarsi nella storia del settore (l'impresa
leader era in passato un'impresa dominante particolarmente dinamica) tale tipo di collusione è
molto meno stabile del precedente tipo;
• Regole empiriche di decisione.
• Uso di punti focali.
Le altre due forme hanno origine nell'applicazione generalizzata di schemi decisionali empirici
uniformi, come la metodologia di determinazione dei prezzi sulla base dei costi e nell'uniformità
delle aspettative circa il comportamento del settore.
14.4 OSTACOLI AI COMPORTAMENTI COLLUSIVI
La collusione all'obiettivo di mantenere il saggio di profitto del settore sul livelli monopolistici: è
quindi chiaro l'interesse delle singole imprese a dare vita ad accordi o comportamenti collusivi.
In concreto non sono pochi gli ostacoli che si frappongono alla collusione, che possono derivare
dalla legge (norme antitrust) o dalle caratteristiche medesime dell'economia delle imprese che
operano nel settore.
In Europa la disciplina antitrust è stabilita in origine dalle norme degli articoli 85 86 del Trattato
istitutivo del Mercato Comune Europeo.
L’art.85 dichiara incompatibili con il mercato comune tutti gli accordi tra le imprese che siano
suscettibili di limitare il commercio tra gli Stati membri ed abbiano l'effetto di impedire, falsare,
restringere la concorrenza all'interno del mercato comune.
L’art.86 proibisce, nella misura in cui commercio tra gli Stati membri ne posso risentire, l'abuso di
posizioni dominanti (ma non l'esistenza) da parte di una o più imprese.
La disciplina della concorrenza nella Cee pare più orientata al comportamento delle imprese che
non alla struttura del mercato. Rilevazioni Cee mostrano che la collusione più frequente riguarda
accordi sui prezzi e sulle condizioni di vendita, i sindacati di vendita e in minor quantità accordi di
ripartizione delle quote di mercato i limiti posti all'esportazione e l’importazione.
E di massima la politica antitrust della Cee ha esclusivo riguardo a casi che presentino
simultaneamente le seguenti caratteristiche:
• la collusione a manifestazione in un accordo nel comportamento delle imprese;
• le politiche restrittive devono interferire con il commercio tra gli Stati membri;
• gli accordi devono comportare effetti mi devi dire la concorrenza;
E gli interventi sono quindi esclusi sia comportamenti collusivi che hanno effetti limitati ad un
unico ambito nazionale sia le connessioni che hanno come obiettivo il miglioramento delle
tecniche produttive e della distribuzione e non comportino un indebolimento della concorrenza nel
settore.
Di solito gli ostacoli alla collusione oligopolistica sono messi in relazione ai seguenti fenomeni:
• differenziabilità dei prodotti, ovvero esistenza di asimmetrie nelle curve di domanda particolari di
ciascun impresa;
• asimmetrie nei costi di produzione delle varie imprese;
• struttura dei costi di produzione caratterizzata ad un'elevata quota di costi fissi.
15. LE CONDOTTE NON COLLUSIVE E LA TEORIA DELLA CURVA DI
DOMANDA AD ANGOLO
15.1 FORMULAZIONE ORIGINARIA DELLA TEORIA DI SWEEZY
La teoria della curva di domanda spezzata (kinked demand curve) offre un modello sei prezioso ai
fini dell'analisi del comportamento di imprese facenti parte di un oligopolio, date certe ipotesi
circa le condizioni di base del settore in cui le imprese medesime operano.
La teoria in parola più sviluppata nell'ambito della equilibrio parziale generale seguita agli ormai
storici interventi di P. Sraffa (Le leggi della produttività in regime di concorrenza, 1937) e della
Robinson (The Economics of Imperfect Competition, 1933).
Il suo obiettivo era la dimostrazione della tesi che, in riferimento ad un sistema economico
monopolizzato da grandi imprese, il movimento dei prezzi non riveste più il ruolo fondamentale
teorizzato da Marshall e Walras nel determinare l'equilibrio di breve periodo tra quantità
domandate ed offerte, e nel coordinare l'allocazione dei fattori tra i diversi settori produttivi.
L'equilibrio in parola, al contrario, sarebbe assicurato dalle variazioni delle quantità di merci offerte
dalle grandi imprese.
Risulta subito evidente l'appartenenza della teoria della curva di domanda spezzata al tema più
ampio relativo all'analisi del fenomeno dei prezzi amministrati: tale tema compare per la prima
volta negli studi di economia applicata adopera di Means nel 1935, ed era dedicato all'analisi
delle leggi di formazione dei prezzi nei settori in cui la depressione del 1929-33 produsse
variazioni dei prezzi.
In numerosi settori industriali, si osservava, i prezzi non risultavano determinati dall'interazione tra
compratori e venditori, ma venivano fissati amministrativamente da questi ultimi, in funzione del
potere discrezionale detenuto dalle poche imprese operanti sul mercato, in funzione cioè del
potere di mercato dei venditori. Nell'ambito di questa problematica, il modello di comportamento
dell'impresa e di domanda spezzata forniva una base analitica alle considerazioni descritte in cui
si articola il dibattito sul fenomeno della rigidità dei prezzi in alcuni prodotti industriali.
In realtà, l’interesse del modello elaborato da Paul Sweezy (Demand under Conditions of
Oligopoly, 1939) va oltre la polemica sulla teoria del prezzo. E se anticipa la sequenza struttura
condotta performance, ormai generalmente adottata nell'analisi economica dei settori industriali,
ma soprattutto fornisce un modello predittivo ed esplicativo delle performance dell'impresa in
condizioni di variabilità della domanda e dei costi di produzione.
Supponiamo di esaminare un settore costituito da un numero limitato di imprese anche
dimensioni pressoché uguali, che producono un bene omogeneo, e non possono stabilire tra loro
(ad esempio a causa di norme antitrust) un accordo sistematico volto alla delimitazione delle
quote di mercato o alla formazione collettiva del prezzo. Tali ipotesi definiscono una forma di
mercato di oligopolio omogeneo non collusivo e, in queste circostanze, il comportamento
dell'impresa in merito alla formazione del prezzo è condizionato dal modo in cui le singole
imprese percepiscono la domanda che l'aggregato dei consumatori rivolgerà il proprio prodotto.
Sotto quest'ultimo profilo, una componente fondamentale della curva di domanda dei singoli
imprese immaginano di avere di fronte sì è costituita dalle diverse ipotesi circa il comportamento
delle imprese rivali, in occasione di un'azione di aumento o di diminuzione del prezzo o di altre
azioni equivalenti.
Al quadro ora delineato si può aggiungere l'ipotesi che le imprese abbiano come obiettivo la
massimizzazione del profitto, e che si determinano i prezzi in base a schemi marginalisti, cioè in
base all'uguaglianza tra costi marginali e ricavi marginali. Singole imprese sono portati ad
immaginare di avere di fronte sei tu e distinte curve di domanda, aventi diversa elasticità.
La prima curva (ABC) ha elasticità più elevata e rappresenta la curva di domanda del prodotto
della singola impresa nel caso in cui l'impresa medesima intende aumentare il prezzo, mentre la
seconda (DBE) delinea l'andamento della domanda nel caso in cui l'impresa prospetti una
diminuzione del prezzo.
La differente elasticità dipende dall'aspettativa di opposte reazioni delle imprese rivali nel caso di
aumento di dimensioni del prezzo:
• nel primo casp, quando si ipotizza una azione di aumento dei prezzi, la singola impresa può
ritenere che gli altri siano indotti a non modificare i rispettivi prezzi, perciò l'azione di aumento
del prezzo consegue una robusta riduzione della quota di mercato;
• nel secondo caso, di riduzione del prezzo, la singola impresa può ritenere che le altre aziende
adeguerebbero rapidamente rispettivi prezzi al nuovo livello per cui l'incremento della quota di
mercato dell'impresa che assunto l'iniziativa di ridurre il prezzo sarebbe modesto o, al limite,
nullo.
Dal punto di vista dell'impresa una riduzione della domanda non comporta una modifica del
prezzo, stante che il prezzo che soddisfa la condizione di uguaglianza tra costi e ricavi marginali è
uguale al prezzo del periodo precedente. Da ciò si può dedurre una prova importante
conclusione: nei mercati oligopolistici i prezzi tenderanno ad essere piuttosto rigidi in presenza di
variazioni della domanda, il che equivale a dire che le imprese oligopolistiche tenderanno ad
amministrare l'offerta facendo variare le quantità offerte proporzionalmente alle quantità
domandate, con il risultato di mantenere stabiliti i prezzi.
Gli osservazioni empiriche confermano tale produzione anche se, a seconda dell'intensità e della
direzione della variazione della domanda o del grado di utilizzazione della capacità produttiva, i
comportamenti effettivi possono discostarsi di tanto di poco dalle lezioni teoriche.
Sul piano teorico, la teoria della curva di domanda spezzata è stato assunto da numerosi studiosi
quale causa esplicativa del fenomeno della rigidità dei prezzi.
Il modello della curva di domanda spezzata si presta anche ad osservare gli effetti delle variazioni
dei costi di produzione e sui prezzi: si osserva che se le variazioni dei costi sono contenute
nell'ambito della discontinuità della curva dei costi marginali, il prezzo al quale l'impresa
massimizza il profitto rimane in alterato e, solo nel caso in cui gli aumenti dei costi di produzione
fossero molto rilevanti, l'impresa sarebbe indotta a modificare il prezzo vorresti aprire uguaglianza
tra costo e ricavo marginale.
Da quanto sopra si ricava una deduzione molto interessante circa le performance dell'impresa
oligopolistica in condizioni di variabilità tipo ipotizzato: reazioni dei costi di produzione (purché
non di enorme entità) non comportano in media di variazione dei prezzi, ciò equivale a dire che un
aumento dei costi di produzione diretti, dovuto all'aumento del costo unitario del lavoro, delle
materie prime o di altro, all'effetto almeno nel breve periodo di ridurre il profitto dell'imprese che
non possono stabilire comportamenti collusivi tra di loro.
A conclusione del tutto analoghe a quelle di Sweezy giunsero gli economisti dell'Università di
Oxford, Hall e Hitch. Due economisti inglesi, procedendo con il metodo dell'intervista, giunse alla
conclusione che la formazione del prezzo da parte delle aziende industriali ha come principale
riferimento la copertura del costo medio; scarsa considerazione risulta essere, per contro,
attribuito ai concetti di costo marginale e di ricavo marginale.
L'adozione del principio del costo medio come criterio di determinazione del prezzo (full cost
pricing) appare essere il risultato di:
• Forme di collusione esplicite o tacite;
• Considerazioni circa l'andamento dei costi della domanda nel lungo periodo;
• Convinzioni morali circa l'equità del prezzo;
• Incertezza circa gli effetti delle variazioni dei prezzi sulle quote di mercato, che deriva dalla
costante preoccupazione circa le reazioni dei rivali;
Stabilito che le imprese tendono a fissare i loro prezzi con l'obiettivo di coprire il costo medio
(compresa una quota di profitto) relativamente ad un ipotetico volume di produzione, ne deriva
che le variazioni della domanda che si verificano successivamente alla fissazione del prezzo non
influiscono sull'azione dei sinistri quindi i prezzi tendono ad essere rigidi rispetto alle variazioni
della domanda. Gli autori in parola riconobbero tutta via più importanti eccezioni al principio della
rigidità dei prezzi:
• La prima si verifica nel caso in cui la caduta della domanda sia di notevole entità e durata. In
questo caso le considerazioni circa la piena utilizzazione della capacità produttiva prevalgono
sulla preferenza accordata alla stabilità dei prezzi, ossia sul principio della quieta non muovere
che caratterizza il comportamento interdipendente degli oligopolisti.
• La seconda eccezione si verifica allorché i costi di produzione di tutte le imprese si modificano
simultaneamente in uguale proporzione, come nel caso di un'innovazione tecnologica o di un
aumento del costo del lavoro. In questo caso le imprese tenderanno ricalcolare il costo pieno in
modificheranno conseguentemente il prezzo, e si avrà pertanto un'azione simultanea di
aumento dei prezzi che ne adeguerà il livello ai nuovi costi di produzione e ciò avverrà senza
che le quote di mercato delle singole imprese subiscano alcuna modificazione. La variazione
simultanea dei costi di produzione determina la scomparsa dell'angolo che caratterizza la curva
di domanda in Mattia dalla singola impresa di populistica.
15.2 CRITICHE ALLA TEORIA DELLA DOMANDA AD ANGOLO E SUA EFFETTIVA
APPLICABILITA’
La teoria della curva di domanda spezzata fu in un primo tempo considerata alla stregua di una
teoria generale dell'oligopolio, grazie alla sua attitudine predittiva ed esplicativa circa il fenomeno
della rigidità dei prezzi nei settori oligopolistici, mentre, in una fase successiva, fu sottoposta ad
una serie di ripensamenti critici.
Un ampio esame critico della teoria fu condotto da Stigler, con l'obiettivo di verificarne la
consistenza teorica e la rispondenza alle dinamiche effettivamente registrate dei prezzi di settori
oligopolistici. Sotto il primo profilo egli si propose di esaminare analiticamente i vari fattori da cui
dovrebbe dipendere l'ampiezza della discontinuità della curva dei ricavi marginali, e quindi
l'effettiva staticità dei prezzi praticati dalle singole imprese di fronte a variazioni della domanda e/o
dei costi di produzione.
Innanzitutto si dovrebbe definire il grado di concentrazione assoluta del settore cui potrebbe
corrispondere un comportamento interdipendente del tipo di quello ipotizzato da Sweezy e da
Hall e Hitch. Tale livello di concentrazione fu identificato in un numero di imprese con po'
compreso tra 5 e 10. Se il numero delle imprese operanti nel settore fosse minore, vi sarebbe
un’elevata probabilità che le imprese instaurino un comportamento collusivo. In questo caso nella
curva di domanda immaginaria della singola impresa non comparirebbe l'angolo ipotizzato da
suites in corrispondenza al prezzo di mercato o comunque la variazione della società sarebbe di
scarso rilievo. Se, al contrario, il numero delle imprese fossi maggiore di 10, la variazione del
prezzo effettuata da una singola impresa potrebbe non essere avvertita dalle altre, e quindi non
azioni di ritorsione.
A tal proposito pare logico osservare che il comportamento interdipendente è il presupposto della
forma di mercato oligopolistica, e che, se tale presupposto non si verifica, non appare corretto
definire oligopolistico la particolare forma competitiva. Più in generale, pare opportuno notare che
la forma di mercato di oligopolio omogeneo non collusivo non si presta a una definizione
esclusivamente numerica: tale forma di mercato che essere definito solo in termini qualitativi,
sussiste cioè quando nel settore si riscontrano i caratteristici comportamenti fondati
sull'interdipendenza e sull'incertezza.
Un secondo ordine di osservazioni riguarda la concentrazione relativa del settore, ovvero la
distribuzione dimensionale delle singole imprese.se le dimensioni delle singole imprese non
fossero omogenee, sarebbe verosimile che una Price assume la funzione di price leader, in questo
caso non vi sarà incertezza nel settore circa il comportamento delle singole imprese.
Stigler inoltre puntualizzo che l'esistenza dell'angolo dipende dal grado di omogeneità del
prodotto e dall'impossibilità di concludere: tali due condizioni devono essere considerati impliciti
al modello di comportamento fondato sulla teoria della curva di domanda spezzata.
Le conclusioni di Sweezy non appaiono pienamente accettabili, perché tratte da contesti
caratterizzati da condizioni diverse da quelle assunte dall'ipotesi base del modello.in particolare,
tutti i settori esaminati mostravano fenomeni di collusione, dovuta all'esistenza di un'impresa
leader oppure collegabili alla simultaneità delle variazioni dei costi di produzione.
L’analisi di Stigler non ha quindi invalidato la teoria della curva di domanda spezzata, ma
semplicemente dimostrato che la tua infatti sono simultanei per tutte le imprese del settore ne
segue un comportamento collusivo ( il che era una delle conclusioni cui giungevano la variante
aziendalistica della curva di domanda spezzata di Hall e Hitch).
Se tale conclusione, che Stigler poteva trascurare considerate le caratteristiche del sistema
americano dell'epoca, può essere ammessa, nei deriva che se tutte le imprese di un determinato
settore operano sui medesimi mercati di acquisizione dei fattori e non esistono significative
differenze nella struttura delle imprese, il comportamento delle imprese in parola tenderà ad
assumere forme conclusive. Ma, evidentemente, altrettanto non può dirsi per le imprese che non
abbiano le medesime fonti di approvvigionamento dei fattori di produzione, cioè le imprese che
fanno parte di un oligopolio internazionale.
15.3 CASO DI SETTORI COSTITUITI DA IMPRESE DI DIVERSE DIMENSIONI
Con gli strumenti di calcolo è stato possibile rimuovere alcune ipotesi semplificatrici che
caratterizzano il modello di Sweezy e di estendere quindi l'analisi del comportamento
interdipendente degli oligopolisti a settori aventi vari gradi di concentrazione relativa.
Dal modello di simulazione della domanda particolare delle imprese oligopolistiche dovuto a
Momigliano è stata desunta una versione aggiornata della teoria della curva di domanda ad
angolo, molto più elaborata.
I fondamenti metodologici di tale modello differiscono da quelli che abbiamo visto essere la base
della teoria: in particolare Momigliano prescinde da congetture formulate a priori circa le reazioni
degli avversari e, al contrario, fa esclusivo riferimento ad elementi quantitativi (il comportamento
dell'impresa risulta quindi è deducibile non da ipotesi circa il comportamento delle altre imprese
bensì da elementi oggettivi che caratterizzano la struttura di mercato).
Questo modello è inteso a simulare gli effetti di una variazione di prezzo o della qualità del
prodotto da parte di uno o più competitori, e cioè a determinare la curva di domanda particolare
che ciascuna impresa può desumere dalla domanda generale del mercato, tenuto conto di un
elevato numero di possibili mosse effettuabili da parte delle aziende di competizione tra loro.
Un'applicazione semplificata del modello, riferita al caso di duopolio, prodotto omogeneo, e
nessuna sostituibilità con altri prodotti, consente di derivare, noti i coefficienti di elasticità (effetto
reddito ed elasticità di estrazione degli acquirenti tra i due oligopolisti), una serie di curve di
domanda particolare aventi forme di notevole interesse.
La curva di domanda particolare dell'impresa che fa la mossa di prezzo è costituita da una curva
che presenta sistematicamente un angolo con concavità rivolta verso il basso, se la quota di
mercato iniziale è superiore al 50%, e con concavità rivolta verso l’alto se la quota di mercato
iniziale è inferiore al 50%.
Da tale constatazione possiamo derivare le seguenti conclusioni:
• l'effetto della riduzione del prezzo di vendita da parte di un competitore sarà intanto maggiore
sul piano dell'incremento della sua quota di mercato in quanto minore è la dimensione relativa
dell'impresa;
• nel caso di settori oligopolistici costituiti da imprese di diverse dimensioni, le imprese più grandi
avranno nel settore una preferenza sistematica per la stabilità del prezzo di vendita, come ti ho
detto la teoria della curva di domanda spezzata mentre, al contrario, le imprese di minori
dimensioni tenderanno a mettere in atto comportamenti aggressivi sul piano delle politiche
commerciali, potendo beneficiare di un'elevata elasticità di sottrazione;
• se non esistono differenze nei costi di produzione delle singole imprese, la distribuzione
disomogenea delle dimensioni aziendali in termini di quote relative può condurre ad una forma
di mercato altamente instabile, e dal verificarsi di guerre di prezzi, che possono manifestarsi in
continui miglioramenti qualitativi del prodotto, nel rifiuto di seguire gli aumenti di prezzo deciso
dall'impresa leader, in altre forme di comportamento aggressivo.
Tentativo di trarre deduzioni circa il comportamento dell'impresa e perciò che attiene alla variabile
prezzo e, più in generale, le politiche commerciali oltre alle considerazioni circa l'elasticità di
sottrazione che concorre a determinare la curva di domanda particolare immagine delle singole
imprese, occorre tenere presente l'altra variabile fondamentale definita dei costi di produzione.
Il comportamento previsto dalla teoria della curva di domanda spezzata appare realistico qualora
le variazioni dei costi di produzione non siano simultanei per tutte le imprese e qualora le
dimensioni delle singole imprese siano all'incirca equivalenti.ma il modello di Momigliano
consente di rimuovere quest'ultima limitazione e di estendere il contenuto euristico della teoria a
casi di settori in cui esiste un'impresa leader.
Esistenza di un'impresa leader infatti è sovente associata ad una asimmetria dei costi di
produzione delle diverse imprese: se tale asimmetria non sussistesse ci si troverebbe
indubbiamente di fronte ad una struttura di mercato fortemente instabile.
Ma sei un'impresa leader esiste, e la sua posizione nei confronti delle imprese rivali si è
mantenuta stabile nel tempo, ciò significa che l'impresa deve poter fruire di qualche vantaggio
competitivo sulle altre, ad esempio per effetto di un costo medio unitario inferiore al costo
sostenuto dalle altre imprese. In questo caso il prezzo preferito dalla (o dalle) impresa minore è
superiore al prezzo praticato dall'impresa leader: le imprese minori sono pertanto più propense ad
aumenti del prezzo che non ad azioni di allargamento della propria quota di mercato, il cui
presupposto è la riduzione dei prezzi. Nella situazione descritta prevale dunque la linea delle
imprese leader, il cui comportamento, coerentemente a quanto esposto e condizionato da una
curva di domanda immaginata ad angolo, con concavità rivolta verso il basso.
In conclusione, se l'esistenza di un'impresa leader è dovuta a ragioni tecnologiche che si riflettono
in differenze assolute dei costi di produzione, le variazioni dei prezzi nel settore, di fronte a
variazioni della domanda e dei costi di produzione, tenderanno ad avere luogo secondo la
dinamica prevista dalla teoria della curva di domanda spezzata. Nel caso in cui non esistano
differenze nei costi di produzione invece, e si abbia una Price leader di carattere barometrico,
possono senz'altro verificarsi guerre di prezzi, come previsto dal modello di Momigliano, è
largamente verificato dall'esperienza di molti settori industriali.
15.4 REALISMO DELLA CURVA DI DOMANDA AD ANGOLO
Nella realtà economica l'azione delle variabili che agiscono sulla politica dei prezzi delle imprese
industriali, e più in generale sulle loro performance, avviene di norma in modo congiunto, così da
rendere estremamente difficile se non impossibile il tentativo di isolare il movimento dei costi,
della domanda, e della capacità produttiva utilizzata, e correlarne gli andamenti con le variazioni
dei prezzi. Il livello di aggregazione di dati attualmente disponibili non consente di distinguere
precisi contorni degli ambiti concorrenziali in cui prevalgono altre date forme di mercato, e ciò
rende indubbiamente opinabili le diagnosi circa l’applicabilità E la teoria della curva di domanda
spezzata all'interpretazione della dinamica dei prezzi industriali. Tuttavia non si può non rilevare
come le analisi attualmente disponibili sembrano concordare con le produzioni la teoria in parola.
Possiamo infatti dare quesito, grazie ai lavori di Sylos Labini, che la dinamica dei prezzi industriali
tende ad assumere le seguenti caratteristiche:
• Con riferimento al breve periodo si nota una scarsa elasticità dei prezzi rispetto alle variazioni
dei costi diretti. Tale elasticità ha un valore nettamente inferiore all'unità sia in Italia che negli
Stati Uniti. Il margine lordo o, se si preferisce, il markup, non è quindi mai costante e, in
particolare, diminuisce temporaneamente nelle fasi di aumento dei costi di produzione diretti;
• Nel lungo periodo l'elasticità dei prezzi rispetto alle variazioni dei costi tende ad essere
sistematicamente uguale all'unità.ciò confermerebbe pienamente la metodologia di formazione
del prezzo ricordata in precedenza; I prezzi risulterebbero determinati dei costi diretti +1
margine di ricarico (markup) costante, idoneo a coprire i costi generati e ad assicurare un
profitto soddisfacente.
• In riferimento alla relazione prezzi domanda, le variazioni di quest'ultima non sembrano
influenzare i prezzi e in particolare le diminuzioni della domanda danno luogo a una uguale
diminuzione dell'offerta, così che i prezzi rimangono costanti.
Le caratteristiche delle dinamiche dei prezzi ora delineate non consentono di risolvere in modo
soddisfacente i molti interrogativi che tutta la sussistono in ordine alla formazione dei prezzi, ma
forniscono indicazioni di carattere generale circa le performance aziendali relativamente alle
variazioni di talune quantità-base.
Il margine lordo risente pesantemente delle fasi di accelerazione del saggio di crescita del costo
del lavoro, e ciò può essere indice dell'impossibilità di trasferire pienamente sui prezzi
l'incremento dei costi unitari del lavoro, al netto degli incrementi di produttività. Le concrete
performance dell'impresa in condizioni di inflazione offrono solo una dimostrazione in negativo, e
cioè che le imprese non usano il criterio del full cost pricing, ma si attengono ad una logica
marginalistica che nel complesso appare ancora da esplorare.
Analisi condotta a maggiore livello di disaggregazione potrebbe condurre ad passi sul piano della
comprensione delle cause della crisi industriale, e fornire utili indicazioni sul piano delle terapie. In
particolare i buoni risultati si possono intravedere in un'analisi condotta sui seguenti livelli:
• collegamento tra la forma di mercato che prevale nei vari settori industriali, andamento della
domanda di settore, e politica dei prezzi;
• effetti della variazione di taluni costi non compresi nella categoria dei costi proporzionali.
Quanto al primo tema, appare già correntemente accettata la distinzione tra settori esposti alla
concorrenza internazionale e settori protetti, e chiari appaiono gli effetti della variazione della
domanda sulle politiche dei due aggregati di imprese. Sylos Labini notava in proposito che nei
settori in cui si stanno sviluppando forme competitive definibili di oligopolio internazionale, e nei
settori in cui tale forma competitiva è già una realtà, il movimento dei prezzi in relazione alle
variazioni della domanda, dipende essenzialmente dal livello della capacità produttiva utilizzata
non in singolo mercato ma nell'insieme dei mercati di tutti i paesi industrializzati: in tali settori
sono infatti presenti le caratteristiche delle forme competitive oligopolistiche a livello
internazionale come la price leadership e forme di collusione esplicita e implicita. Per cui un
aumento della domanda può comportare un aumento dei prezzi solo se il limite è il pieno
sfruttamento della capacità produttiva è raggiunto simultaneamente in tutti i paesi che
compongono il mercato internazionale, mentre, nel caso contrario, l'aumento della domanda non
fa seguito necessariamente l'aumento dei prezzi.
Concludere che se le imprese concorrenti che operano in altri paesi hanno capacità inutilizzata, la
linea di azione più conveniente non è quella di alzare il prezzo, ossia di massimizzare i profitti di
breve periodo. Ma, se anche le imprese concorrenti hanno raggiunto il limite di pieno sfruttamento
della capacità degli impianti, allora non ci sono più ostacoli all'aumento del prezzo, uno dei
produttori quindi può dire da Price leader e gli altri seguiranno.
A tali considerazioni se ne possono aggiungere alcune sugli effetti delle variazioni dei costi di
produzione in tali contesti: sulla curva di domanda particolare di un altro impresa compare
verosimilmente un angolo allorché i costi di produzione di quella impresa aumentano, mentre
rimangono costanti i costi delle imprese rivali. Un aumento del costo del lavoro di qualche altro
costo diretto, per una particolare impresa, all'effetto con riferimento al breve periodo di ridurre il
markup dell'impresa medesima. Tale flessione rimarrà costante fino a quando un analogo
aumento si determina i costi di produzione degli altri imprese. Solo in questa seconda fase, infatti,
l'impresa potrà dare luogo ad un aumento del prezzo senza dover temere di non essere seguita
dall'imprese rivali, e ricostituire quindi il mercato originario contando sulla collusione prevista da
Hall e Hitch. Perché in proposito Sylos Labini che "quando i costi diretti aumentano, le imprese
che operano da Price leader se possono deliberatamente evitato di trasferire integralmente gli
aumenti dei costi di produzione e sui prezzi per timore della concorrenza estera che si manifesta
in un accrescimento delle importazioni e/o in una diminuzione delle esportazioni”.
Tale dinamica assume particolare intensità nei contesti inflazionistici e in presenza di cambi
flessibili.
- COSTO DEL CAPITALE FINANZIARIO E PREZZI INDUSTRIALI
Un secondo ordine di indagini che offre buone prospettive sul piano della comprensione delle
cause sottese all'insoddisfacente performance dell'industria manifatturiera italiana va riconosciuto
nello studio dell'andamento del costo del capitale finanziario per le imprese manifatturiere, delle
modalità attraverso cui gli oneri finanziari entrano nel processo decisionale volto alla
determinazione dei prezzi, del rapporto in definitiva che sussiste tra costo del capitale finanziario
e performance delle imprese industriali.
Obiettivo di tale indagine è delineare la relazione tra costi finanziari e performance, tenendo conto
delle forme di mercato delle possibili condotte delle imprese. Osservazioni empiriche fatte a livello
aggreagato ci dicono che al progressivo aumento dei saggi di interesse fa riscontro la diminuzione
della quota di reddito nazionale a disposizione delle imprese, con la flessione del reddito
nazionale è un parallelo aumento della quota di reddito nazionale degli intermediari finanziari di
quasi uguale entità. Con ciò si intende dare per dimostrata la tesi della rendita bancaria, dato che
la flessione della quota di reddito nazionale delle imprese, del parallelo aumento della quota degli
intermediari finanziari, va spiegato anche alla luce della diversa composizione dei flussi finanziari
dell'economia e del progressivo estendersi servizi resi dagli intermediari finanziari.tuttavia il
fenomeno suggerisce una relazione di causa effetto tra l'aumento dei costi finanziari e la flessione
dei margini di profitto dell’industria.
E chiaro che osservazioni svolte a livello aggregato si limitano a segnalare l'esistenza di un
problema, e non ne possono certamente chiarire la natura.in questa prospettiva riteniamo che due
ordini di approfondimenti siano opportuni: l'analisi delle cause che determinano la crescita dei
costi finanziari e l'esame dei meccanismi attraverso i quali le imprese possono ripetere i prezzi le
variazioni degli oneri finanziari.
Sotto il primo profilo non vi sono dubbi che la crescita del costo del capitale per le aziende
dipende da un generale aumento dei saggi di interesse, significativamente correlati all'incremento
dei prezzi. Ad avviso di chi scrive non vi dovrebbero esservi dubbi circa la stretta connessione di
cause di effetto tra la perdita del potere di acquisto della moneta in rialzo dei saggi di
interesse.ma esiste anche un'altra causa dell'aumento dei costi finanziari per le imprese in periodi
inflazionistici, causa che può essere riconosciuta nell'incremento dei fabbisogni finanziari, ed in
particolare nell'aumento della quota di fabbisogno finanziario che deve essere coperta mediante il
ricorso a mezzi di terzi. Notava in proposito Sylos Labini che “quando il costo diretto aumenta,
l'impresa, almeno in una prima fase, deve finanziare le maggiori spese che debiti a breve termine,
e cresce l'onere degli interessi" e tale affermazione merita un approfondimento, che può essere
ricercato nella teorizzazione effettuata da Lintner sui rapporti tra inflazione e quotazioni azionarie.
Supponiamo di considerare un'impresa steady state che si trova a fronteggiare un incremento
generalizzato dei prezzi il cui stock di capitale e il cui fabbisogno di investimento sono
proporzionali al volume di produzione, misurato in termini di unità fisiche. Supponiamo inoltre che
l'ammortamento sia effettuato in base ai costi di rimpiazzo, le imposte siano date da una
percentuale fissa dei profitti, e così pure i dividendi e che i prezzi consentano di determinare una
percentuale fissa di profitto lordo sul valore delle scorte valutati al costo di sostituzione.
Supponiamo infine che le spese amministrative e di vendita siano proporzionali al volume
monetario delle vendite. Tutte queste ipotesi si può agevolmente dimostrare che l'incremento del
fabbisogno finanziario che deriva dall'espansione degli investimenti fissi è superiore
all'autofinanziamento di una proporzione fissa del volume delle vendite. L'aumento dei prezzi
inoltre determina un incremento dei fabbisogni per capitale circolante, che possiamo supporre
proporzionale alla variazione monetaria delle vendite.
Ci pare quindi di poter dare per acquisito che in circostanze normali il movimento dei prezzi
all'effetto di far crescere gli oneri finanziari a carico delle imprese, sia in termini reali, perché
aumenta la proporzione del finanziamento esterno.i concreti effetti di quanto sopra sulle
performance dell'impresa dipenderanno in conclusione delle diverse combinazioni che assumono
di volta in volta: il tasso di inflazione; il rialzo dei saggi di interesse; la composizione organica del
capitale dell'impresa; la possibilità di variare il margine lordo.
18. LA DOMANDA AGGREGATA COME FATTORE DELLA PRODUTTIVITÀ
18.1 LA LEGGE DI KALDOR-VERDOORN
La connessione tra la domanda di mercato e la produttività di un'industria, o del sistema
economico nel suo complesso, rappresenta un fenomeno la cui individuazione era già presente
sin dagli albori della scienza economica moderna, cioè dalla pubblicazione della ricchezza delle
nazioni di Adam Smith. In particolare il suo terzo capitolo, dal titolo The Division of Labour is
Limited by the Extent of the Market, esprime il concetto che la produttività del lavoro, la quale
deriva principalmente dalla specializzazione (divisione) del lavoro e degli strumenti tecnici
(capitale), è una funzione crescente della dimensione del mercato e, in definitiva, della domanda e
della produzione.
Nel breve periodo, se hai bisogno capacità produttive non pienamente utilizzate, la crescita della
produzione da luogo ad una diminuzione dell'incidenza dei costi fissi per unità di prodotto che
eventualmente si somma alla crescita della produttività derivanti dalla specializzazione del lavoro;
nel lungo periodo ciò si verifica quando siano presenti fenomeni quali le economie di scala, le
curve di apprendimento, o comunque innovazioni tecniche o di organizzazione dei processi
produttivi che hanno l'effetto di aumentare la produttività del capitale e/o del lavoro, ovvero
diminuire l'incidenza del loro costo per unità di prodotto.
Una formalizzazione statistica della relazione prodotto-produttività del lavoro è esposta nel
modello elaborato in origine da P. Verdoorn (1949), che è stato successivamente ampliato da
Nicholas Kaldor(1966, 1975) e conosciuto come legge di Karlor-Verdoorn.
Sulla base di tale legge è possibile ricavare prescrizioni sulla verosimiglianza dei parametri assunti
nei processi di pianificazione (ovvero determinare il fabbisogno di manodopera per i dati
incrementi della produzione) ma soprattutto indurre l'esistenza di relazioni dirette di lungo periodo
tra la crescita della domanda e della produzione e la crescita della produttività, relazioni che
rappresentano uno tra i più importanti fattori del meccanismo dello sviluppo.
Tale legge può essere analiticamente rappresentata dalla seguente equazione:
Nella figura viene esposto il modello circolare basato sulla relazione di causalità diretta tra crescita
e produttività lo schema teorico è molto semplice permette di focalizzare immediatamente il
circolo virtuoso o vizioso da un incremento o da una caduta della domanda.
La rielaborazione della legge da parte di Kaldoor prende lo schermo più flessibile e più utili ai fini
delle decisioni di politica economica e di pianificazione dell'imprese. Egli ha fornito una
spiegazione del fenomeno osservato, mettendo in relazione con:
• La presenza di economie di scala e di curve di apprendimento;
• la rilevanza della specializzazione dell'impresa e dell'interazione tra queste;
• la presenza di progresso tecnico endogeno e incorporato nel capitale (investimenti);
Inoltre osservava anche che la relazione dinamica tra produttività e crescita riguarda
prevalentemente il settore dell'industria manifatturiera, settore che costituisce il principale
propulsore dello sviluppo economico, e la cui capacità di crescita si riflette con effetti moltiplicativi
sugli altri settori dell’economia.
Ne segue l'ovvia constatazione che il divario tra i tassi di crescita delle diverse economie può
essere semplicemente spiegato in termini di differenziali dei tassi di sviluppo delle rispettive
industrie manifatturiere, nel senso che la crescita risulta più elevata dove la presenza dell'industria
manifatturiera è più forte.
È vero che il minor peso dell'industria manifatturiera può in qualche modo diminuire la portata
degli effetti del circolo virtuoso, si può però sottolineare che questo prendere una parte per il tutto
(salvati, 1975) da parte di Verdoorn, nel caso specifico, risultava il risulta accettabile sulla base
delle verifiche empiriche della ragionevole previsione che la relazione si mantenga stabile per
lunghi intervalli di tempo. È indubbio inoltre che il terziario avanzato può largamente contribuire
all'incremento di produttività dell'industria, incremento che viene quindi alimentato sia dal
carburante domanda sia da fattori esogeni allo schema descritto.
Gli incrementi di produttività, che si traducono in maggiore competitività, spiegano
prevalentemente in termini di economie di scala, curve di apprendimento, più razionale
utilizzazione del fattore lavoro, oltre che per effetto degli investimenti lui di sostituzione.
Questo profilo la legge si connette all'analisi di Solow(1957) e quelle successive di Mankiw, Romer
e Weil (1992) sul ruolo dell'innovazione nella spiegazione della crescita della produttività.
Le numerose significa empirica della legge di caldo rover Dorno mostrano l'esistenza di una
relazione prodotto (domanda)-produttività abbastanza costante anche se in misura differente da
paese a paese. Il circolo virtuoso o vizioso domanda-produttività non costituisce per certo l'unico
meccanismo di sviluppo: ai fini dello sviluppo assumono importanza decisiva anche il tasso di
accumulazione e del contesto istituzionale, il primo perché incorpora le innovazioni che
influenzano la produttività del lavoro mentre il secondo in quanto riflette gran parte delle
esternalità che condizionano i processi produttivi e perché determina una serie di opportunità e
vincoli esterni all'operare del sistema industriale. Pertanto è evidente che nel lungo periodo
possono emergere discordanze anche notevoli tra i tassi di sviluppo del reddito e
dell'occupazione nei diversi paesi determinando differenze che non risultano spiegabili in base
alle condizioni generali della legge di KV.
18.2 PRODUTTIVITÀ, COMPETITIVITÀ E MARGINI DI PROFITTO
Lo schema esaminato ha un limite che è costituito dal considerare solo indirettamente i prezzi e
quindi considerare sostanzialmente sinonimi i termini produttività e competitività, i quali non ci
siamo aperto alla concorrenza internazionale non sono necessariamente coincidenti.pur
registrando andamenti positivi della produttività fisica, un settore potrebbe infatti perdere
competitività in seguito una dinamica dei costi unitari più accentuata di quanto accade ai propri
concorrenti.il circolo virtuoso domanda-produttività-domanda che può essere indotto del modello
KV potrebbe interrompersi a causa della sottrazione di quote crescenti del mercato da parte di
nuovi competitori, i quali fruiscono di costi unitari del lavoro inferiori o comunque gli elementi che
ne stimolano maggiormente l'incremento della competitività.il modello perciò dovrebbe
considerare in modo esplicito non solo le variazioni della quantità ma anche il livello dei prezzi e
dei costi di produzione.
I primi due elementi della parte destra dell'equazione descrivono l'effetto del moltiplicatore/
acceleratore keynesiano, perché:
• Nella prospettiva macroeconomica la crescita degli occupati (L) o dei saggi salariali (w) si
tradurrà in ulteriore crescita della domanda(q) per effetto della crescita dei consumi
(moltiplicatore dei consumi);
• Prospettiva di singole industrie e imprese la variazione di L può essere assunta come una proxy
dell'espansione della capacità produttiva (producibilità) e ciò mostrerebbe che la crescita della
domanda si traduce in una crescita della capacità produttiva che può incorporare innovazioni, il
cui effetto può ulteriormente riflettersi sulla produttività. Le variazioni di w rappresentano la
propensione dell'impresa concede dei premi di produzione incentivi in relazione al
conseguimento di incrementi di produttività. Il valore di y infine esprime l'inverso delle variazioni
della competitività, ovvero la possibilità di praticare prezzi di vendita inferiori senza ridurre il
margine lordo mk. Ciò significa che è una crescita esogeno della domanda può riflettersi in un
ulteriore crescita (moltiplicatore della competitività) attraverso il miglioramento della
competitività e del conseguente allargamento della quota di mercato detenuta dall'impresa o
dall'industria nazionale.
19. LA POLITICA INDUSTRIALE IN ITALIA (1945-1980)
Le caratteristiche specifiche del sistema industriale italiano sono costituite dai fattori originari (il
ritardato avvio del processo di industrializzazione, la debolezza finanziaria dell'industria, il
protezionismo doganale) e i fattori che ne hanno caratterizzato lo sviluppo (l'estensione della
Repubblica, il dualismo tra Nord e il Mezzogiorno).
È molto nota la forma di dualismo che caratterizza la struttura industriale italiana, dove, accanto
ad un numero ristretto di grandi imprese convive una moltitudine di imprese di piccole dimensioni
con caratteristiche ed esigenze spesso in contrasto con le prime. In tale quadro la definizione di
una strategia industriale a posto sempre problemi molto complessi e in effetti una formulazione
esplicita della politica industriale attardato, in Italia, fino al 1977 ed ho avuto peraltro vita
brevissima. La storia dello sviluppo industriale italiano è infatti la storia di uno sviluppo
incompiuto, ed il dualismo industriale ha dato luogo anche ad un dualismo nella politica per la
pressante esigenza di svolgere una politica industriale dell'offerta che superasse inerzia del
sistema industriale nei confronti dei problemi in parola.
I rapporti tra governo e industria dal dopoguerra si sono mossi nel quadro di una più grade Shiva
progressiva abolizione della protezione doganale, e di qui una ulteriore esigenza di sostenere
l'offerta con trasferimenti ed altri sostegni di carattere finanziario. La debole struttura dell'industria
italiana era meno di altri in grado di provvedere in via autonoma, sostituendo alle condizioni
tariffarie e barriere oligopolistiche, che consente che consolidassero la presenza italiana in
determinate aree di mercato. Il filo conduttore della politica industriale italiana è costituito dalla
continua oscillazione tra necessità di fare riferimento a quelli che al tempo erano i tradizionali
punti di forza dell'industria del nostro paese (basso costo del lavoro, rapporti di scambio
favorevoli tra le nostre importazioni ed esportazioni, sostegno della domanda estera) e la
decisione di avviare un nuovo modello di sviluppo. In questa alternanza di vicende congiunturali
hanno fatto quasi sempre prepari le la prima. Analogamente le qualità del management pubblico
rappresentato un forte limite al successo degli esperimenti di programmazione.
19.2 IL DOPOGUERRA E I PRIMI STUDI SULLA PROGRAMMAZIONE (1945-1947)
I primi tentativi di intervento sull'industria hanno prevalente riguardo la necessità di rifornimento di
materie indispensabili per la ripresa dell'attività industriale, oltre a rifornimenti alimentari.
Il primo documento di cui sia notizia è intitolato "Programma delle importazioni essenziali per il
1945" (che in seguito diverrà il "Piano di primo aiuto”). Redatto dal comitato interministeriale per
la ricostruzione (Cir) e dalla Commissione alleata di controllo, esso venne modificato in seguito al
recupero dei territori occupati del Nord e delle relative attrezzature industriali nel "Piano di
massima per le importazioni industriali dell'anno 1946", che intendeva sottoporre al governo
italiano e all'autorità alleata di controllo (UNited Nations Relief and Rehabilitation Administration)
un esame delle potenzialità produttive dell'industria italiana e un quadro relativamente dettagliato
dei fabbisogni di importazioni di merci.
Secondo P. Saraceno il loro principale obiettivo era quello di eliminare possibili strozzature allo
sviluppo dell'industria e non il mutamento strutturale del sistema. Un tentativo che merita
menzione è lo studio effettuato per conto del consiglio economico nazionale della democrazia
cristiana, partito che aveva ormai assunto la guida del governo) da P. Saraceno. In tale
documento si propone la pubblica amministrazione come elemento centrale della
programmazione della politica industriale delineando "una forte espansione della domanda di
prodotti, ottenuta attraverso una massiccia spesa pubblica". Un'esplicita richiesta di creare una
solida base di domanda interna per lo sviluppo industriale mentre, la strada che verrà poi
definitivamente imboccata, sarà l'opposto: il rapporto tra industria pubblica amministrazione non
verterà sull'attivazione della domanda interna, bensì su trasferimenti alle imprese destinate a
divenire col tempo sempre più generalizzati a massicci.
19.3 L’AMMINISTRAZIONE CENTRISTA DI DE GASPERI (1948-1953)
Il periodo sei inaugura con la stesura di un nuovo piano del comitato interministeriale per la
ricostruzione, reso necessario per l'utilizzazione dei fondi messi a disposizione dall'European
Recovery Program (noto come piano Marshall). L'obiettivo dominante di ispirazione del piano è il
riequilibrio dei conti con l'estero e lo strumento principale è un meccanismo che consenta di
attivare i settori esportatori: si tratta del fondo Imi-Erp, il cui decreto istitutivo prevede la
concessione di finanziamenti per consentire ad aziende industriali italiane l'acquisto di materie
prime, macchinari, attrezzature, beni e servizi occorrenti alla ricostruzione e allo sviluppo
dell'esportazione italiana.
La scelta originaria della politica industriale italiana e dunque chiara: da un lato la spinta verso
un'economia aperta mediante lo sviluppo dei settori esportatori, dall'altro l'attivazione di
meccanismi di trasferimento in modo da guidare lo sviluppo dei settori secondo gli obiettivi
politico-economici prestabiliti, una scelta destinata a divenire una costante della nostra politica
industriale.
Il comitato, quale organo collegiale italiano chiamato ad esprimere il giudizio finale sulla
accoglibilità di domande di finanziamento, fissava alcuni criteri di priorità riguardanti determinati
settori chiave nell'economia industriale italiana, e precisamente siderurgia, fonti di energia,
industria meccanica e chimica (cui fu aggiunto, per suggerimento degli esperti del Dipartimento di
Stato USA, il settore tessile).
Nel periodo in parola fu anche condotto il primo tentativo di mettere appunto moderni strumenti di
analisi per il governo dell'industria, con la costruzione di una matrice rettangolare (200 X 60) ad
opera di Chenery e Clark.
A tale impostazione della politica industriale facevano contrasto le richieste della sinistra che,
seppur mantenendosi in uno schema di tipo keynesiano, chiedevano che il motore dello sviluppo
non fosse costituito dalla domanda estera bensì dai lavori pubblici. Su questa linea muoveva il
cosiddetto "Piano del lavoro" proposto dalla Cgil nel congresso di Genova del 1949, che
consisteva in un'anticipazione di alcuni temi tuttora al centro del dibattito politico economico, in
particolare un programma di costruzione di centrali elettriche e di altri investimenti pubblici da
finanziarsi con le riserve valutarie esistenti.
Ultimo tratto di politica industriale da tenere conto rilevato in questo periodo è l'atteggiamento nei
confronti della cosiddetta mobilità, ossia degli interventi a sostegno delle imprese in crisi. La
riconversione bellica ha inizio all'insegna del non intervento e della riallocazione delle risorse
produttive affidata ai meccanismi di mercato: numerose imprese dell'area privata sono indotte alla
chiusura dall'interruzione del flusso delle commesse belliche e dall'incapacità di trovare una
nuova collocazione nel campo delle produzioni civili.
Assai diverso invece il caso dell’industria cantieristica, per le obiettive difficoltà di ricollocare la
manodopera esuberante in altri settori, si suggerisce di condurre un intervento di sostegno del
settore in grave crisi per mancanza di commesse. E a questo scopo che viene istituito il fondo
industria meccanica, 1947, il cui obiettivo consisteva nella somministrazione di credito all'impresa
impossibilitate a utilizzare le vie ordinarie. Il fondo poteva tuttavia intervenire anche mediante
l'acquisto di partecipazioni, e per questa via si determinò rapidamente un allargamento dell’area
nell'industria. Tale intervento inaugura un altro tratto caratteristico della politica pubblica per
l'industria: il sostegno di imprese in crisi mediante trasferimenti da parte dello Stato.
19.4 LA POLITICA INDUSTRIALE NELLO “SCHEMA VANONI”
Con il 1953 si può dire concluso il periodo della ricostruzione, e la politica industriale viene
influenzato dal radicale cambiamento degli obiettivi generali di politica economica.dalla
dominanza dell'obiettivo di espansione delle esportazioni si passa al prevalere dell'obiettivo della
piena occupazione e dell'attenuazione degli squilibri territoriali tra il Nord e il Mezzogiorno.
Le linee guida della politica economica risultano per la prima volta chiaramente definite nello
"schema di sviluppo dell'occupazione e del reddito in Italia nel decennio 1955-1964”, meglio noto
come “Schema Vanoni”.
Tale documento, presentato in parlamento all'inizio del 1955, identificava come obiettivi uno
sviluppo annuo del reddito nazionale del 5%, la creazione di 4 milioni di posti di lavoro aggiuntivi
e la riduzione degli squilibri territoriali tra Nord e Sud. Lo schema appariva particolarmente debole
sotto il profilo della strumentazione: a questo scopo fu costituito un "Comitato per lo sviluppo
dell'occupazione e del reddito" presieduto da Saracino nel 1956 composto da 26 membri, inclusi i
rappresentanti degli reali e dei sindacati. Il comitato produsse in tutto sei memorie, due delle quali
avevano diretto rilievo per la politica industriale.
Il primo tra gli studi citati riguarda l'energia elettrica.l'obiettivo dichiarato era quello di evitare
l'insorgere di colli di bottiglia dal lato dell'offerta di energia e di determinare le occorrenze di
carattere finanziario connesse allo sviluppo del settore.
Tuttavia, un effettivo contributo dello schema Vanoni sul piano della politica industriale si ebbe nel
campo della siderurgia, con la monografia dedicata allo sviluppo del settore siderurgico che può
essere considerato come il primo piano di settore predisposto in Italia.
Il "piano siderurgico" si articola in una valutazione della domanda di acciaio proiettata nel 1962,
nella stima dell'andamento dell'offerta, distinguendo l'offerta proveniente dalla trasformazione di
minerale da quella proveniente da rottame, in una analisi dell'opportunità della costruzione di un
grande stabilimento a ciclo integrale (il quarto centro siderurgico italiano).
Il piano dette luogo, con qualche ritardo, al centro siderurgico di Taranto (primo e unico esempio
di realizzazione diretta di programmazione settoriale nel quadro dello schema Vanoni).
Allo scopo di evitare un eventuale duplicazione di iniziative, il programma si poneva a scoraggiare
altre iniziative (a meno che queste non fossero collocate nel sud) attraverso la regolazione già in
atto del mercato finanziario.
Importante notare che il l’Iri aveva già svolto però in modo autonomo un impegnativo programma
di riconversione, il cosiddetto "piano Sinigaglia", concepito nel 1948 e portato a conclusione nel
1954. Questo aveva dato luogo a rifacimento degli impianti di Bagnoli e Piombino e della
ricostruzione del terzo centro siderurgico a ciclo unico integrale di Cornigliano, ma aveva anche
delineato un'autentica strategia di settore, definendo gli spazi attribuiti alla siderurgia provata in
considerazione della migliore adattabilità delle imprese private a quelle aree di mercato per effetto
dei loro maggiore elasticità e flessibilità produttiva e gestionale.
Con la sola eccezione appena ricordata, la programmazione industriale si trasferisce
definitivamente in questo periodo all'interno delle imprese stesse. Ciò deriva in parte dalla
oggettiva debolezza della programmazione nazionale e in parte dal fatto che il brillante
andamento dell'industria, trascorsa la depressione del 1957-58, superava largamente i traguardi
stabiliti dalla programmazione, per cui si faceva strada il principio del primum non ledere, ossia
della non ingerenza i meccanismi la cui efficienza superava le aspettative.
C'è da dire che gli stessi personaggi più rappresentativi della politica industriale italiana
ritenessero al tempo inapplicabili al nostro paese gli schemi di programmazione messi in atto
all’estero.
Le politiche di settore prendono forma all'interno dei maggiori gruppi: così è per la siderurgia e la
meccanica (Iri), per l'energia (Eni), per la chimica (Montecatini) e per l'automobile (Fiat).
La politica pubblica di governo dell'industria si avvale piuttosto di strumenti orizzontali, quali gli
incentivi per l'industrializzazione del mezzogiorno e i trasferimenti a favore di particolari categorie
di imprese.
Tra questi ultimi lo strumento di maggiore rilievo attivato nel periodo è la legge numero 623 del
1959, per il credito agevolato alle piccole e medie imprese congiuntamente all'istituzione del
Mediocredito centrale. Nata dalle preoccupazioni suscitate dalla recessione del 1958 la legge
coglierà l'obiettivo di favorire l'allargamento della base industriale delle aree di industrializzazione
tradizionale (il triangolo Lombardia-Piemonte-Liguria) a nuove aree del Centro-Nord (l'Emilia, il
Veneto, la Toscana) il cui sviluppo si fonda appunto sulle imprese di dimensioni piccole e medie.
19.5 LA FINE DELLA RAPIDA CRESCITA, IL PREVALERE DEGLI STRUMENTI DI BREVE
PERIODO (1963-68)
Il periodo di transizione dallo schema Vanoni al “Programma economico nazionale 1965-69"
avviene un brusco mutamento del quadro economico e politico. Il forte aumento del costo del
lavoro e di timori diffusi tra la borghesia imprenditoriale della nazionalizzazione dell'energia
elettrica (legge 6, 1962, numero 1943) ed un netto peggioramento dei conti con l’estero.
Il costo del lavoro gratuito di prodotto, Internet, tenuto conto della stabilità dei prezzi
internazionali, aumentato meno del 10%: ci vedermi no quindi il doppio effetto di flessione dei
margini di profitto e della comparsa di un consistente deficit della bilancia commerciale.
In questa prospettiva si producono rapidamente alcuni avvenimenti che segneranno in modo
duraturo le linee di sviluppo dell'industria italiana negli anni successivi.
La prima considerazione riguarda la contrapposizione di interessi che viene a formarsi nell'ambito
del sistema industriale. Nella lunga fase di sviluppo che precede la crisi del 1963-64, i fattori
trainanti della crescita industriale sono la domanda estera domanda di beni strumentali.
In tale fase non esiste alcuna contraddizione tra settori ad alta intensità di lavoro orientate
all’esportazione (tessile, meccanica, automobile) e settori pesanti, nota intensità di capitale, in
genere meno competitivi all'estremo che trovano all'interno una base sufficiente per il loro
sviluppo (chimica, metallurgica).
Il rialzo del costo del lavoro e l'avvio di un processo di inflazione interna sospinto dei costi
determina una perdita di competitività all'estero che proponi due emisferi dell'industria italiana
strategie diverse: per la prima il problema centrale è il recupero della competitività, che può
essere raggiunto mediante una manovra restrittiva che elimini il fattore originario di squilibrio (la
piena occupazione raggiunta nel Nord per il lavoro qualificato), mentre per il secondo inflazione
interna non rappresenta un pericolo immediato ed anzi favorire un processo di alleggerimento
dell'indebitamento finanziario.
La seconda considerazione riguarda la strumentazione con la quale il governo si trovava nella fase
in parola. Nulla di ciò sia per il regime di transizione in cui si trovava la programmazione (dalla
"commissione Papi" al "rapporto Saraceno" al "Progetto di programma Giolitti"), sia per il rifiuto
opposto alla proposta di La Malfa per l'adozione di una politica di redditi sul modello
dell'esperienza inglese e della versione francese.
Gli unici strumenti erano costituiti dalla politica monetaria creditizia e dalla politica di trasferimenti
mediante le leggi di agevolazione finanziaria.
Per quanto riguarda l'uso di strumenti strutturali (esaurita sì la spinta riformistica del disegno di
nazionalizzazione dell'energia elettrica), quale il sistema delle partecipazioni statali, si manifestano
numerosi contrasti tra chi vorrebbe vedere le imprese pubbliche come strumento in grado di
supplire alle deficienze dell'iniziativa privata, e chi adesso preferirebbe assegnare un ruolo
autonomo, da definirsi all'interno dei gruppi medesimi.
Infatti le imprese a partecipazione statale sono ancora largamente autosufficiente sotto il profilo
finanziario, e dunque assai meno condizionabile dal potere politico di quanto non accadrà in
seguito. In tale periodo tutta via si intensificano le pressioni sul sistema delle partecipazioni statali
per gli interventi di salvataggio di imprese in crisi.
Sugli orientamenti da assumere nell'uso degli strumenti congiunturali le autorità monetarie sembra
oscillare per un breve periodo. Di fronte alle resistenze che le autorità monetarie internazionali
avrebbero dimostrato all'ipotesi di un eventuale svalutazione della lira, non restava altra via
praticabile se non quella della politica deflattiva, che ha appunto inizio con la restrizione creditizia
della seconda metà del 1963.
La manovra di stabilizzazione colpisce assai più violentemente settori a più alta intensità di lavoro.
Dall'esperienza maturata attorno alla crisi del 1963-64, hanno origine due ordini di riflessioni che
accompagnano la politica industriale italiana:
• La prima riguarda gli effetti direzionali della politica monetaria sull'industria. Si fa strada la tesi
secondo cui gli effetti della politica monetaria sarebbero più avvertiti delle imprese di dimensioni
minori che non da quelle più grandi, in virtù della maggiore autonomia finanziaria di queste
ultime. Sarebbe dunque possibile utilizzare la politica monetaria in funzione di politica
industriale, attuando una politica selettiva volta a favorire settori più forti a danno delle imprese
industriali destinate al declino. La strumentazione della strategia industriale si volgeva al breve
periodo, proprio nella fase in cui vigeva per la prima volta un programma economico nazionale;
• La seconda condizione riguarda la necessità di una ristrutturazione settoriale dell'industria
italiana, in modo da modificarne la composizione a beneficio di settori a più elevato contenuto
tecnologico.questa riflessione viene anche come conseguenza della più spinta competizione
internazionale seguita all'entrata in vigore del trattato di Roma, 1960.
In realtà, la struttura dell'industria italiana non differiva molto quanto composizione settoriale delle
altre industrie nazionali integratesi alla Cee. Le differenziazioni collegano piuttosto all'interno dei
settori, con riferimento alle dimensioni dell'impresa, a livello delle tecnologie, alla qualità del
management. Nasce allora la bandiera della concentrazione: essa sul piano legislativo si traduce
nella legge n. 170 del 1965, che concedeva cospicue agevolazioni fiscali alle fusioni tra imprese e
sul piano della struttura industriale e la nascita di colossi nel campo delle telecomunicazioni e
della chimica.
Nel complesso il pubblico fece assai meglio del privato, il tema della ricerca fu trascurato e sul
piano istituzionale si registrò un'azione di riorganizzazione degli organi della programmazione
economica. Il Cipe (comitato interministeriale per la programmazione economica) sostituisce il
vecchio Cir quale organo di coordinamento dell'azione pubblica dell'economia per la legge n.48
del 1967 e, in forza del medesimo provvedimento legislativo, il Cipe veniva affiancato dall’Ispe
(Istituto studi per la programmazione economica) con il compito di procedere a indagini, ricerche
e rilevazioni inerenti alla programmazione economica, ai fini della preparazione dei documenti
programmatici, secondo le direttive del ministero del bilancio e della programmazione economica.
19.6 LA CRISI DELL'AUTUNNO CALDO (1969-70) E IL FALLIMENTO DELLA
PROGRAMMAZIONE
Come l'avvio del programma 1965-69 fu spiazzato dalla crisi recessiva, così l'avvio del nuovo
ciclo di programma avvenne nelle peggiori condizioni.
Italiana ha fatto costantemente riferimento a tre punti di forza:
• un costo del lavoro relativamente inferiore al livello medio degli altri paesi industrializzati;
• Una favorevole ragione di scambio tra manufatti industriali e materie prime, e tra queste le
materie energetiche in particolare;
• un andamento espansivo della domanda internazionale.
Sia il rapporto preliminare al programma economico nazionale 1971-75 (noto come "Progetto
’80"), che i successivi documenti prodotti dal Ministero del Bilancio e dall’Ispe, mostravano una
chiara coscienza della precarietà dei fattori di successo dell’industria italiana e identificavano un
complesso di azioni orizzontali, riguardanti i fattori produttivi, e verticali, riguardanti specifici
settori, da condursi nel quadro del programma, definite "programmi di promozione". Tra questi
uno soltanto vedrà la luce: il "Programma di promozione per l'industria chimica”
Alla fine del 1969 si avvia un ciclo per molti versi analogo a quello 1962-64: il costo del lavoro per
unità di prodotto subisce un fortissimo aumento, la manovra sui prezzi è bloccata dalla stabilità
dei prezzi internazionali e si determinano dunque una caduta verticale dei profitti e l'allargamento
del deficit commerciale ma, a differenza del ciclo precedente, la situazione sociale è più tesa, il
che esclude la possibilità di una ristabilizzazione fondata su un'indiscriminata manovra restrittiva.
Di fronte alla nuova crisi la reazione istituzionale consiste nel varo di una nuova legge di sostegno
al settore in maggiore difficoltà (legge n.1101, 1971, per la ristrutturazione e la riconversione delle
imprese tessili) E nell'istituzione della Gepi, nel tentativo di evitare una politica indiscriminata di
salvataggi e di allargamento dell'area pubblica nell’economia.
Il maggiore limite della legge in parola consisteva nella totale assenza di un riferimento strategico,
cioè di criteri guida che dessero un contenuto operativo il termine ristrutturazione e di
conversione. L’intervento si risolse quindi in una somma di trasferimenti dal settore pubblico alle
imprese, trasferimenti opportuni per il sostegno di darmi aziende del settore ma comunque
difficilmente riconducibile alla logica della programmazione.
La crisi peraltro non riguardava soltanto l'Industria tessile, ma si dimostrava particolarmente acuta
anche in altre attività industriali. Le preoccupazioni dovuti al persistere della crisi indussero il
governo a proporre il parlamento ad emanare una nuova legge di crisi che estendeva le
previdenze disposte dalla legge testi degli altri settori industriali.
La legge in parola mira innanzitutto ad estendere i termini massimi di applicabilità della cassa
integrazione guadagni con l'intento di alleggerire i conti economici delle imprese dal carico della
manodopera in eccesso, girando il problema della cosiddetta mobilità a seguito della recessione.
La legge prevedeva facilitazioni creditizie, sotto forma di contributi in conto interessi, e tributarie
all'imprese che dessero corso a programmi di ristrutturazione o di conversione dell'attività
produttiva. Inizialmente lo stanziamento fu modesto, ma la legge fu in seguito più volte rifinanziata
fino a portare lo stanziamento complessivo a 813 miliardi.
Le procedure per l'istituzione, l'accoglimento delle domande e l'erogazione dei contributi furono
rese così complesse che la legge medesima decadde avendo erogato meno del 5×1000 degli
stanziamenti previsti, finendo con usufruire del credito agevolato nella maniera possibile che
esista: promettere le agevolazioni senza puoi concederle. Per cui l'esperienza della legge tessile ci
insegna che i trasferimenti dello Stato alle imprese sotto forma di agevolazioni finanziarie
rischiano di aggravare i problemi dei settori industriali, se la loro concessione a luogo in assenza
di un quadro di riferimento o di una strategia volta a pilotare la riorganizzazione del dei settori.
Fu invece attuata una programmazione industriale concentrata con riferimento all'industria
chimica.le ragioni per le quali fra i possibili programmi di promozione indicati dal piano si decise di
dare la priorità all'industria chimica risiedono nella strategicità del settore e nella sua struttura.
In base alla delibera Cipe, 1969, la segreteria della programmazione affidò all’Ispe il compito di
svolgere gli studi necessari alla preparazione di un piano per l'industria chimica, che portò alla
redazione del "rapporto preparatorio del programma di promozione per l'industria chimica”, 1971.
I punti salienti del rapporto sono costituiti dalla previsione di una crescita tendenziale della
produzione chimica nell'ordine del 10-11% ed è la prevista sostituzione di prodotti chimici ad altri
prodotti nel consumo finale e negli input intermedi che avrebbe aumentato il valore aggiunto della
chimica.
Il CIPE predispose il "progetto di promozione per l'industria chimica di base prima sezione", a cui
avrebbero dovuto seguire altre sezioni. Il progetto indicava i criteri strategici per la
riorganizzazione lo sviluppo del settore (concentrazione e the verticalizzazione), la previsione di
espansione delle capacità produttive e i criteri per la valutazione dei programmi di investimenti,
ma alla fine il piano chimico si tradusse in un grave insuccesso, anche se la crisi della chimica
italiana fu piuttosto dovuta al ritardo con cui si vide avvio i programmi di espansione delle aziende
del settore, piuttosto che ai programmi stessi.
19.7 LA PRIMA CRISI PETROLIFERA (1973-76)
Alla lunga crisi attraversata dall'industria italiana aveva dunque fatto riscontro una impasse dal
lato governativo: la flessione dei margini di profitto prodotta dall'aumento del costo unitario del
lavoro e della rigidità dei prezzi non aveva trovato una risposta né in una manovra deflattiva né
nella svalutazione del cambio e quindi in una manovra inflativa.
L'unico effetto apparente è stato una forte accelerazione dei processi di investimento labour
saving da parte dell'industria, che data alla flessione dei margini di profitto dovevano essere
finanziati con un massiccio ricorso all’indebolimento.
La crisi politica del 1972 che aveva condotto alla fine dei governi di centro-sinistra, in
concomitanza alle delusioni prodotte nei tentativi di programmazione economica, portarono
insieme ad abbandonare definitivamente la politica di piano.
L'azione di governo dell'industria volge dunque nuovamente agli strumenti di breve periodo,
mentre si avvicina alla crisi internazionale che seguirà a rialzo dei prezzi petroliferi e delle altre
materie prime. Al potenziale inflazionistico accumulatosi nel periodo 1970-71, si aggiunsero forti
tensioni provenienti dal rialzo dei prezzi delle materie prime internazionali. L'entrata in vigore
dell'Iva nel gennaio del 1973 fornì l'occasione tecnica per un forte rialzo dei prezzi interni.
Di fronte a questi fenomeni l'autorità monetaria decise di imboccare la via inflativa (svalutazione
della lira di oltre il 14% tra gennaio e luglio).
Dal punto di vista industriale la manovra viene accolta con favore dei settori a più alta intensità di
capitale, che vedono nell'inflazione il mezzo per ricondurre l'indebitamento a livelli fisiologici.
Ma si tratterà di un clamoroso errore di valutazione: la necessità di controllare la svalutazione della
lira e indurre alle autorità monetarie a determinare un forte rialzo dei tassi di interesse, che
determineranno un processo di erosione dei margini lordi delle imprese intanto maggiore in
quanto queste ultime risultano più indebitate.
Il boom inflazionistico fa sorgere diffuse preoccupazioni a cui si tenta di dare una risposta con
provvedimenti di controllo dei prezzi; ma la manovra non può riuscire, e in effetti, dopo aver
prodotto risultati deludenti, il controllo dei prezzi viene abbandonato nel luglio 1974.
Su un piano più generale, l'aumento del prezzo delle materie prime iniziata nel 1972 faceva venire
meno il secondo. Tradizionale riferimento della strategia industriale italiana: da favorevoli ragioni di
scambio tra le nostre esportazioni di manufatti e le importazioni.
Tuttavia i tratti caratteristici della crisi non appaiono immediatamente: il rialzo dei prezzi
internazionali dall'avvio a un ciclo di scorte, per cui sotto la pressione di una domanda insaziabile
le imprese migliorano i propri margini che rimangono costanti e negli anni il volume delle vendite
registra un aumento record. Solo nell'arco di due anni il meccanismo inflazione-tassi di interesse
inizia a far sentire i propri effetti e gli oneri finanziari raddoppiano nel corso dell'anno e di qui
deriva una flessione dei margini netti. Sarà solo nel corso del 1965 che si verificherà la flessione
della domanda ad innescare finalmente la crisi.
La manovra di controllo dell'economia nel breve periodo che tenta di reagire alla recessione
mediante una politica monetaria permissiva si traduce quindi in un grave insuccesso e, all'inizio
del 1976, la lira subisce un ulteriore forte svalutazione e i tassi di interesse devono essere
ricondotti a livelli elevati, mentre i margini lordi dell'industria, al netto degli oneri finanziari, cadono
al di sotto del 2% del fatturato.
Conducendo un'analisi disaggregata per settore circa gli effetti della gestione di breve periodo
della crisi internazionale 1973-76, risulta chiaramente che la spirale inflazione-svalutazione del
cambio a colpito assai più i settori ad alta intensità di capitale che non gli settori ad alta intensità
di lavoro. La svalutazione del cambio ma nel complesso consentito di recuperare i differenziali del
costo del lavoro italiano rispetto all'andamento degli analoghi costi all’estero.
La flessione dei margini colpisce soprattutto i settori della chimica, gomma, carta, alimentare e
tessile e, analogamente, vi è un ridimensionamento dei medesimi settori, cui si aggiungerà un
anno più tardi la crisi della siderurgia.
La crisi del 1975 mostra tre elementi di sintesi che focalizzano l'attenzione delle autorità di
governo dell'economia:
• la crisi finanziaria delle imprese;
• la caduta degli investimenti;
• i problemi connessi alla mobilità del lavoro;
Il primo aspetto è all'origine di una proposta del governatore della Banca d'Italia Carli che mira ad
un'operazione di consolidamento dei debiti a breve accumulati dall'industria e ad un radicale
mutamento della struttura dell'industria italiana che ne avrebbe avvicinato il modello organizzativo
a quello tedesco.
Gli altri due aspetti furono all'origine di una proposta governativa dedicata al coordinamento della
politica industriale e il ristrutturazione del settore. La proposta prevedeva l'istituzione di un fondo
per la ristrutturazione, la riconversione e lo sviluppo industriale, la cui amministrazione sarebbe
spettata ad un organo interministeriale di nuova costituzione: il Cipi (comitato interministeriale per
la politica industriale), a cui si deve andare il compito di mettere appunto i lineamenti di una
strategia industriale, nel quadro di un piano a medio termine.
Gli ultimi atti della legislatura sul piano industriale furono costituiti dal varo della legge "disciplina
dell'intervento straordinario nel mezzogiorno per il quinquennio 1976-80 chiudi" (legge n. 183,
1976).
19.8 LA POLITICA DEI PIANI DI SETTORE
Il bilancio della precedente legislatura sul piano industriale si chiudeva con risultati
particolarmente amari: la gestione dell'economia di breve periodo non aver risolto i problemi di
fondo dell'industria che, al contrario, risultavano aggravati e la strategia volta al recupero della
competitività industriale per mezzo della svalutazione del cambio aveva accelerato la dinamica
della crisi finanziaria dell'industria pesante.
D'altro lato si è resa anche necessaria una moltiplicazione degli interventi di sostegno mediante
trasferimenti dallo Stato alle imprese.
Riguardo quest'ultimo. Si è osservato che nell'economia italiana sono stati operanti forze che
hanno richiesto una crescita dell'apporto pubblico necessario realizzare nelle attività di mercato
quel valore aggiunto che forse non sarebbe stato possibile altrimenti distribuire nella medesima
misura. In effetti i trasferimenti avevano l'effetto da un lato di attenuare la capacità dell'area di
mercato di resistere all'imposizione di vincoli e alle richieste volte a portare il sistema livello delle
per azioni e dall'altro dalla luogo a distorsioni che sono stati al centro di una polemica
pubblicistica.
In terzo luogo la copertura assicurata dallo Stato su materie di oneri impropri che a vario titolo
gravano sulle imprese aveva in parte concorso a rendere ingovernabile la spesa pubblica e
soprattutto a falsare i meccanismi di funzionamento del mercato di credito.
Il riordino dei meccanismi del credito agevolato a inizio con un provvedimento legislativo (D.p.r.
n. 902, 1976) istitutivo di un fondo nazionale per il credito agevolato al settore industriale il recante
disposizioni volte ad armonizzare i criteri per la corresponsione delle agevolazioni.
L'intento, anzi apprezzabile, si scontra con alcuni problemi posti dalla concreta attuazione della
programmazione industriale.
Infatti il dialogo diretto tra governo e industria per determinare comportamenti imprenditoriali
coerenti alle scale della pubblica amministrazione in maniera industriale ha prevalentemente
riferimento alle grandi imprese. L'esclusione di queste ultime dalle agevolazioni previste dal d.p.r.
privava la parte governativa del tradizionale strumento di pressione sulle imprese maggiori.
Il conflitto infine si risolse con un provvedimento legislativo (legge n. 91, 1979) che riammette le
imprese maggiori agli incentivi finanziari.
La seconda tappa del processo di adeguamento dell'istituzione di riassetto dell'industria ebbe
inizio con la presentazione di un nuovo progetto di legge nell'ottobre 1976, che prevedeva:
• L'istituzione di un comitato interministeriale per il coordinamento della politica industriale (Cipi)
cui spettava l'elaborazione di direttive per l'organizzazione e lo sviluppo del sistema industriale
e l'individuazione dei settori per i quali si ritiene necessario uno specifico quadro
programmatico di interventi;
• Lo stanziamento di cospicui fondi di finanziamento di investimenti di ristrutturazione e
riconversione in coerenza con gli indirizzi strategici di settore elaborati dal Cipi;
• Il rifinanziamento del fondo di ricerca Imi;
• Criteri per favorire la mobilità della manodopera;
• La definizione delle aree alle qualità degli interventi di salvataggio della Gepi;
Il ddl fu getto di un lungo e tormentato iter parlamentare più volte modificato e diede alla fine
luogo alla legge n. 675 del 1977 intitolata "provvedimenti per il coordinamento della politica
industriale, la ristrutturazione, la riconversione e lo sviluppo del settore”.
La successiva delibera del Cipi identificò le aree di intervento in sette grandi settori e in tre linee
orizzontali per le quali il ministero dell'industria avrebbe dovuto predisporre programmi finalizzati.
L'esigenza di salvaguardare la legge da utilizzazione impropria, legati al progressivo inasprimento
della crisi in alcuni grandi gruppi, avevano dapprima portato ad introdurre una norma
(emendamento Andreatta-Grassini) relativa ad un massimale di indebitamento, aldilà del quale le
imprese non avrebbero potuto fare il ricorso alle agevolazioni; in secondo luogo a stabilire la
finanziabilità esclusivamente per nuovi investimenti.
19.9 PIANI DI SETTORE E STRATEGIA INDUSTRIALE
Il tratto più originale della legge per il coordinamento della politica industriale nei confronti dei
precedenti interventi era costituito dal passaggio del regime degli incentivi finanziari dal principio
dell'automaticità a quello della discrezionalità.
Mentre nella legislazione precedente si prevedeva una sorta di automatismo secondo cui
un'impresa che si trovasse in date circostanze maturava un diritto a ricevere l'agevolazione
prevista dalla legge, in questo caso si prevedeva che la validità dell'iniziativa da agevolare fosse
vagliata dal Cipi alla luce degli indirizzi delineati dei programmi finalizzati di settore.
I programmi settoriali predisposti dal ministero dell'industria coprivano un'aliquota rilevante del
sistema industriale e riflettevano la presenza di caratteri strutturali e problematici dei settori
sottostanti ha fatto eterogenei. In linea di massima sintesi, il contenuto dei programmi può essere
scisso in due momenti principali che recepiscono le direttive formulate dal Cipi:
• la fase analitico-conoscitiva, volta ad identificare le caratteristiche strutturali dei settori, le
uniformità di comportamento e i fattori esplicativi di questi ultimi riscontrabili nei settori; i fattori,
di carattere settoriale ed extra settoriale che influenzano la performance dei settori medesimi, le
aree problematiche comuni ciascun settore;
• la fase politico-propositiva, volta alla soluzione di specifici problemi dell'industria o a fornire
criteri operativi per le decisioni del Cipi;
I piani di settore servono quindi in anzitutto a colmare il gap informativo tra governo e
industria.scorrendo tali piani infatti il profilo dell'industria italiana si fa più nitido, ed è possibile
distinguere nell'ambito delle aree di crisi quelle che hanno origine di crisi di sbocchi e quelle che
derivano da una perdita di competitività.
Nel complesso l'immagine dell'industria italiana che emergeva da tale analisi è quella di un
sistema industriale che ho avuto uno sviluppo diffusivo, che sia cioè fondato sull'allargamento
delle gambe qualitative dei prodotti offerti, e assai meno sulla specializzazione in produzioni
qualificate.
Sotto il profilo delle prospettive occupazionali risulta chiaramente che l'industria italiana ha
raggiunto la fase della maturità, nel senso che gli incrementi di produttività del sistema industriale
sono in grado di soddisfare anche le più ottimistiche previsioni di crescita della domanda di
prodotti industriali. Infine, dal punto di vista delle prospettive di riequilibrio della distribuzione
territoriale dell'apparato produttivo, i programmi in parola mettono in evidenza quanto poco ci si
possa attendere in questo campo d'azione di carattere strettamente settoriale.
Alla fine, i programmi finalizzati di settori hanno suscitato non poca delusione, sotto questo profilo
l'esperienza condotta nel nostro paese mette in evidenza i gravi limiti che si incontrano nella
messa appunto di programmi di settore riferiti ad una parte soltanto del sistema industriale.
La performance di un settore, infatti, si spiega solo parzialmente con fattori interni al settore
medesimo e ne segue che se l'analisi è limitata ad un singolo settore e buona parte dei problemi
rilevanti ne rimane esclusa.vi è dunque l'esigenza di estendere l'analisi all'intero sistema
industriale, in modo di cogliere le economie esterne di conoscenza che si possono ricavare da un
complesso di studi che non trascuri importanti segmenti della realtà fenomenica e della
problematica industriale.
L'esperienza condotta consente di affermare alcuni principi cui ci si dovrebbe riferire nella
prospettiva di conferire efficienza allo strumento della programmazione settoriale:
• Innanzitutto i programmi di settore superato lo stadio conoscitivo iniziale debbono fondarsi
sulla collaborazione tra governo, imprenditori e sindacati, mediante periodiche discussioni e
revisione dei programmi. Il coinvolgimento diretto delle tre parti in parola dovrebbe estendersi
anche all'aspetto decisionale, in modo che le parti in causa siano pienamente informate dei
differenti profili dei problemi e si rendono responsabili, ciascuno per le proprie funzioni, degli
atti da compiere delle decisioni prese;
• In secondo luogo i programmi di settore, per loro natura di strumento conoscitivo e operativo,
non possono prescindere dall'esistenza di un quadro di interventi a livello nazionale che
definisca i principi e le line in riferimento alle quali debba svolgersi il processo di sviluppo
industriale, che stabilisca una politica dei fattori produttivi e così via;
• Uno dei maggiori problemi con cui i programmi di settore hanno dovuto scontrarsi è costituito
dalla crisi dei grandi gruppi.strumenti di intervento legati a questo problema possono essere la
legge per il risanamento finanziario delle imprese, che permette l'intervento diretto del sistema
bancario, e il provvedimento di riforma delle procedure concorsuali per i grandi gruppi.
All'epoca la brusca fine della legislatura impedì il completamento del disegno di riforma di
intervento dell'industria, ma nel frattempo la fisionomia dell'industria italiana a mostrato importanti
cambiamenti: consolidamento di nuove aree di industrializzazione, il rafforzamento del ruolo delle
imprese di media dimensione e così via.
Vi è un ultimo documento che è opportuno richiamare avendo esercitato una notevole influenza: il
"piano triennale 1979-81" definiva in due categorie fondamentali i problemi che la politica
industriale rebe dovuto affrontare, e cioè il risanamento delle aree di perdita e lo sviluppo della
base produttiva.
19.10 LE SVALUTAZIONI COMPETITIVE NEGLI ANNI DELLA TRANSIZIONE (1979-1990)
VERSO LA REGOLAZIONE DEI MERCATI E LE PRIVATIZZAZIONI
Pur mantenendosi qualche forma di interventi agevolati per la nascita e il consolidamento delle
piccole-medie imprese, per le regioni sottosviluppate o quelle che necessitano di processi di
riconversione, gli anni ’80 hanno segnato l'inizio della fine delle politiche di piano, con i correlati
interventi a pioggia di incentivi e benefici finanziari.
Le cause di questa svolta possono essere riconosciute in queste tre categorie:
• Vi fu la constatazione della inadeguatezza dei risultati conseguiti rispetto a quelli attesi. La
dinamica dei settori non mostrava alcun segno evidente di recepire gli indirizzi dei piani ma, al
contrario, il decennio fece registrare la crisi di alcune industrie (chimica, elettronica e
informatica) sulle quali lo sviluppo pianificato faceva affidamento, e la contemporanea
affermazione di industrie costituite da piccole-medie imprese (moda e arredamento) che furono
invece trascurate nella programmazione;
• La preside le grandi imprese, in grande prevalenza pubbliche faceva venir meno lo stimolo a
coordinare i piani strategici di questi ultimi con piani di carattere nazionale;
• La rivoluzione della scuola di Chicago, e il conseguente indirizzo free trade dei governi del
presidente Ronald Reagan e del Primo Ministro Margaret Thatcher, assieme alla rivoluzione dei
trasporti e delle telecomunicazioni, e infine gli accordi Gatt con la progressiva riduzione delle
barriere tariffarie, ritiro del tutto obsolete le idee alla base di una programmazione della politica
industriale.
Tutto ciò culminò con "il libro bianco, 1985" promosso dall'allora presidente della Commissione
europea che decretò l'aprirsi di una nuova fase della politica industriale, nella quale le dottrine e le
prassi concernenti la proprietà pubblica, le protezioni e gli incentivi vennero sostituite dalla
filosofia del mercato e delle regole. Sebbene l'abolizione formale del Cipi e del Cip E dei comitati
interministeriali (spuntati come funghi nel periodo precedente, da cui si salvò solo il Cicr) tarderà
fino al 1993, essi furono strumenti del tutto desueti per tutto il corso degli anni 80.
Negli anni della transizione tra i tentativi del dirigismo e gli anni 90 l'illusorio tentativo di mantenere
di recuperare competitività all'industria italiana fu nella sostanza affidato alla sottovalutazione del
cambio della lira rispetto alle altre principali valute del nostro interscambio commerciale. Questa
politica consisteva nel lasciare scivolare il cambio della lira per più che compensare il differenziale
di inflazione con i paesi competitori, differenziale che lo stesso cambio concorreva a determinare.
Si veniva così a creare un effetto protezionistico generalizzato perché la sottovalutazione del
cambio favoriva le esportazioni e sfavorire le importazioni.
In queste circostanze, tuttavia, gli dissi di tassi di interesse che si rendeva necessario determinare
per mantenere le briglie non troppo allentate all'inflazione e alla svalutazione, rendevano proibitivi
investimenti di rinnovo delle capacità produttive, creando le condizioni per le catastrofiche
vicende monetarie dell'inizio degli anni 90, quando la lira svaluto oltre il 50% e nel settembre 1992
l'Italia si trova sulla soglia del default finanziario.
20. LA CRISI DELLA PRODUTTIVITÀ E DELLA CRESCITA (1995-2010)
20.1 LO STRANO CASO DEL SISTEMA ITALIA
L'Italia e i suoi risultati economici hanno sempre rappresentato un caso enigmatico per gli
economisti.
Ma mentre nel passato l'Italia rappresentava un caso di economia in rapida crescita, negli anni
recenti ha rappresentato un caso di economia a crescita zero. Vi è innanzitutto la questione
dell'invecchiamento della popolazione, che già provoca gravi problemi in termini di produttività e
di welfare: l'età media degli italiani è la più alta d'Europa e il numero di nuovi nati per ogni donna il
più basso.
Questo tratto, che assieme all'elevato indebitamento del settore pubblico accomuna l'Italia e il
Giappone, dovrebbe rappresentare l'argomento principale di una disciplina come l'economia che
si fonda sull'applicazione di criteri scientifici all'analisi di condotte umane, ed in effetti per Smith e
Malthus lo era. Dopo di loro però gli economisti hanno deciso dedicato scarsa attenzione a questi
fenomeni, probabilmente a causa di gladiatori contenuti nella dottrina di Marx e di Lassalle.
Esistono tre scuole principali di pensiero economico contemporaneo, in ordine cronologico sono:
• La scuola che si focalizza sull'incertezza, la domanda effettiva, la domanda aggregata e il
meccanismo del moltiplicatore-acceleratore (J.M. Keynes);
• La scuola neomonetarista che si concentra sull'operatività dei dei mercati (F. von Hayek, M.
Friedman);
• La”supply side economics” che dai il maggior relativo alla qualità dell'offerta (R. Mundell);
20.2 PRODUTTIVITÀ E RISTAGNO
Si deve prendere atto che la crisi italiana esiste anche a prescindere dalla crisi più generale che
ho investito il sistema globale a seguito dell'esplosione della bolla della finanza creativa e delle
asset backed securities.
Il principale indicatore dei risultati economici, il Pil, segnala un anomalia che dura già da tempo;
l'economia italiana è stata stagnante da diversi anni, con una crescita del Pil nell'ultimo
quinquennio trascorso prima della crisi inferiore alla metà della media europea. Gli andamenti
degli anni della crisi (2008-2009) sostanzialmente confermano in negativo queste caratteristiche,
dato che la flessione italiana è stata superiore alla media europea, la quale è stata superiore a
quella degli Stati Uniti e oltre il doppio di quella mondiale.
Questo dato si è tradotto in una rilevante flessione del reddito pro capite nei confronti degli Stati
Uniti e nei confronti delle altre potenze industriali europee. Il reddito pro capite italiano rilevato da
Eurostat facendo pari a 100 il dato dell'Ue e a 27 paesi risulta pari a 102, ed è in diminuzione,
essendo superato dal Regno Unito e dalla Spagna. In queste circostanze il traino esercitato dei
consumi sulla crescita della domanda (C, che insieme a I, G e X costituisce la domanda aggregata
keynesiana) sulla produttività, nel nostro sistema è risultato inferiore rispetto alla dinamica dei
principali concorrenti per effetto della crescita rallentata del reddito e dei consumi.
La produttività, misurata come Clup (costo del lavoro per unità di prodotto) va ancora peggio,
perché all'effetto della produttività stagnante si è sommata una dinamica dei costi del lavoro più
accentuata rispetto a quella dei paesi concorrenti: nel periodo che va dal 1996 al 2007 il Clup
Italiano e cresciuto in ragione dell'1,5% medio all’anno.
Con una perdita di competitività pari al 31% dal lato dei costi in confronto ai nostri due principali
concorrenti sul mercato globale la sopravvivenza sul mercato è diventata molto difficile, e ciò può
fare parte della spiegazione dei deludenti risultati economici.
I dati più recenti del 2008-2009 riflettono la pesante flessione della produzione dovuta alla crisi
che ha portato ad un aumento del club ben superiore al 4%; comunque sono ormai molto lontani i
tempi (1999) in cui rapporti dell'OCSE indicavano per l'Italia un vantaggio competitivo in termini di
Clup pari a quello degli USA e superiore alla Francia e alla Germania.
Per tutto il periodo che va dal secondo dopoguerra in poi le esportazioni (X) hanno trainato la
crescita dell'economia italiana, e attualmente esse rappresentano circa il 25% del Pil, che
controbilancia le importazioni di materie prime e di prodotti energetici.
Tuttavia, la quota di mercato delle esportazioni italiane su commercio mondiale in termini di
quantità è stata progressivamente erosa dalla competizione dei paesi emergenti, mentre
l'incremento dei prezzi unitari non è stato in grado di compensare le variazioni negative dei
quantitativi esportati.
Le esportazioni del nostro paese, in termini di valore, sono scese dal 4,6% mondiale del 1996 al
3,6% nel 2007.
Gli investimenti (i) dell'industria manifatturiera, anche senza considerare la pressione degli anni di
crisi, sono stati stagnanti, risentendo della progressiva erosione dei margini di profitto e del
debole traino della domanda.
L'Italia è scesa all'ultimo posto nella classifica della produttività pubblicata dall'OCSE a giugno
2008, E la tendenza della produttività italiana a ristagnare e perciò perdere terreno, non solo nei
confronti dell'economia in rapida crescita ma anche dei competitori tradizionali, rappresenta
quindi un fenomeno che dura da tempo.
20.3 LE ANALISI POST KEYNESIANE
Le relazioni che sussistono tra l'andamento della produttività e lo sviluppo rappresentano il
principale oggetto di studio di tutte le scuole dell'economia contemporanea.
La prima tra queste, che ha origine da The General Theory of Employment, Interest and Money,
1936, adopera di John Maynard Keynes, considera che la domanda privata o pubblica, coperta o
da entrate corrispondenti, traina l'offerta attraverso il meccanismo del moltiplicatore-acceleratore,
e stabilisce quindi una chiara relazione di segno positivo tra domanda, produttività e sviluppo.
Tale relazione ovviamente non sussiste quando il sistema si trova già in piena occupazione,
perché in questo caso ogni ulteriore incremento della domanda condurrebbe solo allo squilibrio
verso le importazioni oppure applicazione dei prezzi.
Il modello post-keynesiano dovuto in origine a Kaldor-Verdoorn delle relazioni circolari tra la
domanda aggregata (ovvero il sistema economico nel suo insieme), la domanda effettiva (ovvero
la domanda che si rivolge alle singole industrie e imprese) e la produttività può aiutarci a
comprendere tale meccanismo ( si ricordi che circolare significa che una variabile, la produttività,
influenza l'altra, la domanda, e viceversa, mentre il progresso tecnologico è paragonabile ad una
variabile esogeno che determina salti quantici nella relazione tra le prime due).
La sintesi di queste relazioni può essere espressa come: "un incremento della domanda
determina un incremento della produttività e/o dei salari e/o dell'occupazione, che determinano
un incremento della domanda e viceversa, soggetta a un vincolo di competitività o di profitto, al
netto delle variazioni determinate dall’innovazione". Il senso è che, assumendo che le altre
variabili non cambino, grosso modo gli incrementi di produttività si traducono in incrementi del Pil,
per effetto di incrementi della domanda interna (via salari occupazione e/o investimenti), U estera
per effetto del miglioramento della competitività, aumenti che a loro volta determinano incrementi
di produttività. Ciò può condurre ad un circolo virtuoso se le variabili sono in aumento, oppure ad
un circolo vizioso se sono in diminuzione. Occorre ricordare però che i fenomeni economici sono
ciclici e non lineari: ciò significa che nei circoli virtuosi e quelli viziosi possono durare all'infinito.
Il sistema Italia offre un caso perfetto per illustrare questa teoria.
Tra il 1995 e il 2000 l'economia italiana cresceva ad un tasso normale (media annuale del 3%).
All'alba del nuovo secolo ogni cosa è cambiata, il circolo smesso di essere virtuoso è divenuto
vizioso. Si può quindi affermare come un dato di fatto che la situazione italiana è coerente al
modello post-keynesiano, ma constatare che il circolo vizioso a preso il posto del circolo virtuoso
non risponde alla domanda "perché ciò è accaduto?”.
Secondo il principio della domanda effettiva della teoria keynesiana questi fatti potrebbero
riflettere una scarsa fiducia nel futuro da parte degli imprenditori a partire dal 2000 o ancora
prima. Tuttavia la domanda rimane "perché questo accade in Italia con maggiore intensità rispetto
agli altri paesi che hanno caratteristiche confrontabile alle nostre?”.
- 20.3.1 IL RUOLO DEL CAPITALE UMANO
Un ruolo lo hanno avuto sicuramente l'innovazione e il capitale umano come determinante dello
sviluppo economico. Robert Solow è conosciuto soprattutto per il modello di crescita economica
che porta il suo nome, divenuto paradigma della sintesi post-keynesiana e neoclassica dello
sviluppo. Il modello permette di separare le determinanti della crescita dell'output (utilizzando una
funzione di produzione del tipo Cobb-Douglas) in variazioni incrementali di input (capitale K e il
lavoro L), mentre l'incremento del prodotto che non risulta spiegato dell'incremento dei due input
viene attribuito il progresso tecnologico. Con l'impiego di questo modello Solow calcolò che
quattro quinti della crescita marginale del prodotto era da attribuirsi al progresso tecnologico.
Importante ricordare il contributo di Gregory Mankiw, David Romer e David Weil: i tre economisti
americani dimostrarono che se si include il capitale umano nel concetto di capitale, la capacità
esplicativa del modello risulta enormemente potenziata.
Da quest'osservazione deriva la conclusione che l'elemento rappresentato dalla formazione (up
skilling) del personale o capitale umano nel determinare la crescita della produttività riveste un
ruolo paragonabile se non persino superiore a quello dell'innovazione tout court, ovvero della
ricerca per innovazione di processo o di prodotto.
- 20.3.2 LA VISIONE NEOMONETARISTA DELLA SCUOLA DI CHICAGO
Secondo punto di vista da prendere in considerazione è la competitività dei mercati, ovvero gli
sviluppi recenti della scuola neoclassica conosciuti come neo umanitarismo di Milton Friedman.
In questa prospettiva ciò che determina i buoni risultati economici e la concorrenzialità dei
mercati: ogni ostacolo alla concorrenza, che si tratti di Monopoli, protezionismo, aiuti o
regolamentazioni, determina effetti diversi da quelli dichiarati i risultati peggiori di quelli che si
avrebbero in loro assenza.
Il governo e la spesa pubblica perciò dovrebbero essere neutrale rispetto alla concorrenza tra i
soggetti economici, e limitarsi a garantire la stabilità, oltre a finanziare o produrre i beni pubblici,
che il mercato non può produrre da sé.
Il neomonetarismo della Chicago School, che ha registrato molti premi Nobel, deriva il suo nome
dei lavori di Irving Fisher sulla teoria quantitativa della moneta.
Il loro bersaglio polemico è costituito non dalla versione che inizia una ma piuttosto dalla mongole
economics (economia bastarda) creata dalla commistione tra il pubblico e il privato che ostacola
la concorrenzialità dei mercati.
Fu il prevalere della scuola neo monetarista a condurre alla deregolamentazione e alle
privatizzazioni degli anni ’80: questa concezione dell'economia da un grande una grande
prominenza ruolo delle forze spontanee del mercato, soprattutto all'imprese e all'oro
management, perché il loro successo svolge un ruolo darwiniano nell'allocazione dei fattori di
produzione, eliminando i soggetti che non lo sanno bene le risorse e creando conseguentemente
spazio per nuove imprese più efficienti.
La disciplina dei mercati e della concorrenza, le politiche che non danno attuazione, fanno parte
delle competenze dell'Unione Europea, e costituiscono la giustificazione e del fondamento
dell'allargamento dei mercati che ha determinato il ciclo di crescita eccezionalmente lungo che ha
preceduto la crisi che avuto inizio nel 2007-2008. Tale allargamento dei mercati non spiega però il
declino della produttività e della crescita in Italia, dal momento che l'Italia è un grande paese
esportatore, e la rimozione degli ostacoli al commercio internazionale avrebbe dovuto quindi dare
i vantaggi superiori agli svantaggi determinati dalla maggiore concorrenza.
Tuttavia quest'ottica di analisi suggerisce una chiave esplicativa: il virus inflazionistico trova nelle
restrizioni alla concorrenza con terreno di cultura ideale. Mentre l'apertura dei mercati ha
certamente favorito la concorrenzialità dei mercati esposti alla competizione internazionale,
altrettanto non si può dire per i mercati protetti, quali gran parte della produzione di servizi, della
distribuzione e dell'industria delle costruzioni residenziali. Il venir meno del sostegno offerto dalle
svalutazioni competitive all'industrie esportatrici e a quelle che subiscono la concorrenza delle
importazioni, a partire dalla seconda metà degli anni 90, può avere ridotto la profittabilità delle
attività esposte la concorrenza e reso più attrattive quelle protette, che in generale hanno livelli di
produttività inferiori: in effetti la quota delle attività manifatturiere sul Pil si è notevolmente ridotta,
e questo può fare parte della spiegazione del problema che stiamo considerando.
20.3.3. SUPPLY SIDE ECONOMICS
Per ultimo si deve prendere in considerazione ciò che concerne la dimensione della presenza
pubblica nell'economia ( Big government o Small government).
La moderna supply side economics o economia dell'offerta ha rappresentato la reazione
intellettuale agli anni bui della sta deflazione dovuta al dilagare della spesa pubblica in disavanzo,
e si fonda sull'assunzione che la spesa pubblica produce risultati decrescenti cioè esattamente
l'opposto di quanto accade nel settore privato dove i rendimenti sono crescenti.
Da cui derivano i celebri slogan usati dal premier britannico Margaret Thatcher e dal presidente
Reagan: "To roll back the frontiers of State”; “The State is the problem, not the solution”; “The age
of big government is over”. Questa visione ebbe successo in America ma non nella stessa misura
in Europa.
Detto questo, la dimensione della spesa pubblica può quindi spiegare il differenziale di crescita tra
l'America e l'Europa, ma non quello tra l'Italia e il resto d'Europa.
La conclusione provvisoria di questa panoramica potrebbe essere che per spiegare la crisi della
produttività e della crescita in Italia, che pur sempre è una delle maggiori potenze economiche
mondiali, gli strumenti dell'anno e si economica consentono di formulare solo qualche ipotesi.
20.4 INFRASTRUTTURE E SVILUPPO ECONOMICO
Rileggendo gli scritti di Alfred Marshall, che va considerato il padre fondatore della supply side
economics, possiamo avvicinarci ad un apparente soluzione di questo enigma.
Queste sono le sue parole che descrivono il fenomeno delle economie esterne come general
influences of the economic progress: “probabilmente più dei tre quarti dei benefici dell'Inghilterra
a ricavato dal progresso industriale nel corso del XIX secolo è stato determinato dall'influenza in
diretta della riduzione dei costi di trasporto delle persone delle merci, dell'acqua e della luce,
dell'elettricità e delle notizie. Il fattore dominante della nostra epoca non è lo sviluppo
dell'industria manifatturiera, ma dell'industria dei trasporti”.
Per aggiornare queste frasi ai tempi nostri è sufficiente aggiungere la parola trasposti la sigla ICT,
e ciò renderebbe immediatamente chiaro quanto la spesa pubblica per le infrastrutture sia
determinante per la produttività e lo sviluppo. Inoltre in Europa, con l'affermarsi del modello di
economia sociale di mercato, il settore pubblico dell'economia è cresciuto considerevolmente
anche nella spesa sociale (sanità, pensioni, istruzione) e nella quantità della spesa pubblica, che
in Europa supera il 45% del Pil, che fa della qualità della spesa stessa un problema prioritario
dell’economia.
La malattia italiana segnalata dal Pil origine dalla pressione della produttività reale a partire dal
1996, e rappresenta l'esplodere conclamato di un male i cui sintomi sono rimasti in incubazione
per un lungo periodo di tempo.
20.5 LA PALUDE LEGISLATIVA E IL MACIGNO SULLE SPALLE
La spiegazione può essere trovata in tre dati dell’analisi economica:
• la massa enorme delle leggi in vigore che continua a crescere;
• il debito pubblico;
• la pressione fiscale;
Come risulta da uno studio recente da Banca d'Italia del 2700 in Italia era pari a 21693.
Ciò rappresenta un vero e proprio diluvio legislativo, che si trasforma in un pantano che
appesantisce i movimenti, la cui massa invece di consolidarsi continuo espandersi per ragioni che
sono difficili da spiegare: forse si tratta di un difetto di modernità nel paese che è stata la culla del
diritto, forse il caso di un accanimento terapeutico fatto di dosi sempre più massicce di
legislazione per rianimare un’economia gravemente ammalata. Ma una cosa è certa, ciò ha creato
un perfetto brodo per la burocrazia, le professioni legali e i Tar ed un vero inferno per chi vuole
certezza nel diritto e speditezza delle procedure burocratiche per condurre attività di impresa.
Il debito pubblico è il macigno che grava sulle spalle del paziente italiano: esso si è appesantito a
dismisura come conseguenza della crisi sociale degli anni 70 e dei suoi strascichi. Qualcuno può
aver pensato che il debito si potesse curare con l'inflazione, ma inutile ricordare che il debito
italiano oggi è il più alto d'Europa dopo quello greco che queste condizioni fanno di Italia un
sorvegliato speciale da parte dei mercati finanziari, che sarebbero pronti a sanzionare gli anelli più
deboli della catena dei paesi dell'euro (Pigs, Portogallo, Italia, Irlanda, Grecia e Spagna).
Malgrado la discesa dei tassi di interesse internazionale, l'Italia non ho potuto approfittare della
corsa generale che sia aperta nel dare sostegno pubblici all'economia, perché è consapevole di
avere l'attenzione dei mercati finanziari puntata su di sé e non può permettersi di allargare
ulteriormente lo spread dei tassi di interesse sul debito pubblico
Vincoli del mercato, e non più quelli di Maastricht, hanno imposto di fare di meno e dopo rispetto
quanto fatto dai nostri concorrenti.
Comunque, con un disavanzo fiscale che ha già raggiunto il 6% del Pil come conseguenza della
flessione delle entrate e con lo stock di debito pari al 117%, l'idea che la crisi iniziata nel 2008
potesse offrire delle opportunità è stata semplicemente una sciocchezza. Sono trascorsi 15 anni
da quando la produttività reale italiana a cominciato a perdere quota, nello stesso periodo la
paralisi dell'infrastrutture a condotto al caos.
20.6 IL PESO FISCALE
L'elevata pressione fiscale di cui soffre il paziente italiano e l'ovvia conseguenza della vastità della
spesa pubblica e della elevatezza del debito. Il sovrappeso del debito pubblico italiano è un
problema che risale agli anni 80: finito il periodo in cui si larghe giovane la spesa in disavanzo,
dopo la firma del trattato di Maastricht e per tutto il decennio successivo, l'Italia si è trovata in
compagnia del Belgio a condividere il non invidiabile primato europeo nella speciale classifica dei
paesi relativamente più indebitati.
Entrambi i paesi hanno quindi dovuto sottoporsi al “Patto di stabilità”, che aumentato fortemente
la pressione fiscale.
Nel caso dell'Italia nello strumento fiscale non è stato accompagnato da un'azione contestuale di
contenimento della crescita della spesa, e ciò avuto l'effetto di ridurre soltanto marginalmente il
peso dell'indebitamento pubblico sul Pil. Il succedersi di ben 12 formazioni governative nel
periodo 1992-2009 è un indice significativo dell'instabilità politica che si è tradotta in un
compromesso molto pericoloso si è protratto nel tempo (accentuare la pressione fiscale senza
domare la crescita della spesa). Ciò significa seguire una strada di lenta gradualità nella riduzione
del debito pubblico a preferenza di una “terapia d’urto”.
Con il sopravvenire della crisi del 2008 le cose sono andate ulteriormente peggiorando perché,
data la relativa elasticità della spesa pubblica le variazioni del prodotto in sistemi come il nostro,
volendo mantenere sotto controllo la spesa in disavanzo, la pressione fiscale tende ad aumentare
inerzialmente in presenza di flessioni del reddito.
La struttura del prelievo è fortemente concentrata sui redditi di lavoro dipendente e delle imprese
con un prelievo di fiscalità complessiva che supera il 75% degli utili lordi, un coefficiente da
esproprio se non eludibile, che abbia conseguenze sugli investimenti del settore privato. Qui si
intravedono chiaramente i criteri di una supply side economics applicati a rovescio, dove la
crescita della spesa pubblica avviene a spese degli investimenti e dei consumi privati,
penalizzando i settori a più elevata produttività.
Considerando che il livello delle prestazioni del settore pubblico in Italia non certo superiore a
quello di altri paesi europei, si può concludere che l'estensione della sfera pubblica nel nostro
paese non risponde a criteri di economicità, determinando un vistoso fenomeno di crowding out,
associato alla crescita rallentata e al disavanzo delle partite correnti della bilancia dei pagamenti.
20.7 DALLE FORME DEGLI ANNI ’90 AL QUINDICENNIO PERDUTO: LA NUOVA TERAPIA
La malattia del paziente italiano si è manifestata da tempo con una dinamica inconsistente della
produttività accompagnata da una crescita costante del costo unitario del lavoro, e si è resa
conclamata e più acuta per conseguenza della grande recessione, a partire dalla seconda metà
del 2008, accentuando il twin deficit nei confronti con l'estero e nel disavanzo pubblico. Essa ha
origine da cause molto complesse ed eterogenee.
C'è bisogno di chiedersi quali effetti la grande recessione internazionale produce e produrrà sulla
nostra economia e soprattutto quali strumenti terapeutici si possono realisticamente auspicare
per limitare i danni contingenti ed eventualmente restituire competitività ad un sistema
trasformatore è aperto quale il nostro, competitività dal cui progressivo indebolirsi viene una delle
cause più dirette della divergenza dei tassi di crescita nell'ultimo decennio.
La recessione ha colpito l'Italia più gravemente di quanto accaduto per i nostri alleaticompetitore: l'Italia entrata nella crisi in condizioni relativamente peggiori rispetto agli altri paesi,
perché il sistema risultava già in forte decelerazione e il sistema dell'impresa era nel bel mezzo di
una fase di ristrutturazione.
Nelle prime fasi della crisi le condizioni della nostra finanza pubblica hanno fatto sì che la
preoccupazione di non compromettere lo standing creditizio del paese sul mercato internazionale
avesse il sopravvento sulla necessità di condurre politiche fiscali anticicliche di sostegno alla
domanda e alla competitività, a cui i nostri principali concorrenti hanno fatto ampio ricorso.
Questa prima fase, quindi quasi esclusivamente difensiva, di risposta alla crisi ha rappresentato
una scelta obbligata e ha avuto successo grazie al concorso di tre ordini di circostanze:
• Altri paesi, quali la Grecia, l’Irlanda e la Spagna si sono trovati nella posizione di costituire gli
anelli più deboli della catena dell’euro;
• Il sistema bancario italiano è risultato molto meno compromesso nelle attività di speculazione
immobiliare e di intermediazione su titoli derivati che hanno generato la bolla il cui scoppio è
all'origine della recessione;
• Grazie alle politiche monetarie espansive praticate dalla fede e dalla BCE è il livello dei tassi di
interesse internazionale sceso, e si è mantenuto, a livelli storicamente minimi.
Non ci si deve illudere però quest'ultima circostanza possa mantenersi ancora per lungo tempo:
quando i tassi di interesse ricominceranno a salire per effetto della ripresa internazionale o
dell'inflazione, il disavanzo pubblico italiano diverrà esplosivo.
Gli strumenti da indicare sono principalmente quattro:
1. La spesa pubblica e le infrastrutture;
2. il debito e il patrimonio pubblico;
3. la concorrenzialità dei mercati;
4. il “che fare” di fronte all'allungamento della durata della vita media;
1. Il primo punto richiede che la severa cure a cui la stabilizzazione della moneta a sottoposto il
settore privato sia una estesa al settore della spesa pubblica: pensioni, sanità, pubblica
amministrazione contengono ampi margini di arretratezza inefficienza la cui riduzione potrebbe
tradursi rilevanti alleggerimento della pressione fiscale.
2. La politica delle privatizzazioni dopo un avvio molto promettente e poi proseguì da
stancamente, lasciando nelle mani pubbliche una quota non piccola della proprietà
dell'impresa e non intaccando neppure il vasto patrimonio immobiliare e quello
dell'amministrazioni locali, alcune delle quali sono peraltro inutili e costose, come le province.
3. Le condizioni della concorrenza nel mercato interno, malgrado le norme e gli istituti introdotti
nel corso degli anni 90, forniscono una parte della spiegazione del più singolare dei paradossi
della sindrome del paziente italiano: quello per cui mentre i costi unitari di lavoro e quindi le
retribuzioni sono aumentati più di quanto sia avvenuto per i nostri principali concorrenti, il
potere d'acquisto delle famiglie italiane risulta comparativamente diminuito. Il teorema della
“x-inefficiency” spiega ampiamente questo fenomeno, e la terapia si chiama "politica della
concorrenza”.
4. Infine si deve constatare che parte della spiegazione di questo fenomeno deriva dalla crescita
del numero dei pensionati rispetto a quello dei lavoratori attivi, perché in queste circostanze la
legge di Say, secondo cui l'offerta crea la propria domanda, diviene sempre meno realistica. Il
fenomeno, descritto anche da Smith e da Caine s', per cui la crescita dei salari si traduce in
una corrispondente crescita della domanda effettiva perde la sua efficacia a livello aggregato
se la quota dei lavoratori attivi sul totale della popolazione diminuisce.dunque, con una
popolazione che invecchia perché le aspettative di vita si sono allungate rispetto ai tempi nei
quali i principi della previdenza furono concepiti, la perdita di competitività dovuta alla crescita
del costo del lavoro non è compensata dagli effetti di traino sulla produttività che derivano
dalla crescita della domanda. Lo strumento quindi da utilizzare per sanare questa
problematica sarebbe una profonda revisione del sistema pensionistico.
21. LE NUOVE TENDENZE DELLE POLITICHE INDUSTRIALI, LA
REGOLAZIONE DEI MERCATI E LE AUTHORITIES
In questo capitolo si analizzeranno le nuove politiche industriali, la cui linea ispiratrice può essere
espressa del principio della promozione della tutela di condizioni di concorrenzialità dei mercati,
principio che si realizza con l'eliminazione delle posizioni monopolistiche e nella prevenzione di
comportamenti restrittivi della concorrenza praticati dall'imprese incombenti. Il fondamento di tale
principio risiede nella considerazione sia sul piano teorico che su quello della realtà operativa dei
mercati secondo cui la concorrenza è il miglior sistema possibile non solo nella prospettiva dei
consumatori, ma anche in quella dell'efficienza, della competitività e dell’innovazione. Con ciò si è
determinato un capovolgimento delle politiche che si ispiravano alla protezione dei produttori, le
quali si risolvevano nella maggior parte dei casi nella protezione delle imprese esistenti contro noi
potenziali concorrenti, protezione in cui posso finiva con il gravare sui consumatori.
21.2 LA TUTELA DELLA CONCORRENZA
L'azione delle autorità preposte alla tutela della concorrenza (autorità antitrust) e dei moderni
paesi industriali trova la sua giustificazione economica principale e tradizionale dell'inefficienza
allocativa del monopolio.
In regime di monopolio l'output fissato dal monopolista in condizioni di equilibrio è inferiore
all'output ottimale che si avrebbe nel regime di concorrenza perfetta; come conseguenza anche il
prezzo è più elevato del livello sì male. Si può pertanto parlare di un costo sociale del monopolio
collegato alla perdita di surplus netto sociale.
In misura proporzionale al grado di potere di mercato, condizioni di inefficienza allocativa
caratterizzano anche il costo del oligopolio, che costituisce una forma di mercato più diffusa,
anche se le indicazioni della teoria economica sono meno univoche.
Secondo alcuni sviluppi recenti in ambito delle politiche antitrust, accanto al costo sociale del
monopolio in sé appare rilevante includere anche i costi relativi alla creazione e al mantenimento
di posizioni monopolistiche. Tra questi in particolare quattro casi:
1. comportamenti dei monopolisti rivolte a scoraggiare l'entrata di nuove imprese;
2. comportamenti dei monopolisti nei settori delle public utilities o dei servizi pubblici a rete, volti
a estendere abusivamente la propria posizione dominante in segmenti di mercato contigui, ma
operanti in regime di concorrenza in quanto liberalizzati;
3. costo opportunità legato agli investimenti che altri operatori farebbero se non mi fosse il
monopolio;
4. minore progresso tecnologico del monopolio;
1. L'esistenza di extra profitti in un determinato mercato richiama l'entrata di nuove imprese: se
quindi il monopolista vuole proteggere il proprio mercato, adotterà diverse strategie di
deterrenza dell'entrata tra cui l'applicazione di prezzi più bassi di quelli che portano alla
massimizzazione dei profitti di breve periodo;
2. Nel caso dei monopoli legali o naturali, le imprese mantengono una presenza significativa nei
mercati liberalizzati e collegati verticalmente, a monte o a valle, a quelli in cui insistono
condizioni di monopolio naturale. In particolare gli ex monopolisti legali cercano
frequentemente di mantenere o di espandere le proprie posizioni nei mercati liberalizzati,
ostacolando l'ingresso dei concorrenti ed aggirando così eventuali vincoli regolamentari che
limitano le loro possibilità di profitto negli ambiti specifici del loro monopolio;
3. Il terzo caso di perdita di benessere sociale si riferisce agli investimenti che operatori diversi
da quelli incombenti farebbero si potessero entrare nel mercato: si ritiene che tendenzialmente
i nuovi entranti avere una maggiore propensione ad investire di un monopolista sia un mercato
viene aperto alla concorrenza e che tali investimenti favoriscono maggiormente il consumatore
finale, in quanto non meramente diretti a scoraggiare l'entrata (investimenti strategici) come in
caso di monopolio;
4. L'altra area di perdita di benessere sociale infine è relativa alla correlazione tra un monopolio e
gli incentivi all'innovazione tecnologica. Gli incentivi ad innovare sarebbero più forti
nell'industria concorrenziale rispetto a quelle monopolistiche, mentre il monopolio ritarderebbe
il progresso tecnologico e causerebbe perdite di benessere: alle innovazioni sono infatti
generalmente associati diminuzione di costi ed aumento dei profitti, che possono essere
molto importanti per un'impresa concorrenziale, ma non per un monopolista, che già gode di
extraprofitti.
Le normative per la tutela della concorrenza sono diffuse in quasi tutti i paesi industriali ed hanno
una struttura comune suddivisa nelle seguenti sezioni:
• norme in materia di posizione dominante o di monopolio;
• norme in materia di intese e forme di comportamento coordinato tra imprese;
• norme in materia di concentrazione.
A queste norme si associò la creazione di un organismo tecnico preposto alla loro applicazione.
Le modalità interpretative e applicative delle normative definiscono in ciascun paese la politica
della concorrenza, soggetta ad evoluzioni connesse anche a quelle della teoria economica.
Generalmente le norme di tutela della concorrenza si applicano a tutti i settori dell’economia, ma
ciascuno Stato può individuare settori nei quali la normativa non viene del tutto applicata o trovare
alcune limitazioni in virtù dello specifico contenuto di interesse pubblico che si presentano. Può
essere il caso dei settori della difesa, dei servizi a rete o dell'industria di base, ritenuti strategici
per lo sviluppo economico, la sicurezza la salute pubblica. Allo stesso modo possono essere
previste esenzioni per quanto riguarda comportamenti vietati che vengono tuttavia autorizzati in
ragione degli effetti positivi che ne possono derivare in termini di benessere collettivo (regime di
esclusione ed esenzioni).
- 21.2.2 LA NORMATIVA ANTITRUST NEGLI STATI UNITI
Gli Stati Uniti hanno preceduto tutte le economie industrializzate nell'adottare, nel 1908 1890, la
prima normativa in materia di antitrust, lo Sherman Act.
La prima sezione vieta i cartelli espliciti, affermando che "ogni contratto, ogni associazione in
forma di trust o in altra forma, ogni cospirazione che limiti la concorrenza tra i vari Stati o con le
nazioni straniere è considerata illegale”.
La seconda sezione stabilisce che "ogni persona che monopolizzerà o si associerà per cospirare
con una o più persone per monopolizzare qualsiasi aspetto del commercio tra i vari Stati degli
Stati Uniti verrà ritenuta colpevole di un reato grave”.
Sebbene la seconda sezione formulò esplicitamente un divieto del monopolio, nella prassi
giurisprudenziale successiva alla sua emanazione e l'autorità ne hanno fornito un'interpretazione
diversa, che ha portato a sanzionare solo alcuni comportamenti monopolistici in grado di
generare inefficienza.
Proprio per porre rimedio all'ambiguità della formulazione e risolverne i dubbi interpretativi, furono
approvate successivamente due ulteriori normative antitrust:
Il Clayton Act Mira principalmente a combattere quattro classi specifiche:
• la seconda sezione (emendato nel 1936 da dal Robinson-Patman Act) impedisce la
discriminazione dei prezzi; la terza sezione vieta l'utilizzo di vendite abbinate di due o più beni e
• i monopoli locali che determina una riduzione della concorrenza;
• la settima sezione (emendata nel 1950 dal Celler-Kefauver Act) proibisce le fusioni che limitano
la concorrenza;
In materia di fusioni, anche l'ultima revisione delle linee guida del 2010 dispone l'utilizzo
dell'indice di concentrazione HH per valutare se una funzione è restrittiva della concorrenza (ai fini
dell'istruttoria vengono calcolati i valori dell'indice, moltiplicato per 1000 per ragioni di comodità,
nel mercato rilevante e la sua variazione a seguito dell'operazione di concentrazione). Sulla base
dei casi esaminati, i mercati vengono classificati come:
• mercati non concentrati, quando l'indice assume un valore inferiore a 1500;
• mercati moderatamente concentrati, quando l'indice assume un valore tra 1500 e 2500;
• mercati fortemente concentrati, quando l'indice assume un valore superiore a 2500.
In generale, una variazione dell'indice inferiore a 100 punti non richiede di norma l'avvio di alcuna
istruttoria nei diversi mercati.
I valori dell'indice di cui sopra pertanto individuano una sorta di soglia di attenzione delle
operazioni in esame, senza determinare automaticamente la condanna dell'operazione in oggetto.
L'ottava sezione fa invece riferimento ai meccanismi di corporate governance che influiscono sul
potere di mercato dell'impresa attraverso, in particolare, la partecipazione degli stessi individui nei
consigli di amministrazione di società diverse (pratica che rende possibile il controllo di imprese
concorrenti tramite consigli di amministrazione incrociati o “interlocking directorates”).
Il Federal Trade Commision Act creò una nuova agenzia governativa, la Federal Trade
Commission (FTC), che, oltre a svolgere altre attività pubbliche non connesse alla tutela della
concorrenza, vigilava sull'applicazione delle leggi antitrust e giudicava le controversie in materia.
La sua principale disposizione è contenuta nella quinta sezione, che vieta le forme di concorrenza
sleale. Rientrano tra le sue responsabilità la protezione del consumatore e la prevenzione della
pubblicità ingannevole.
La FTC e il Department of Justice (creato con il Clayton Act) sono gli organismi responsabili
dell'applicazione delle leggi antitrust.un procedimento giudiziario intrapreso dal DoJ viene
giudicato da un tribunale federale (giustizia ordinaria o civile), mentre una causa intentata dall'FTC
viene decisa da un giudice amministrativo presso essa stessa e poi rivista dai suoi commissari.
Una causa intentata dalla FTC può portare a un provvedimento che impone l'abbandono di certe
pratiche (cease and desist order), mentre un procedimento del DoJ può concludersi con un ordine
simile detto injuction o, nel caso di una causa penale, può portare ad ammende o pene detentive.
Il modello statunitense vide dunque coinvolti organi amministrativi e giudiziari nell'attività antitrust:
questa funzione di vigilanza si esplica nel potere di iniziativa dell'azione antitrust condivisa anche
con i procuratori generali di uno Stato federale.
- 21.2.3 LA NORMATIVA ANTITRUST IN EUROPA
Il trattato dell'Unione Europea (articoli da 81 89) fornisce il quadro normativo della politica
europea di concorrenza. Ulteriori norme sono contenute in regolamenti del consiglio e della
commissione. La politica europea di concorrenza comprende cinque ambiti principali d'azione:
1.
2.
3.
4.
Il divieto di accordi restrittivi della concorrenza,
articolo 81;
il divieto di abuso di posizione dominante, articolo 82;
il divieto delle concentrazioni che creano ora forzano una posizione dominante, regolamento
sulle concentrazioni;
5. la liberalizzazione dei settori in regime di monopolio, articolo 86;
6. il divieto degli aiuti di Stato, articoli 87 e 88;
1. L'articolo 81 si applica agli accordi tra imprese che possono pregiudicare il commercio tra gli
Stati membri e che impediscono restringono o falsano il gioco della concorrenza. Rientrano
nelle fattispecie considerate nell'articolo gli accordi orizzontali che hanno ad oggetto la
fissazione congiunta dei prezzi di vendita o rivendita, la spartizione dei mercati e la limitazione
della produzione. Oltre a tali pratiche, sono considerate illecite anche le limitazioni alla
concessione di sconti da parte dell'imprese facenti parte dell'intesa, la fissazione di margini
per la rivendita, gli accordi sui prezzi minimi, la creazione di organizzazioni per la vendita
congiunta di prodotti eccetera… Intese di questo tipo, alterando il gioco della concorrenza,
finiscono per produrre prezzi più elevati e quantità inferiori a quelli desiderati dei consumatori.
Possono risultare restrittive della concorrenza anche in tese realizzate tra imprese che
operano in stadi successivi di un processo produttivo (accordi verticali). Sono esempi di
questa tipologia di accordi di esclusiva tra il produttore del distributore di un bene. Il divieto
però non si applica qualora gli accordi restrittivi contribuiscono a incoraggiare la concorrenza
e qualora soddisfino le seguenti condizioni:
- gli accordi migliorano la produzione o la distribuzione di merci o promuovono il progresso
economico o tecnico;
- gli accordi portano beneficio dei consumatori di una congrua parte dei vantaggi che ne
derivano;
- le restrizioni della concorrenza sono necessarie per conseguire i benefici di cui sopra;
- la concorrenza non viene eliminata per una parte sostanziale dei prodotti o dei servizi in
questione. Per i casi in cui tali condizioni sono sempre dimostrate, la Commissione europea ha
adottato i cosiddetti regolamenti di esenzione per categoria che fissano nel dettaglio le
condizioni da rispettare per determinare categorie di accordi quali, in particolare, gli accordi di
cooperazione tra imprese concorrenti, gli accordi commerciali di fornitura e distribuzione e
quelli materia di trasferimento di tecnologia. Tali regolamenti accordano all'impresa una più
ampia libertà di scelta quanto all'organizzazione della propria attività economica e allo stesso
tempo individuano alcune pratiche apertamente restrittive della concorrenza e pertanto vietate
2. L'articolo 82 vieta lo sfruttamento abusivo di una posizione dominante. Gli abusi possono
consistere in:
- Imposizione diretta o indiretta di prezzi di acquisto o di vendita o di altre condizioni contrattuali
particolarmente gravose;
- limitazione della produzione, dei mercati o dello sviluppo tecnologico con pregiudizio per i
consumatori o di un diritto di proprietà intellettuale;
- applicazione nei rapporti commerciali con altri contraenti di condizioni contrattuali
oggettivamente diverse per prestazioni equivalenti così da determinare pressi ingiustificati
svantaggi nella concorrenza;
- subordinazione della conclusione di contratti all'accettazione da parte degli altri contraenti di
prestazioni supplementari che, per loro natura o secondo gli usi commerciali, non abbiano
alcuna connessione con l'oggetto dei contratti stessi.
3. Le concentrazioni sono disciplinate da un apposito regolamento, da ultimo aggiornato nel
2004, che ha introdotto a livello comunitario una disciplina sul controllo preventivo di tutte le
operazioni di concentrazione (fusioni e acquisizioni) nelle quali il fatturato dell'imprese
interessate superi determinate soglie. In tali casi, prima di realizzare l'operazione, le imprese
devono darne comunicazione alla commissione che può vietarla, allorché la concentrazione
ostacola in modo significativo una concorrenza effettiva nel mercato comune o in una parte
sostanziale di esso.le norme appena ricordate, in aggiunta ad un altro principio generale
contenuta nel trattato che vieta qualsiasi discriminazione in base alla nazionalità delle imprese,
si applicano a tutti i settori dell’economia.
4. In base all'articolo 86 del trattato, "le imprese incaricate della gestione di servizi di interesse
economico generale o aventi carattere di monopolio fiscale sono sottoposte alle norme del
presente trattato, e in particolare alle regole di concorrenza, nei limiti in cui l'applicazione di
tali norme non osti all'adempimento, in linea di diritto e di fatto, della specifica missione loro
affidata”. Per tali servizi vi è ugualmente gli altri settori dell'economia un divieto rivolto agli
Stati membri di introdurre o mantenere in vigore misure contrari alla concorrenza, che può
essere rimosso solo qualora si dimostri che l'applicazione delle norme concorrenziali è di
ostacolo alla specifica missione loro affidata, sia in termini giuridici che di fatto.
Oltre a disciplinare i comportamenti delle imprese, la normativa europea contiene specifiche
clausole dirette a disciplinare l'azione dello Stato in campo economico attraverso l'uso di risorse
pubbliche per promuovere determinate attività economiche o proteggere le industrie nazionali,
indipendentemente dalla natura della proprietà delle imprese, pubblica o privata (artt. 87 e 88).
La concessione di denaro pubblico costituisce un aiuto di Stato: gli aiuti di Stato possono forzare
la concorrenza leale ed effettiva tra le imprese negli Stati membri e danneggiare l'economia,
perciò la commissione europea ne controlla la concessione.
Tra queste misure, oltre quelli aventi carattere generale non selettivo, vi sono quelli a favore dello
sviluppo delle regioni svantaggiate, della promozione delle piccole medie imprese, della ricerca e
dello sviluppo, della produzione dell'ambiente, della formazione, dell'occupazione e della cultura.
Queste norme tracciano i limiti delle politiche industriali tradizionali, che in gran parte coincidono
con misure di sostegno e tutori, subordinando nell'ammissibilità alla verifica delle condizioni di
compatibilità con le finalità sottostanti alla creazione dell'Unione Europea e della politica della
concorrenza.
L'istituzione e poi affidata l'attuazione della normativa tutela della concorrenza a livello
comunitario e la commissione europea, con sede a Bruxelles. Un commissario europeo il
responsabile della politica della concorrenza e a lui fa riferimento, all'interno dell'amministrazione
comunitaria, la componente Direzione Generale Concorrenza. La Corte Europea di Giustizia e del
Tribunale di primo grado sono gli organismi preposti alla valutazione dei ricorsi.
- 21.2.4. LA NORMATIVA ANTITRUST IN ITALIA E L’AUTORITA’ GARANTE PER LA
CONCORRENZA E IL MERCATO
In Italia la normativa antitrust è stata approvata dal parlamento nel 1990, con la legge n. 287/90,
che ha istituito l'autorità garante per la concorrenza e del mercato (Agcm).
La normativa italiana ricalca sostanzialmente quella europea e si rimanda ad essa nel prosieguo,
salvo richiamare il contenuto generale dei singoli articoli della legge italiana.
• L’art. 2 vieta le intese che hanno l'obiettivo o l'effetto di restringere la concorrenza e quindi che
comportano, anche solo potenzialmente, una consistente restrizione della concorrenza
all'interno del mercato nazionale o in una sua parte rilevante. Sono considerate in tese non solo
gli accordi formali tra gli operatori economici, ma tutte le attività in cui è possibile individuare il
concorso volontario di più operatori diretti a regolare i propri comportamenti sul mercato. Sono
pertanto ritenuto in tese sia le pratiche concordate, sia di liberazioni di associazioni consorzi;
• L’art. 3 vieta la muso da parte di uno o più imprese di una posizione dominante all'interno del
mercato nazionale una sua parte rilevante: la legge italiana, così come quella europea, non
vedo la posizione dominante in quanto tale, ma con i vincoli e i possibili comportamenti di
un'impresa che si trova in questa situazione;
• L’art. 4 disciplina vedere il divieto di intesa fornendo una casistica corrispondente a quello
europeo delle condizioni devono essere soddisfatte ai fini dell’applicazione;
• L’art 6 stabilisce, per quanto riguarda le operazioni di concentrazione, che tutte le operazioni in
cui il fatturato realizzato nel territorio italiano delle imprese interessate superi determinate
soglie, prima di essere realizzate, siano comunicati alle autorità, mentre sono esentate le fusioni
e acquisizioni che riguardano imprese con fatturato di moderata entità. L'autorità esamina gli
effetti sulla concorrenza di tutte le operazioni comunicate e quando ritieni che la
concentrazione comporti la costituzione o il rafforzamento di una posizione dominante ne vieta
la realizzazione. Operazioni di concentrazione di dimensione comunitaria rientrano nell'ambito
di applicazione del citato regolamento CE 139/2004 del Consiglio. Se non sono verificati i
requisiti dimensionali stabiliti se sono raggiunte le soglie di fatturato contenute nella legge
nazionale, deviazioni delucidazioni di farlo nell'ambito di applicazione della legge antitrust
nazionale;
• All'articolo otto è previsto che, in caso di monopoli legali di imprese pubbliche, la legge italiana
fa propri i principi comunitari che stabiliscono che la disciplina antitrust possa trovare delle
limitazioni, ma solo per tutto quanto strettamente connesso all'adempimento degli specifici
compiti affidati all'imprese che erogano servizi di interesse economico generale o che operano
in regime di monopolio legale. Proprio al fine di evitare che tali imprese adottino comportamenti
abusivi, sono previsti alcuni obblighi in capo a queste. In particolare, al fine di prevenire le
pratiche volte estendere abusivamente la propria posizione dominante in segmenti di mercato
contigui a quelli liberalizzati, l'articolo impone che le imprese che erano con servizi di interesse
economico generale o che operano in regime di monopolio legale operano in vari segmenti con
società separate;
• L’Agcm ha potere investigativo e decisionale su casi di violazione della concorrenza tra
imprese, abusi di posizione dominante, operazioni di concentrazione, e in più essa acquisito nel
tempo ulteriori competenze in materia di pubblicità ingannevole e di pubblicità comparativa in
materia di conflitti di interessi. A questi compiti si aggiunge l'attività volta a segnalare i casi in
cui i provvedimenti normativi anche regionali già vigenti o in via di formazione siano tali da
introdurre restrizioni della concorrenza che non risultano giustificate in base ad esigenze di
interesse generale. Ciò avviene attraverso la diffusione di segnalazioni e pareri(artt. 21, 21-bis e
22 della legge 287/90).
L'attività di segnalazione nel tempo è ha assunto un carattere di sistematicità a seguito
dell'introduzione della "legge annuale per il mercato la concorrenza", che impone al governo,
entro 60 giorni dalla trasmissione della relazione annuale sull'attività svolta dell'autorità, di
presentare alle camere un disegno di legge annuale per il mercato e la concorrenza.
No CCM svolge dunque un ruolo di promozione della concorrenza, fornendo suggerimenti e
indicazioni su come leggi, provvedimenti amministrativi regolazione settoriali possono essere
orientati in un senso proconcorrenziale. Le decisioni prese dall’Agcm nei vari casi esaminati
sono pubblicate sul bollettino settimanale dell’Agcm e sul suo portale web e le sue decisioni
possono essere considerate presso i Tar e successivamente presso il Consiglio di Stato.
L'autorità è un organo collegiale, formato da più persone, che prendono decisioni votando a
maggioranza. È composta da un presidente e da quattro componenti nominati dal presidente del
Senato della Repubblica e della camera dei deputati.
Dopo anni della sua istituzione, all'autorità sono stati attribuiti nuovi strumenti di intervento: sono
stata introdotta la possibilità di impiegare i programmi di clemenza e di accettare le proposte delle
imprese di impegni, che riducono le sanzioni per le imprese che forniscono un contributo alla
scoperta e all'accertamento di intese orizzontali, tali da far venir meno i profili anticoncorrenziali
oggetto dell'istruttoria.
Oltre all’Agcm sono presenti nell'ordinamento giuridico italiano altre istituzioni che hanno un
analogo ruolo di tutela della concorrenza e di vigilanza in settori specifici, considerati meritevoli di
una tutela distinta da questa la generali, come la Banca d'Italia e l'Istituto per la vigilanza sulle
assicurazioni (Ivass), nel settore del risparmio e delle assicurazioni, e l'Autorità per la vigilanza sui
contratti pubblici di lavori, servizi e forniture, nel settore dei contratti, appalti e concessioni
pubbliche, recentemente confluita nell'autorità nazionale anticorruzione (Anac).
- 21.2.5 OBIETTIVI DELLE POLITICHE PER LA CONCORRENZA E LORO EVOLUZIONE
Devi supposti economici dell'azione antitrust è possibile desumere che il suo obiettivo generale è
quello della promozione dell'efficienza, quale quella che si realizza nei mercati di concorrenza
perfetta. Ma poiché la concorrenza perfetta non è facilmente realizzabile nelle situazioni reali,
l'azione antitrust si attesta su obiettivi di second-best, quali la diffusione del potere di mercato
(quindi la libertà di accesso al mercato) la difesa della libertà economica dei partecipanti al
mercato (e quindi la divisa del funzionamento del meccanismo concorrenziale).
Posto che le politiche antitrust sono mirate all'efficienza allocativa, ne discende che , da un punto
di vista dei destinatari, non possono esservi gruppi o categorie sociali favorite in partenza se non,
in ultima battuta, i consumatori.
L'obiettivo è la concorrenza ma non i concorrenti potenziali o quelli esistenti.questa vicenda non è
sempre stata condivisa dall'azione antitrust che in alcune fasi storiche ed esperienze nazionali
assunto implicitamente o meno obiettivi di politica economica, favorendo categorie economiche
cosiddette meritevoli di tutela a danno di altri.
Ad esempio ti ricordi che la difesa delle piccole imprese e dallo strapotere dei grandi gruppi
conglomerati e all'origine dello Sherman Act.
In generale, tutte le normative e la conseguente prassi giurisprudenziale evolvono in funzione
dell'ambiente economico istituzionale di riferimento. Nella teoria economica, e specificatamente in
quella industriale, si sono susseguiti nel tempo diversi paradigmi teorici (in particolare la
contrapposizione tra scuola di Harvard e scuola di Chicago) che comportavano interpretazioni
diverse degli effetti sul benessere sociale delle diverse forme di mercato, ovvero della nozione di
potere di mercato, dando luogo ai cicli di interpretazione delle normative antitrust.
- 21.2.6 DIFFERENZE TRA LA NORMATIVA STATUNITENSE ED EUROPEA
E maggiore difformità tra le normative statunitensi di europei si sono manifestati in passato
nell'ambito del controllo sulle operazioni di fusioni ed acquisizioni, uno degli strumenti più
importanti della politica antitrust.
Tra gli anni ’30 agli anni ’70, il paradigma SC P e di un'influenza determinante nell'applicazione
della normativa antitrust americana. L’atteggiamento del Doj e della FTC era attento agli effetti dei
comportamenti di impresa sulla struttura di mercato e sulle condizioni di accesso adesso. Durante
gli anni ’50 e ’60 il controllo delle concentrazioni fu molto severo i criteri di valutazione utilizzati
assai restrittivi.
In molti celebri casi antitrust americani degli anni 60 sono previsti divieti per 16 arti tipi di accordi
verticali: la per se rule era funzionale all'obiettivo di politica industriale di difesa delle piccole
imprese che appunto informava la prima fase di applicazione del diritto antitrust statunitense.
A partire dagli anni 70 si afferma invece il pensiero della scuola di Chicago, più attento
all'efficienza: una maggiore attenzione viene rivolta agli aspetti organizzativi del mercato e i
comportamenti delle imprese vengono considerati non persi, ma in relazione gli effetti che si
producono nel migliorare i processi di scambio. Il controllo sulle concentrazioni diventa così meno
preoccupato degli effetti sulla struttura e mirando ad impedire miglioramenti di efficienza.
Con riguardo alle intese verticali, viene richiamato un principio di ragionevolezza (rule od reason)
in contrapposizione al principio della per se condamnation, precedentemente applicato, che apre
la possibilità di utilizzare argomentazioni economiche come difesa nei casi antitrust e quindi di
porre in essere pratiche restrittive ma chi se ne dimostri la non dannosità per il benessere
collettivo.
Per quanto riguarda la normativa europea, occorre osservare che il trattato del 1957 non
contenevano ormai in materia di concentrazione, che furono previste oltre due decenni dopo
attraverso l'emanazione di un apposito regolamento: in un primo momento infatti la politica della
concorrenza europea era più funzionale a scoraggiare i comportamenti restrittivi della concorrenza
che ad agire sulla struttura industriale attraverso la condanna di operazioni che potevano al
contrario consolidare la nascente industria europea.
L'attenzione verso gli interessi dell'industria europea avrebbe contraddistinto la politica sulle
fusioni europee seguito all'emanazione del regolamento, che ebbe finito con il tutelare dalla
concorrenza più le imprese che c'è il mercato la concorrenza in favore dei consumatori: in ciò
risiede una delle maggiori difformità con il diritto antitrust americano.
La normativa della concorrenza in Oropa è stata concepita come uno strumento di integrazione
economica nell'ancora immaturo mercato comune, aspetto del tutto estraneo alla politica antitrust
statunitense. Ne fu prova nei primi anni di attuazione della politica per la concorrenza l'attenzione
principale per i rapporti verticali con cui si potevano tenere isolati i mercati nazionali, creando
delle barriere all'entrata private al posto di quelle doganali, sia il divieto delle importazioni
parallele.
Una tendenza che emerse alla fine degli anni 80 Europa fu rilievo sempre maggiore delle decisioni
che hanno riguardato i monopoli nazionali pubblici, proceduto parallelamente alla liberalizzazione
dei principali servizi a rete. Le decisioni della commissione delle corti sarebbero state ispirate a
una sempre maggiore severità volta a contrastare i comportamenti abusivi derivanti dalla
detenzione di potere di mercato.
Si ravvisa in quest'orientamento l'idea europea dell'impresa dominante abbia una special
responsibility verso i suoi concorrenti, idea che sarebbe nei geni dell'antitrust europeo dove "il
potere di mercato è sottoposto agli oneri e limiti che riguardano chiunque detenga il potere”.
Negli ultimi 15 anni gli interventi della commissione europea hanno riguardato in particolare le
intese restrittive, portando a sanzionare imprese concentrate prevalentemente nel settore
manifatturiero, chimico e dell'industria di base e, ancora più recentemente, la commissione ha
rivolto una particolare attenzione all'applicazione della normativa relativa agli abusi di posizione
dominante nel settore energetico, caratterizzato da integrazione verticale, in settori innovativi. La
più recente area di interesse per l'antitrust europeo è rappresentata dai servizi tramite Internet.
21.3 LA REGOLAZIONE ECONOMICA
Se l'attività di tutela la concorrenza trova la sua giustificazione economica principale
dell'inefficienza allocativa del monopolio, il fondamento economico della regolazione risiede
nell'esistenza di fallimenti di mercato, tra cui è ricompreso anche il caso del monopolio naturale.
Accanto ai motivi economici si aggiungono altre finalità di carattere politico e sociale. Le fonti e le
forme che possono assumere i fallimenti di mercato sono molteplici, ma nell'ambito della
regolazione economica possono essere considerate solo alcune forme:
1.
2.
3.
4.
monopolio naturale;
esternalità;
asimmetrie informative;
universalità del servizio;
1. La condizione di monopolio naturale si realizza quando la domanda del mercato di un bene
può essere soddisfatta da parte di una singola impresa ad un costo più basso, e quindi in
modo più economico di quello che si avrebbe se a produrre il bene fossero due imprese o
qualsiasi altra combinazione di imprese. Poiché monopolio genera vari tipi di inefficienza di
tipo statico e dinamico, deve essere regolato. Ciò può avvenire in vari modi, in particolare
adottando diversi modelli di fissazione del prezzo;
2. Una seconda giustificazione di interesse generale per l'intervento pubblico è la presenza di
situazioni in cui gli operatori sul mercato, nel prendere le proprie decisioni di consumo o di
produzione, sono indotti a trascurare le ricadute degli effetti negativi o positivi di tali decisioni
soggetti terzi (esternalità). Questa interdipendenza altera il funzionamento di mercato in
quanto impedisce il prezzo del bene o servizio di sintetizzare tutte le informazioni rilevanti per
la conclusione dello scambio. In particolare, in presenza di esternalità negative, il prezzo non
riflette il costo sociale del comportamento di domanda o di offerta e si avrà, rispettivamente,
un consumo è una produzione superiore all'ottimo, mentre in caso di esternalità positive si
avrà un consumo una produzione inferiore all’ottimo;
3. La conoscenza da parte dei venditori e degli acquirenti le caratteristiche dei beni e dei servizi
oggetto di scambio è funzionale a garantire un efficiente funzionamento dei meccanismi
concorrenziali. L'informazione su prodotti o servizi può in molti casi risultare insufficiente o
incompleta perché costosa, falsa e complessa. Quando, nonostante ripetuti scambi, la
reciproca esperienza non si rivela sufficiente ad eliminare gli asimmetrie informative tra
compratori e venditori, l'intervento pubblico può essere orientato ad imporre standard
qualitativi minimi o a subordinare l'esercizio di un'attività produttiva a controlli e autorizzazioni;
4. In alcune circostanze il mercato può non garantire la fornitura di un servizio secondo le
modalità ritenute socialmente desiderabili in termini di livello minimo, diffusione geografica sul
territorio, orari di fruizione dello stesso o della gamma di prodotti messa disposizione del
pubblico. Ciò si verifica tipicamente nei già menzionati i servizi a rete o infrastrutturali. Da un
punto di vista di opportunità sociale si ritiene discriminatorio escludere dalla fruizione del
servizio alcuni segmenti di domanda e pertanto vengono esplicitamente previsti obblighi di
servizio universale volte garantire un livello minimo di servizio per tutti. Obblighi di servizio
vengono inoltre imposti anche servizi non essenziali.
Il tema dell'universalità del servizio apre il discorso alle motivazioni non economiche della
regolazione. Da un punto di vista economico i servizi essenziali rientrano nella categoria più bassa
dei beni di merito. Con questo termine si intendono tutti i beni o servizi il cui consumo è ritenuto
un bene, sulla base di considerazioni sociali o politiche, ma comunque extra economiche: la
regolazione può quindi disporre obblighi di fornitura generalizzati oppure specifici.
Appartengono al gruppo delle motivazioni sociali della regolazione anche le finalità redistributive,
sebbene questi rappresentino solo una condizione necessaria ma non sufficiente dell'intervento
regolatorio.
Fra gli altri motivi che possono richiamare l'opportunità sociale di un intervento regolatorio vi è la
condizione di scarsità di un bene che rende necessaria un'ora razionamento in base a criteri di
priorità sociali, politiche ed economiche (ad esempio meccanismi di razionamento dell'acqua
attuate nelle regioni meridionali dove scarseggia).
Un'altra ragione risiede nella presenza di rendite economiche o profitti eccessivi. La regolazione è
desiderabile quando si voglia ridistribuire la rendita anche ai cittadini contribuenti (taxpayers) o ai
consumatori. La motivazione più forte quando l'origine della rendita risiede motivi accidentali
piuttosto che è un investimento programmato ad un progetto deliberato.
- 21.3.2. OGGETTO DELLA REGOLAZIONE
In forma schematica, è possibile ricondurre l'oggetto di una regolazione e, dunque, le
problematiche tecniche affrontate dei regolatori a quello della fissazione dei livelli dei prezzi e dei
loro meccanismi di adeguamento, della fissazione dei livelli di qualità dei servizi regolati e delle
condizioni tecniche di accesso alle reti e ai mercati:
- 21.3.3. IL PROBLEMA DELLA FISSAZIONE DEI LIVELLI DI PREZZO (OPTIMAL PRICING)
Un primo gruppo di tematiche, tu hai trovato affrontare è quello relativo alla fissazione del livello e
della struttura dei prezzi finali e intermedi. Il problema si pone nei termini di definire una
remunerazione è qua per l'impresa che garantisca la massimizzazione del benessere collettivo.
Per illustrare come avviene la fissazione di tariffe nel caso di un monopolio naturale in base a
criteri Martina disse nell'ipotesi di informazioni perfetta e opportuno fare ricorso ad un grafico.
Il monopolista viene sovvenzionato utilizzando il gettito fiscale raccolto in modo efficiente, la
collettività gode di un maggior benessere se il prezzo è pari al costo marginale ed in presenza di
un sussidio. Questo sussidio rappresenta un trasferimento di ricchezza dal monopolista e da
coloro che non utilizzano bene consumatori e, in quanto tale, non implicazioni di benessere.
Perciò, porre il prezzo uguale al costo marginale e sovvenzionare il monopolista portale efficienza.
Tuttavia le ipotesi su cui si basa questo modello sono poco realistiche: raramente i regolatori
conoscono i costi medi del settore o i governi riescono a effettuare il prelievo in maniera efficiente.
Le imposte più comunemente usate, come quella sul reddito e sulle vendite, creano un divario tra
il prezzo e il costo marginale e perciò i sussidi di solito comportano un costo in termini di risorse
reali.
In più, la necessità di trasferimenti del regolatore all'impresa regolata può portare il fenomeno
della "cattura del regolatore", in base al quale le imprese investono risorse per influenzare le
decisioni del regolatore in modo da massimizzare i sussidi da ricevere. Di solito sono più comuni
regolazioni di second best, che pongono il prezzo pari al prezzo medio (pa) invece che il prezzo
marginale (p*).
La discriminazione dei prezzi consente la fissazione di prezzi diversi in funzione della diversa
elasticità al prezzo di ciascun consumatore o gruppo di consumatori.ciò è possibile se il
monopolista è in grado di identificare tali elasticità e di separare i consumatori (segmentazione del
mercato) in maniera da escludere la possibilità di scambio del servizio (arbitraggio).
In tal modo la produzione del monopolista potrebbe avvenire in modo efficiente senza necessità
di erogare un sussidio; tuttavia, questa soluzione danneggia i consumatori che si vedono estratta
tutta la loro rendita ed è infatti per tale motivo che le normative antitrust vietano la pratica di
"applicare nei rapporti commerciali con altri contraenti condizioni oggettivamente diverse per
prestazioni equivalenti”.
Soluzioni compatibili con le normative antitrust sono invece quelle basate non sulla diversa
elasticità del prezzo per prestazioni equivalenti, ma che differenziano I prezzi in funzione dei livelli
dei periodi di consumo: differenze nelle unità di servizio consumati configurano infatti prestazioni
non equivalenti.
Ci spostiamo quindi è il caso dell'impresa multiprodotto, dove si pone anche il problema
dell'imputazione dei costi comuni, rendendo l'analisi della regolamentazione assai più complessa.
In questo caso i prezzi vengono differenziati in base alla teoria di Frank P. Ramsey, secondo cui
un'impresa in monopolio dovrebbe aumentare i prezzi al di sopra dei costi marginali in modo
inversamente proporzionale all'elasticità della domanda rispetto ai prezzi.
Se si applica questa regola i prezzi sono più alti nei mercati a domanda meno elastica e viceversa
e si realizza pertanto una discriminazione dei prezzi.
In altri termini i prezzi ottimali sono quelli di monopolio ridotti proporzionalmente in modo tale che
i ricavi totali siano esattamente uguali ai costi.
Tale regola può essere applicata nella definizione di:
• prezzi non lineari. Ad esempio le tariffe binomie, costituite da una quota fissa, indipendente dal
numero di unità acquistate, e di un prezzo unitario, pari al costo marginale per ogni unità
acquistata. Attraverso la quota fissa tutti i consumatori partecipano in parti uguali alla copertura
dei costi fissi garantendo in questo modo l'equilibrio finanziario dell'impresa.la sua efficienza si
basa sull'assunto che i consumatori siano identici ma, in caso di non identità, si generano
problemi di equità e distorsioni del mercato.
• prezzi di picco. Nel caso in cui la domanda sia soggetta a rilevanti fluttuazioni periodiche È
possibile fissare prezzi diversi per i diversi periodi (peak e off peak), più alti per la fornitura dei
servizi nei periodi di picco e più bassi nei periodi fuori picco. Ciò si rende necessario in quanto i
beni in questione non sono stoccabile e le imprese devono mantenere una capacità produttiva
dimensionata per le fasi di picco, anche se nei periodi fuori picco rimane inutilizzata. Questo
criterio consente all'impresa di remunerare la disponibilità di capacità produttiva per i periodi di
picco.
I diversi metodi di fissazione dei prezzi si basano tutti sul principio dell'efficienza economica.
Nella pratica della regolazione, tuttavia, entrano spesso considerazioni sociali e distributive che
portano alla definizione di un sistema di sussidi incrociati tra i servizi forniti dall'impresa a diversi
gruppi di consumatori. Se ci sono sussidi incrociati alcuni utenti pagano un prezzo inferiore al
costo marginale e la differenza viene pagato da altri utenti che pagano un prezzo superiore al
costo marginale.
La teoria classica della regolamentazione si basa sull'ipotesi cruciale di informazione perfetta: il
regolatore è in grado di osservare la funzione di costo del monopolista privato. La moderna teoria
invece a posto sempre più in evidenza che il regolatore è in condizioni di asimmetria informativa
rispetto all'imprese regolate ed è perciò costretto a ricorrere a formule che mimano il
comportamento dei mercati.
Inoltre le sue decisioni avvengono in condizioni di incertezza, mentre la teoria classica non
considerava gli aspetti dinamici delle strategie di prezzo. Per tali ma tu ragioni la moderna teoria
della regolamentazione sposta il focus dell'analisi sull'incentivazione efficiente dell’impresa.
- 21.3.4 IL CONTROLLO DELLA DINAMICA DEI PREZZI E I SISTEMI DI INCENTIVAZIONE
Una volta determinato il livello ottimale delle tariffe o la struttura dei prezzi amministrati è
necessario tenere conto che proprio l'intervento del regolatore influenza le strategie di variazione
dei prezzi delle imprese: in altri termini se l'amministrazione dei prezzi è finalizzata a mitigare il
potere di mercato o a ridurre i fallimenti di mercato, l'evoluzione dell'economia e delle imprese
potrebbe riproporre in forme diverse gli stessi presupposti di intervento regolatorio.
L’esistenza di asimmetrie informative tra regolatore e impresa regolata è il problema cruciale, e i
maggiori contributi teorici si propongono di costruire modelli di regolazione ottimale che tengono
conto di questo. Tali contributi giungono a definire i meccanismi incentivanti per indurre l'impresa
a raggiungere gli obiettivi che il regolatore stesso si propone.gli schemi di regolazione incentivante
più diffusi sono
• il metodo di regolazione del saggio di rendimento del capitale ( rate of return regulation, Ror),
che ha contraddistinto l'esperienza di regolazione degli Stati Uniti, E consiste nella fissazione
da parte del regolatore di un tasso di rendimento massimo sul capitale investito che l'impresa
dovrà rispettare. Tale vincolo deve spingere l'impresa a fissare tariffe che rispettino quel vincolo
sui profitti, consentendo una remunerazione equa del capitale in linea con i rendimenti che altre
imprese simili ottengono nei mercati. Se il saggio di profitto dell'impresa e ciò di questo valore,
il regolatore impone una riduzione delle tariffe mentre ne consente un aumento del profitto
inferiore;**
• il metodo del vincolo delle variazioni annuali dei prezzi (price cap), che caratterizza l'esperienza
europea italiana.
Accanto a questi trovano minore diffusione l'applicazione di
• un meccanismo di ripartizione dei profitti (profit sharing);
• l'introduzione della concorrenza per confronto tra le imprese (yardstick competition).
** come hanno dimostrato da Averch e Johnson tale meccanismo ha alcuni effetti distorcenti
dovuti all'esistenza di asimmetrie informative a sfavore del regolatore.
Gli effetti di tale intervento regolatorio sono analoghi a quelli di un cambiamento del rapporto tra i
prezzi relativi dei fattori. Quando ciò avviene, l'impresa modifica le proprie scelte a favore del
fattore produttivo che viene remunerato un saggio inferiore a quello ottenuto in assenza del
vincolo posto dal regolatore.sia infatti un'inefficienza produttiva, in quanto l'impresa impiega una
quantità eccessiva di capitale, ed un’ inefficienza allocativa in quanto la produzione avviene a
costi più elevati. Se l'impresa abbassa i costi, il prezzo fissato ex posto dal regolatore sarà
corrispondentemente più basso, in modo da lasciare all'impresa lo stesso tasso di rendimento: in
questo modo non si crea nessun incentivo alla riduzione dei prezzi.
Il problema dell'incentivazione dell'impresa regolata si affianca spesso a quello
dell'aggiornamento delle tariffe o prezzi. Il metodo del price cap consiste nell'applicazione di un
tetto alla crescita dei prezzi dei servizi prodotti da un'impresa, vincolandola, nel tempo, alla
variazione di un indice dei prezzi di un paniere di beni e di una grandezza X che riflette l'efficienza
produttiva. Formalmente: dP = RPI - X (RPI = indice dei prezzi al consumo).
Il price cap può essere applicato attraverso vari modelli operativi, che hanno in comune alcune
caratteristiche. In primo luogo, il vincolo ai prezzi induce l'impresa a comportarsi in maniera più
efficiente, riducendo i costi, perché sa di poter trattenere come profitti le riduzioni dei costi
superiori al valore percentuale fissato dal regolamento pure, ma a differenza del metodo Ror,
analogamente finalizzato a fortini a fornire incentivi alle imprese, il regolatore non deve
necessariamente disporre di informazioni dettagliate sulla struttura dei costi dell'impresa regolata,
rendendo meno stringente il problema dell’asimmetria informativa.
Il regolatore infatti fissa il valore della X sulla base di valutazioni prospettiche sulla capacità
dell'impresa di conseguire efficienza nella produzione.
Anche la scelta della grandezza a cui vincolare il livello iniziale dei prezzi può lasciare un diverso
grado di libertà di movimento dell'impresa.se il vincolo viene definito con riferimento ad un
paniere che include più servizi, l'impresa può modificarne i pezzi purché la loro media ponderata,
cioè l'indice, non aumenti.se invece il vincolo sui singoli servizi offerti dalle imprese, il regolatore
interviene in maniera più persuasiva nella struttura dei prezzi.
Rispetto a Ror, il price cap presenta maggiori vantaggi per uno degli stakeholders dell’industria: i
consumatori. Infatti, tramite il riadeguamento degli indici, i consumatori possono beneficiare delle
riduzioni di costo conseguiti dall'impresa.
Tuttavia il regolatore può trasferire i consumatori e le produzioni dei prezzi dei fattori esogeni:
questo meccanismo di trasferimento si definisce cost pass-through. Le principali ragioni della
crescente popolarità incontrata da price cap sono da riscontrare nella sua relativa relativa
semplicità applicativa, nei bassi costi amministrativi e nelle sue capacità di incentivare l'efficienza
produttiva e migliorare il benessere sociale.
- 21.3.5. LA REGOLAZIONE DEI PREZZI DI INTERCONNESSIONE
Regolazione dei prezzi riguarda anche i prezzi intermedi, oltre a quelli all'utenza finale. I prezzi
intermedi sono rilevanti in tutti i servizi nei quali esiste un'infrastruttura rete il cui utilizzo da parte
di operatori terzi avviene appunto sulla base di tariffe o prezzi regolati.
La rete di trasmissione rappresenta un'infrastruttura alla quale sia le imprese produttrici che quelle
di distribuzione devono allacciarsi.
Si parla a tal proposito di essential facility, un’infrastruttura che:
• costituisce un asset, ossia un mezzo di produzione essenziale per il processo produttivo e
innovativo;
• non può essere facilmente replicata;
• è nella disponibilità di un'impresa in posizione dominante;
• non presenta ragioni tecniche plausibili per negare l'accesso adesso (condivisibilità);
In presenza di questo tipo di infrastruttura occorre regolamentare l'accesso per favorire la
concorrenza delle altri fasi a valle della produzione, stabilendo prezzi regole eque, non
discriminatorie e con riguardo ai soli prezzi efficienti (cost-reflective).
Chi possiede o alla disponibilità di un’essential facility gode di una posizione dominante, rispetto
alla quale si può configurare un abuso qualora vengono applicate pratiche discriminatorie, prezzi
eccessivi o rifiutato l'accesso senza motivazioni. Perciò il regolatore riduce lo spazio di
discrezionalità dell'impresa imponendo ex ante precise e vincolanti regole di accesso alle
infrastrutture essenziali, secondo i criteri prima menzionati. Se le imprese non rispettano tali
regole, si configura un abuso di posizione dominante ed in tal caso è competente ad agire
l'Autorità antitrust attraverso un intervento ex post, anche su segnalazione dell'Autorità di
regolazione.
- 21.3.6. LA REGOLAZIONE DELLA QUALITA’
La teoria della regolazione rileggendo per lungo tempo il suo aspetto della regolazione dei prezzi,
trascurando gli aspetti qualitativi dei servizi offerti invece assumono sempre più importanza nella
dinamica competitiva ed hanno importanti implicazioni di benessere sociale.
La progressiva privatizzazione e liberalizzazione dei servizi pubblici arreso necessario stabilire
nuove regole nuove garanzie utenti. L'utente in questo contesto è forse l'elemento più debole in
quanto meno informato rispetto agli altri agenti e privo di alternative economiche che consentono
di esercitare il suo potere attraverso le scelte di consumo. Proprio per questa ragione sono state
introdotte le authority che hanno lo scopo di regolamentare il settore e di trasferire i consumatori
almeno parte dei guadagni di produttività che è un sistema liberalizzato è in grado di produrre.
Le authorities possono fissare standard qualitativi vincolanti per le imprese regolate.si distinguono
standard di qualità generali, quando sono riferiti al complesso delle prestazioni, e specifici,
quando sono riferiti al corpo alla singola prestazione da garantire all’utente.
Per vincolare le imprese a rispettare i livelli prefissati degli standard qualitativi possono essere
introdotti diversi strumenti incentivanti e penalizzanti ( ad esempio alcuni prevedono indennizzi
automatici di rimborso aiutanti, mentre altri prevedono una modifica del meccanismo di
regolazione dei prezzi).
A questo proposito è stato dimostrato che il monopolista tende sempre ad offrire una qualità
troppo bassa quando venga sottoposto a regolazione mediante price cap: in questo caso
esistono forti incentivi a fornire servizi di qualità subottimale. Dall'altro lato, qualora il regolatore
ponga dei limiti al rendimento del capitale investito e contemporaneamente regoli la quantità,
l'impresa potrebbe essere incentivata ad offrire un servizio di qualità eccessivamente elevata
rispetto all'ottimo sociale.
La formula del price cap può essere modificata per introdurre una riduzione degli aspetti
qualitativi del servizio offerto. Tale regolazione simultanea del prezzo della qualità è ottenuto
attraverso l'inserimento di un termine aggiuntivo della formula RPI - X che diventa RP - X + adQ,
dove dQ misura un miglioramento qualitativo e a è il peso attribuito al fattore qualità del
meccanismo di price cap.
21.4 I COSTI DELLA REGOLAZIONE E LA TEORIA DELLA CATTURA
L’attività di regolazione comporta costi che possono essere valutati secondo una duplice
prospettiva.
Da un lato occorre considerare i costi di funzionamento di una struttura di regolazione richiede e
insieme ai costi amministrativi che l'attività impone all'imprese regolate (costi di adeguamento o di
compliance) e, in generale, al sistema economico istituzionale che deve adeguarsi alle nuove
regole introdotte (costi di transazione).
Dall'altro occorre tener conto della possibile inefficacia o distorsività che lo stesso intervento
regolatorio può introdurre nei mercati (costi di regolazione).
Entrambe le tipologie di costo configurano una possibile regulatory failure, che va confrontata con
il market failure cui la stessa regolazione si propone di porre rimedio. Con riguardo ai costi di
funzionamento, è evidente che l'attività di regolazione con la creazione di autorità dotati di
personale qualificato, strutture operative di analisi monitoraggio a un costo.
Analogamente, le imprese che devono conformarsi alle nuove regole in materia di tariffe, qualità o
funzionamento dei mercati sosterranno costi legati a nuovi sistemi contabili informativi, alla
formazione o al reclutamento di nuove competenze e altro ancora. Tali costi hanno una
dimensione comunque inferiore ai costi di regolazione, che hanno natura sia statica che dinamica.
Il caso più rivelante di regulatory failure è quello considerato nella cosiddetta “teoria della
cattura”, in base alla quale il regolatore tende con il tempo a condividere e tutelare gli interessi
delle imprese regolate e ad esserne catturato. In caso di cattura, il regolatore potrà sovrastimare i
costi del servizio, fissando un prezzo troppo alto per le luci e il benessere dei consumatori e
aumenta i sopra profitti delle imprese.
Ma aldilà del caso di cattura, vi possono essere errori di regolazione che portano a fissare prezzi
troppo bassi, che hanno l'effetto di infliggere perdite all'imprese regolate che alla lunga andranno
a danno dei livelli qualitativi.
21.5 LA CONCORRENZA PER IL MERCATO
Una soluzione alternativa la regolazione economica e quella volta a far emergere attraverso un
meccanismo d'asta la concorrenza per il mercato (franchising), nella quale le imprese competono
tra di loro per avere il diritto di fornire il mercato, in un determinato periodo di tempo.
L’idea fu proposta per la prima volta da Demsetz, il quale vedeva nel meccanismo d'asta una
modalità per far prevalere i mercati dove non è possibile raggiungere la concorrenza l'operatore
più Vicente.
Le condizioni da lui poste per il raggiungimento di questo risultato ottimale sono assai restrittive e
non si incontrano in tutti i mercati: è richiesta l'esistenza di un numero di concorrenti adeguato tra
i quali non sussistono asimmetrie informative e tale da impedire comportamenti collusivi;
l'assenza di investimenti non recuperabili, la completa specificazione del contratto da segnare e la
capacità del regolatore di attivare meccanismi adeguati di enforcement del contratto (controllo e
minaccia di sostituzione in caso di inadempienza).
La concorrenza per il mercato non risolve il problema della regolazione, ma al più può essere uno
strumento complementare all'attività di regolazione, non alternativo. L'asta può essere il primo
momento dell'attività di regolazione, quello in cui si assegna ad un privato la concessione ad
operare su un certo mercato; ciò non esclude che nel corso del tempo possa aver luogo
un'attività di regolazione nei confronti del monopolista, che consenta di governare il contratto
fissato al momento della concessione in presenza di mutate circostanza.
21.6 LA QUALITÀ DEL REGOLATORE
Vista la complessità dei compiti che tendono il mestiere del regolatore, la facilità con cui è
possibile incorrere in errori che potrebbero contraddire la stessa finalità per la quale operano,
impone una grande attenzione al disegno istituzionale dell'autorità che presiedono alla
regolazione economica.
Nella letteratura ci sono molti tentativi di fornire un quadro analitico rigoroso per la valutazione e
comparazione dell'attività di regolazione con l'obiettivo di individuare un modello istituzionale
ideale, capace di adeguarsi a diversi contesti istituzionali ed economici razionali di riferimento.
Secondo Baldwin e Cave (1999) le principali caratteristiche desiderabili sono:
• competenza;
• efficacia;
• efficienza;
• indipendenza;
• accountability;
• trasparenza, accessibilità ed equità delle procedure adottate;
- 21.6.1. IL REQUISITO DELL’INDIPENDENZA
L'indipendenza del regolatore suggerisce una sua collocazione al di fuori di strutture ministeriali,
posto che negli apparati amministrativi preesistenti alla regolazione non risultano in genere
disponibili le competenze necessarie ai nuovi compiti.
L'attività di regolazione non è del tutto assimilabile ad un'attività di applicazione di norme e
procedure prestabilite, ma richiede la fissazione di nuove regole e procedure a situazioni in rapida
evoluzione. Tali compiti sono esercitati per il perseguimento di finalità diverse da quelle del
passato: si tratta del raggiungimento di obiettivi di politica economica sancita governo, ma la
promozione della concorrenza (non la tutela) nei settori caratterizzati da condizioni di monopolio
naturale e la protezione dei consumatori garantiti dai trattati dalla disciplina comunitaria.
Vi sono altri tre motivi che concorrono a ritenere preferibile la soluzione istituzionale colloca
regolatoria di fuori dell'amministrazione ministeriale:
• Il primo è connesso alla funzione-obiettivo del regolatore politico. Un regolatore politico deve
infatti essere rieletto, e ciò lo porta tendenzialmente ad assegnare un peso elevato all'obiettivo
del mantenimento o dell'aumento dei livelli occupazionali nel settore regolato, e a quello di
fissare i prezzi bassi per gli utenti rappresentati dei gruppi di pressione più influenti. In più è
probabile che il regolatore politico sia sensibile a tematiche che esulano dall'economia del
settore, come la volontà di contenere il tasso di inflazione. Egli potrebbe essere quindi
sistematicamente tentato di usare la leva tariffaria per contenere i prezzi nel sistema economico;
• Il secondo problema è connesso alle distorsioni determinate dalla differenza di orizzonte
temporale su cui opera il gestore in quello su cui opera il potere esecutivo. Tipicamente i servizi
pubblici richiedono cicli di investimento estremamente lunghi e periodi di pianificazione
altrettanto, mentre per contro un orizzonte temporale di un controllo politico assai più breve,
coincide normalmente con la lunghezza del mandato elettorale. Se la funzione di regolazione
fosse affidato il potere esecutivo, il regolatore definirebbe il meccanismo regolatorio riferendo
siamo orizzonte temporale molto più breve di quello dell’agente (impresa regolata);
• Il terzo motivo è collegato alla natura proprietaria delle imprese regolate. Se le imprese sono
private, si ritiene che la creazione di un'autorità indipendente sia più adatta a minimizzare i rischi
di comportamenti di tipo politico legati al ciclo elettorale. Questi rischi possono scoraggiare gli
investitori e dunque pregiudicare il valore di mercato delle imprese regolate.
21.6.2. IL REQUISITO DI ACCOUNTABILITY
Questo tema si declina nei due aspetti principali della legittimità democratica e della sindacabilità
e controllabilità da qualche altro potere dello Stato, in genere, ma non solo, l'autorità
giurisdizionale. Esso è risolto in modo assai diverso tra i vari paesi.
Uno strumento tipico di dialogo con altre istituzioni È una presentazione alle camere di una
relazione annuale sull'attività svolta e lo stato dei servizi. Altra forma di collegamento di
armonizzazione tra autorità e organi parlamentari sono le audizioni conoscitive da parte delle
commissioni dei due rami del parlamento.
Accanto a questi strumenti le procedure e le tecniche di regolazione permettono di dare una
soluzione al problema della legittimazione democratica.
La determinazione di tariffe, condizioni di accesso alle essential facilities, standard e livelli
qualitativi (tutti aspetti che rientrano nell'oggetto di lavoro del regolatore) può avvenire attraverso
una procedura che prevede in qualche stadio iniziale o intermedio del processo decisionale la
partecipazione dei vari stakeholder s'interessati al procedimento, con possibilità di
contraddittorio, la considerazione ex ante degli effetti dei provvedimenti e delle soluzioni
alternative. La decisione rimarrebbe sempre dell'autorità che in tal modo ribadisce la sua
indipendenza e autonomia.
Sotto il profilo della sindacabilità, gli atti delle autorità indipendenti devono essere sottoposti a un
giudizio esterno nelle fasi di formazione, applicazione ed effetto. Nella fase ex ante di formazione
delle decisioni sono in genere previste forme di consultazione pubblica che consentono la
partecipazione dei diversi portatori di interessi.
Tra le varie forme di sindacato ex post sull'operato dell'autorità invece si può citare il controllo
sull'attività amministrativo-contabile da parte di organi di controllo interni (collegio dei revisori) ed
esterni (corte dei conti), nonché la sindacabilità giurisdizionale verso la giustizia amministrativa
(Tar e Consiglio di Stato), i cui organi possono intervenire sospendendo annullando i
provvedimenti dell’autorità.
21.7 LE AUTORITÀ DI REGOLAZIONE NELL'ORDINAMENTO ITALIANO
- 21.7.1 LA LEGGE ISTITUTIVA E IL CONTESTO STORICO
I principi dell'attività di regolazione di servizi di pubblica utilità in Italia sono disciplinati nella legge
481/95, che istituisce l'Autorità per l'energia elettrica il gas, precisando nel quadro di regolazione
settoriale e dettando nei principi normativi, e l'Autorità per le garanzie nelle comunicazioni, il cui
funzionamento e competenze sono contenute in un successivo atto normativo. Sono stati
successivamente ricondotti alla disciplina regolatoria gli altri servizi a rete, attraverso il
conferimento dei poteri di regolazione sui servizi idrici alla già citata Autorità per l'energia elettrica
il gas, che ha conseguentemente mutato la sua denominazione in Autorità per l'energia elettrica, il
gas e servizi idrici (Aeegsi), e l'istituzione ex novo dell'Autorità di regolazione dei trasporti (Art).
La legge italiana sulle authorities nasce in un contesto di ripensamento del ruolo dell'operatore
pubblico nell'economia italiana.iniziativa parlamentare prendeva atto dell'inefficacia di interventi
fondati sul ricorso alla gestione diretta da parte dello Stato, riservando per sé le funzioni di
indirizzo generale e attribuendo Autorità indipendenti dal potere politico i compiti di regolazione, e
la convinzione che questi potessero meglio per seguirli.
- 21.7.2. IL MANDATO DEL REGOLATORE E LA SUA EFFICACIA
La legge istituiva istitutiva affida alle tue autorità funzioni di regolazione e di controllo sui settori di
propria competenza. Le finalità a cui devono rispondere regolazione di servizi di pubblica utilità,
sulle quali pertanto è possibile valutare l'efficacia del regolatore italiano, tenuto conto della
normativa europea degli indirizzi di carattere generale formulati dal governo, sono le seguenti:
- garantire la promozione della concorrenza e dell'efficienza nel settore dei servizi di pubblica
utilità;
- garantire adeguati livelli di qualità nei servizi medesimi in condizioni di economicità e di
redditività;
- assicurare la fruibilità e la diffusione dei servizi in modo omogeneo sull'intero territorio
nazionale;
- definire un sistema tariffario certo, trasparente e basato su criteri predefiniti;
- promuovere la tutela degli interessi di utenti e consumatori.
Il sistema tariffario deve inoltre armonizzare gli obiettivi economico-finanziari dei soggetti
esercenti il servizio con gli obiettivi generali di carattere sociale, di tutela ambientale e di uso
efficiente delle risorse.
Si tratta di obiettivi molto significativi da un punto di vista di politica economica e industriale, la
cui formulazione lascia tuttavia un ampio margine di discrezionalità di regolatore.
- 21.7.3. I CONTENUTI DELL’AUTONOMIA E DELL’INDIPENDENZA
In base alla legge istitutiva, le Autorità di regolazione operano in piena autonomia e con
indipendenza di giudizio nel quadro degli indirizzi di politica generale formulati dal governo dal
parlamento e tenuto conto delle normative dell'Unione Europea in materia. Il governo indica alle
autorità, nel Documento di programmazione economico-finanziaria (Dpef, oggi Decisione di
finanza pubblica) o in altri documenti di politica industriale, le esigenze di sviluppo dei servizi di
pubblica utilità che corrispondono agli interessi generali del paese.
Le autorità di regolazione godono anche di autonomia organizzativa definendo i propri
regolamenti per quanto riguarda l'organizzazione interna, il funzionamento la contabilità.
Le autorità formulano osservazioni e proposte da trasmettere al governo e al parlamento e
presentano annualmente al parlamento e al presidente del Consiglio dei Ministri una relazione
sullo stato di servizio sull'attività svolta.
L'Autorità per le garanzie nelle comunicazioni è costituita dai seguenti organi: presidente,
Commissione per le infrastrutture e le reti, Commissione per i servizi e i prodotti e Consiglio.
Ciascuna Commissione è organo collegiale, costituito dal presidente e da quattro commissari,
mentre il Consiglio è costituito dal presidente e da tutti i commissari.
Il presidente dell'Autorità è nominato con decreto del presidente della Repubblica su proposta del
presidente del consiglio, di intesa con il Ministro delle comunicazioni. Senato e Camera dei
deputati eleggono quattro commissari ciascuno, i quali vengono nominati con decreto del
presidente della Repubblica. Per tutte le Autorità, i componenti sono scelti tra persone dotate di
alta riconosciuta professionalità e competenza nel settore. Gli incarichi durano sette anni e non
sono rinnovabili.
A tutela dell'indipendenza delle due Autorità è fatto esplicito divieto comporta ai componenti di
intrattenere rapporti di consulenza o collaborazione o di avere interessi diretti o indiretti nelle
imprese operanti nei settori di competenza (il divieto si estende anche ai 4 anni successivi alla
cessazione dell'incarico).
I poteri di regolazione settoriale fanno riferimento alla determinazione delle tariffe, dei livelli di
qualità dei servizi e delle funzioni tecnico-economiche di accesso e interconnessioni alle reti.
21.8 AUTORITÀ DI GARANZIA E AUTORITÀ DI REGOLAZIONE
Politica della concorrenza e politiche della regolazione costituiscono il fulcro delle nuove politiche
industriali. Esistono differenze nelle giustificazioni economiche, degli strumenti e degli obiettivi
delle due politiche, che si riflettono anche nella collocazione nell'ordinamento giuridico e
costituzionale italiano delle autorità ad essere proposte, rispettivamente l’Agcm e le Autorità di
regolazione previste dalla legge 481/95.
È utile richiamare una distinzione di tipo giuridico tra autorità di garanzia o para giurisdizionali e
autorità regolatrice di servizi:
• Le autorità di garanzia o di tutela sono preposte alla tutela di funzioni di diritti
costituzionalmente rilevanti, quali la libera concorrenza e del corretto funzionamento del
mercato e il diritto all'informazione e svolgono prevalentemente funzioni che potremmo definire
quasi giudiziaria, che si sostanze non nell'applicazione e nelle enforcement delle regole in base
a criteri di imparzialità. L'attività para giurisdizionale si limita a controllare la conformità di un
comportamento alla norma.in particolare l'attività di tutela della concorrenza, che meglio di altre
autorità impersona la figura dell'autorità di garanzia, a un forte contenuto di applicazione, che
implica una completa neutralità dell'organismo, il rispetto di procedure determinate, che
difficilmente risultano compatibili con il perseguimento di altre finalità.
• Sul piano economico, all’Agcm compete il compito di vigilare sul rispetto delle regole in materia
di concorrenza in tutti i settori dell'economia, mentre le autorità di regolazione settoriali
intervengono solo laddove esistono fallimenti di mercato svolgendo l'attività normativa che
definisce ex ante le regole di funzionamento del mercato, vincolanti per gli operatori, anche se
non può essere esclusa anche un'attività di vigilanza ex post sul rispetto delle regole stesse.
Oltre al rafforzamento delle attività di segnalazione e di advocacy orientate alla promozione
della concorrenza, vi sono stati assegnate negli ultimi anni poteri di intervento e non meramente
compiti di aggiudicazione, per prevenire la formazione e il mantenimento di posizioni dominanti
nel settore delle comunicazioni, dell'energia elettrica delle televisioni a pagamento.
22. LA PROPRIETÀ PUBBLICA E PRIVATA DELLE IMPRESE E LE LE
PRIVATIZZAZIONI
Nell'epoca seguita alla prima rivoluzione industriale la proprietà statale costituì una soluzione
largamente praticata nei paesi dell'Europa occidentale per il problema costituito dalla presenza di
monopoli naturali. Così si definiscono i settori di attività economica per i quali vale la condizione
di subadditività, ovvero una funzione dei costi di produzione che presenta un minimo di
corrispondenza dell'esistenza di una sola impresa.
Tale dunque fu la soluzione del problema generalmente accettata nell'Europa, a differenza degli
Stati Uniti, dove si preferì la regolamentazione e la concessione a privati per lo sviluppo delle
grandi industrie di servizi.
In seguito alla grande depressione del 1929-33, che provocò una crisi di sfiducia nei meccanismi
dell'economia di mercato, e dell'attenzione che il dirigismo centralistico sovietico suscita con
leadership politica socialdemocratica e dopo ci dentale, come conseguenza di notevoli successi
del primo piano la proprietà statale dell'impresa non fu più soltanto considerata uno strumento
per correggere le insufficienze dell'economia di mercato (market failures) nei casi di monopolio
naturale, ma assunse anche un carattere valoriale, che vedeva nel nazionalizzazione dell’industria
uno strumento adatto per sostenere l'occupazione e per correggere le diseguaglianze distributive
provocati dal capitalismo.
Al termine della seconda guerra mondiale, con l'affermazione di governi laburisti e socialisti in
Inghilterra in Francia, l'idea che le nazionalizzazioni potessero rappresentare uno strumento
necessario per una maggiore equità distributiva in una cornice di democrazia politica si rafforzò
ulteriormente e la proprietà pubblica si estese rapidamente in vasti settori dell'industria pesante
del sistema bancario.
Da un punto di vista teorico, partendo dagli insegnamenti keynesiani circa i limiti
dell'individualismo dell'economia di mercato, "due sono i vizi che caratterizzano il mondo in cui
viviamo: non assicura la piena occupazione e porta di una ripartizione dei redditi arbitraria e non
fondata sull'equità", oltre alla diffidenza o avversione circa il ruolo del capitale privato nei grandi
complessi industriali e di servizi, finirono rovesciati tutti i postulati su cui reggeva l'equilibrio
economico pre-keynesiano: stabilità dei prezzi, equilibrio di bilancio, concorrenza di tutti i mercati,
incluso quello del lavoro, liberalizzazione degli scambi, regole minime.
Questo portò ad una crescita smisurata del potere della burocrazia statale e dei sindacati, che
rivendicando ai salari la funzione di traino della domanda aggregata, un concetto comune a
Keynes e anche a Smith, nel richiamare una natura di variabile indipendente, ovvero la distruzione
della crescita della produttività.
L'esito della nazionalizzazione fu nel complesso negativo, perché sottraendo alle sanzioni di
mercato inefficienza organizzativa delle imprese fosse riparo dalla proprietà pubblica e
dall'inesauribile fonte di risorse proveniente dal bilancio pubblico, i costi degli interventi crebbero
a dismisura con produttività decrescente, inducendo deficit che alimentavano
contemporaneamente la stagnazione a causa di elevati tassi di interessi provocati con effetti
occupazionali negativi, e l'inflazione, e dunque effetti distributivi opposti a quelli che si sperava di
raggiungere con la politica delle nazionalizzazioni.
Gli Stati Uniti rimasero indenni dalle tendenze stata l'istituto occidentale e non sperimentarono
mai il capitalismo di Stato, sviluppando invece una nuova dottrina circa il controllo esercitato dal
mercato sull'efficienza allocativa.
Il problema dell'eccessiva concentrazione del potere economico finanziario dall'epoca dei
tycoons veniva affrontato con interventi dell'antitrust volti a suddividere in più gruppi indipendenti
le imprese dotate di un potere di mercato giudicato eccessivo, mentre sempre più raramente la
proprietà delle imprese quotate era riconducibile a singoli o a gruppi di azionisti, essendo i fondi
pensione insieme a quelli di gestione del risparmio di gran lunga i maggiori sottoscrittori di azioni.
Per questa via i meccanismi impersonali del mercato si sostituivano la proprietà individuale delle
grandi imprese, innovando gli schemi dell'economia classica e identificando principalmente
nell'impresa manageriale (ovvero l'impresa in cui il controllo è contenibile) il principale strumento
innovativo nel perseguimento dell'ottimizzazione economica.
Gli Stati Uniti quindi, salvo che nel periodo del secondo conflitto mondiale, non conobbero in
riusciti tentativi degli europei di orientare lo sviluppo dell'economia attraverso la programmazione
economica, ma puntarono sullo sviluppo del corporate capitalism basato sulla separazione tra
proprietà e controllo, cui si affiancavano le azioni delle Agencies per realizzare specifici obiettivi o
guidare determinati progetti innovativi, come i programmi spaziali.
Tuttavia anche nel paese più refrattario alle sirene del socialismo si registrò un forte impulso alla
regolamentazione ed un forte aumento della pressione fiscale per finanziare la spesa pubblica i
programmi sociali.
Quest'ultima però non riuscì a tenere il passo con la crescita delle spese militari dovute alla guerra
in Vietnam, da cui un'espansione incontrollata dell'emissione di cartamoneta da parte del tesoro
americano, la conseguente sospensione della convertibilità del dollaro e la comparsa
dell'inflazione degli anni ’70.
La crisi petrolifera di quegli stessi anni diede il colpo di grazia alle dottrine statalistiche e
pianificatrice del socialismo europeo, provocando impennata dell'inflazione, dei tassi di interesse,
della disoccupazione e dei disavanzi pubblici.
Con la nomina di Margaret Thatcher alla carica di Primo Ministro del Regno Unito il corso
dell'economia fece un'inversione di rotta: la politica economica dei neoconservatori prometteva il
ritorno ai principi dell'economia classica di Adam Smith e i conseguenti postulati del free trade,
equilibrio di bilancio e deregulation, identificandoli come condizioni tassative per il
raggiungimento della piena occupazione.
Loro slogan era “ lo Stato è il problema, non la soluzione”, dal momento che lo Stato si era
caricato di cure non necessarie e di poteri pericolosi, per cui si voleva ritornare all'economia
basata sui valori dell'individualismo, sia pure corretti per finalità di giustizia e di equità.
Questi principi, che erano alla base della rivoluzione della scuola di Chicago di Milton Friedman
che ormai dominava il pensiero economico oltre oceano e che si traducevano nelle parole
d'ordine della deregulation e dell'apertura dei mercati, furono affiancati dalla rivalutazione del
ruolo dell'impresa e del capitale di rischio, che ricollocando l'impresa al centro del processo
organizzativo-decisionale dell'economia invocava la soppressione della manomorta statale sui
capitali di comando delle imprese, ovvero la contendibilità del controllo azionario, un concetto che
fu riassunto nella parola d'ordine privatizzazioni.
Conseguentemente alle promesse di restaurazione dell'ortodossia economica, le privatizzazioni
presero l'avvio in Inghilterra E poi si estesero in Francia, Germania, Austria, Spagna, Olanda e via
via tutti i maggiori paesi dove già vigeva la regola dell'economia di mercato mista, e quindi, con il
crollo dei regimi comunisti, anche nell'Europa orientale.
22.2 LE PRIVATIZZAZIONI IN ITALIA
Nel corso degli anni ‘70 l'Italia era ancora il paese occidentale nel quale l'estensione della mano
pubblica sulla proprietà delle imprese aveva raggiunto i confini più estesi, ma il processo
attraverso cui ciò si è realizzato non aveva mai avuto una caratterizzazione ideologica o politica,
fatta salva l’eccezione della nazionalizzazione dell'energia elettrica decisa nel 1962.
La statalizzazione dell'economia italiana non deriva dal principio del socialismo (Basti ricordare
che il tentativo compiuto da Mussolini di nazionalizzare (socializzare) le imprese durante i mesi
della Repubblica sociale fu assicurato dalle forze antifasciste e secondo senza situazioni dei
governi di coalizione che si formarono dopo la liberazione).
E sono piuttosto rigidi in caratteristiche storiche e culturali che caratterizzarono la prima fase del
industrializzazione italiana.
Claudio Napoleoni e Paolo Sylos Labini individuarono il ritardo con cui industrializzazione si avviò
in Italia rispetto agli Stati Uniti, l'Inghilterra e la Francia. In più vi è l'antica diffidenza del carattere
nazionale italiani verso il libero mercato e l'impiego dei capitali in investimenti a rischio.
Con il tramonto delle repubbliche mercantili nel XVI secolo, l'Italia è rimasta del tutto emarginato
dallo sviluppo capitalistico fiorita nell'arte Europa a partire dalla metà del XVII secolo.
Scarsità di capitale di rischio, dipendenza dalle banche e dalle sovvenzioni statali sono dunque le
caratteristiche originarie del processo di industrializzazione italiano.
La soluzione a questo problema fu trovata, come in Germania, nel sistema della banca universale,
la quale raccoglie depositi dei risparmiatori e li converte in investimenti a lungo termine nelle
attività produttive. L’intreccio tra le banche e il controllo delle principali imprese industriali fece sì
che, in conseguenza della grande depressione del 1929-1933, insolvenza dell'impresa minacciò il
tracollo dell'intero sistema bancario italiano.
Il governo intervenne con la costituzione dell'Iri, per salvaguardare la sua pubblicità del sistema
bancario e finì con il ritrovarsi proprietario non solo delle banche di interesse nazionale oggetto
del salvataggio ma anche di gran parte delle imprese italiane di cui le banche costituivano i
principali azionisti.
Neppure la decisione di rompere il cartello sindacale degli industriali, costituendo il ministero delle
partecipazioni statali, fu frutto della contrapposizione tra socialismo e capitalismo di mercato, ma
piuttosto della lotta politica tra le correnti della democrazia cristiana.
Queste vicende conferirono alla dirigenza delle imprese pubbliche una forte autonomia che
consentì loro di cogliere i notevoli successi nell'ammodernamento del paese, incorporando
discrezionalmente una parte degli obiettivi degli interessi nazionali alle proprie scelte
imprenditoriali e dando vita così alla esperienza di corporale management che suscitò molto
interesse e fece scuola in molti paesi in via di industrializzazione.
La formula delle partecipazioni statali realizzava la separazione tra proprietà e controllo, non per il
grande frazionamento dell’azionariato come negli Usa, cioè di fatto per l'assenteismo della
proprietà, ma per il fatto che principale azionista, lo Stato, si asteneva dal intervenire con il
management.
La presenza dello Stato come maggiore azionista conferiva un grande vantaggio al management,
perché faceva sì che il mercato attenuasse la percezione del rischio dell'investimento dell'impresa
e ciò consentì di finanziare progetti che altrimenti sarebbero stati difficilmente realizzabili.
La formula del successo delle partecipazioni statali in Italia si fondava sulla professionalità del
management e sull'autonomia finanziaria.
La prima derivava dal fatto che in origine il management non proveniva dalla burocrazia ma da
settore privato, e questo carattere veniva preservato con il meccanismo della cooptazione,
escludendo interferenze politiche nella scelta dei dirigenti.
La seconda si basava sui discreti margini di profitto, tassi di interesse e storicamente bassi sulla
raccolta di capitali con lo strumento obbligazionario e l'intermediazione di grandi istituti mobiliari
nel tempo (Imi e Mediobanca). Quest'equilibrio si incrinò nel corso della seconda metà degli anni
60, in parte preparazione dei margini di profitto ed in parte in seguito al rialzo dei tassi di
interesse.
Con la crisi petrolifera degli anni ’70 anche in Italia il meccanismo su cui si reggeva l'equilibrio
della formula del capitalismo di Stato entrò definitivamente in crisi.
In queste condizioni l'autonomia del management diveniva una funzione insostenibile: esso, che
dipendeva finanziariamente dal governo e dal parlamento, doveva piegarsi a questi sia nella
definizione degli obiettivi sia nella scelta degli uomini da cooptare.
Fu coniata la definizione di "oneri impropri" come espressione di maggiori costi che le imprese a
controllo statale dovevano sostenere il ragione della loro natura pubblica.
Fu coniata anche l’espressione "azionista occulto” per indicare che le segreterie dei partiti e non
gli organi preposti dal codice civile esercitavano le funzioni di controllo delle aziende pubbliche,
senza alcuna trasparenza e senza dover rendere conto al mercato delle proprie decisioni.
All'inizio degli anni 80 l'infinitamente ai partiti di imprese a partecipazione statale era ormai reso
esplicito e senza pudore, costituendo un sistema in cui i partiti risultare scisso dalle
responsabilità. La dottrina degli oneri impropri configurava una vera e propria modalità di spesa
pubblica non autorizzata e non controllata dal parlamento e dagli organi costituzionali di controllo
della legittimità: l'esperimento italiano volto a prendere le distanze dall'ortodossia del liberalismo
economico finì perciò con un naufragio etico ed economico.
L'agonia del sistema proseguì per tutto il decennio fino alla nomina di Guido Carli a ministro del
Tesoro nel governo guidato da Giulio Andreotti (1993 92).
Guido Carli era un economista di formazione liberale che citava volentieri capiscuola del pensiero
economico liberale Italiano Matteo Pantaloni e Luigi Einaudi, ma certamente non condivideva il
radicalismo neo conservatore di Margaret Thatcher sul piano politico e l'ultra liberismo della
scuola di Chicago sul piano del pensiero economico.
Fu da governatore della Banca d'Italia un fautore della stabilità della moneta, stretto osservatore
dei principi di economia monetaria di Ropke e del liberalismo moderno, secondo il quale
l'inflazione, oltre ad essere un danno per l'economia nel suo complesso, costituisce un'imposta
regressiva che colpisce le categorie più deboli.
Da presidente della Confindustria si battè contro il neocorporativismo, la over regulation che ne
derivava per le imprese e contro l’eccessivo potere sindacale, proponendo una politica dei redditi
concentrata.
La sua azione di ministro del Tesoro ebbe due assi astri polari: la stabilizzazione monetaria da
realizzarsi con un vincolo costituzionale, il trattato di Maastricht viene fornito strumento, e la
conclusione dell'ormai degenerata esperienza dell'imprese a partecipazione statale.
Fu dunque è un conservatore illuminato ma non neoliberista, che pose le premesse per la politica
delle privatizzazioni del nostro paese. Il progetto prese avvio in Italia nel 1990, con un
considerevole ritardo rispetto al resto dell'Europa occidentale. Il marzo di quell'anno il ministro
parli istituì una commissione con l'incarico di predisporre un progetto organico per le
privatizzazioni.
La commissione concluse i lavori presentando un “Rapporto” che costituiva un vero e proprio
piano per avviare l'azione politico-economica delle privatizzazioni.
L'idea guida del piano consisteva nel considerare che di fronte all'enorme estensione del
patrimonio statale nel campo dell'attività economica privatizzazione dovesse prendere l'avvio
superando l'ostacolo più facile, per procedere dopo ad affrontare quelli più difficili, anche in forza
del consenso che sarebbe stato creato dal successo realizzato nella prima fase.
Fu indicato come strumento per eliminare la trasformazione in società per azioni di quella parte
dell'imprese pubbliche che avevano già caratteristiche adatte al collocamento di azioni al
pubblico (Enel, Eni, Ina).
Questa può effettivamente la via presa dalla legge successiva del 1992 n. 359. L'altro grande
colosso delle partecipazioni statali, l’Iri, non fu chiuso nell'elenco degli enti da trasformare in
società per azioni.eccessiva diversificazione delle sue partecipazioni non avrebbe reso
vantaggioso il collocamento al pubblico delle azioni derivanti dalla trasformazione dell'ente.assai
preferibile invece la formula dello spinoff, cioè la vendita separata delle capogruppo settoriali
come in effetti successivamente avvenne.
Il piano contenuto nel rapporto, oltre ad identificare lo strumento, esplicitava anche gli obiettivi
indicandone quattro in modo palese e sottintendendo gli altri due che, pur non essendo di natura
economica, non avevano minore rilevanza per definire la politica delle privatizzazioni:
• concorrere al risanamento del bilancio e del debito pubblico, mediante i proventi delle vendite
azioni;
• allargare il mercato azionario nazionale;
• favorire l'afflusso di capitali dall'estero;
• introdurre maggiore concorrenza nella nostra economia di mercato;
• eliminare l'influenza esercitata dall'azionista occulto, cioè del sistema dei partiti sulla gestione
delle imprese;
• creare, con il successo di collocamenti, l'indispensabile consenso politico, per affrontare i
compiti più difficili costituiti dalla privatizzazione delle ferrovie, delle poste…
Trascorsi oltre 10 anni si può affermare che i primi quattro obiettivi sono stati conseguiti in misura
non trascurabile. Sul fronte del quarto obiettivo si può registrare la fine del monopolio delle
telecomunicazioni e qualche progresso nel campo dei monopoli elettrici. Differenti considerazioni
si devono esprimere per quanto concerne gli ultimi due obiettivi: fatte salve le cospicue eccezioni
costituite dalla privatizzazione della Telecom delle Banche di interesse nazionale, l'offensiva
contro lo statalismo ha soltanto scalfito la presenza della mano pubblica nel nostro sistema
produttivo. Una parte rilevante di ciò che furono l’Iri e l’Efim si trova ancora sotto controllo
pubblico, così come l’Eni e l’Enel, che rappresentano ben più della metà del patrimonio originario
degli enti delle partecipazioni statali.
Nella privatizzazione del settore bancario pubblico fu levante è stato svolto dalle fondazioni, in
parte controllate dagli enti locali e quindi indirettamente ancora dei partiti politici, e in parte retta
su meccanismi di cooptazione che perpetuano un potere che non trova legittimazione nel
mercato.
23. IL PROTEZIONISMO
Con il termine "protezionismo economico" si intende qualunque forma di intervento statale, come
i dazi e il contingentamento delle importazioni, le sovvenzioni alle imprese e così via, che hanno
l'effetto di determinare un sistema di prezzi nel mercato interno diverso da quello che si
formerebbe in loro assenza in un regime concorrenziale, e il cui obiettivo consisterebbe nel
favorire i produttori nazionali rispetto a quelli esteri, migliorando la bilancia commerciale e il livello
di occupazione.
23.2 IL PROTEZIONISMO NELLA STORIA
Qualche forma di protezione commerciale del mercato interno di singole aree economiche esiste
fino dagli albori dell'economia di scambio e degli Stati-nazione, nella forma di dazi
sull'importazione o sul transito delle merci.
Furono probabilmente i restassimo dell'Inghilterra, dopo la fine dell'impero romano, ad introdurre
per primi le imposte doganali in sostituzione dell'antica imposta sui consumi augustea E questa
pratica poi si estese e proseguì per tutto il medioevo.
Tuttavia anche l'obiettivo di sostenere l'occupazione mediante il protezionismo risale a tempi
molto lontani.scrive uno tra i più profondi studiosi del mercantilismo: "uno dei primi casi in cui si
utilizzò l'argomento della disoccupazione riguarda il bando delle importazioni a Firenze nel 1426.
La legislazione inglese in materia di sale almeno il 1455. Un decreto francese quasi
contemporaneo del 1466 che formò le basi per l'industria della seta è rimasto famoso, anche se
non era direttamente rivolto contro le merci straniere”, Eli Hecksher, Mercantilism, 1931.
Comunque, fu la catastrofe economica della Spagna degli Asburgo nel 16º e XVII secolo a fare
riconsiderare sul piano generale la necessità di trattenere loro e l'argento presso le casse dello
Stato ovvero avere un saldo attivo della bilancia commerciale (utilizzando un linguaggio moderno),
scoraggiando le importazioni se necessario e promuovendo le manifatture nazionali e le
esportazioni.
Questa dottrina fu elaborata e messa in pratica nel XVII secolo dal ministro dell'economia del re
francese Luigi XIV, Jean-Baptiste Colbert (1619-1683), da considerare il padre del protezionismo
moderno. Il termine mercantilismo per designare le politiche protezionistiche che si prefiggono di
massimizzare le riserve di metalli preziosi detenute da un paese e di molto successivo: esso
nasce dalla definizione data da Adam Smith al sistema di pensiero che si contrapponeva quello
che poneva l'agricoltura al centro del processo di formazione del reddito nazionale e della
ricchezza (fisiocrazia).
al colbertidmo reagì, un secolo più tardi, l'economista francese Quesnay promotore della scuola
fisiocratica, che qualificava come completamente errata la dottrina colbertista, considerando la
produzione agricola in mano il commercio la sua reale fonte di ricchezza per le nazioni.
Infine, con l'assunzione alla carica di controllore generale del regno di Luigi XIV da parte di
Jacques Turgot(1727-1781) si diede l'avvio ad un programma di riforme di liberalizzazione che
muoveva nel senso opposto al protezionismo colbertiano durante gli anni ’70 del XVIII secolo.
Ma le riforme giunsero troppo tardi furono troppo poco incisive per evitare lo scoppio della
rivoluzione francese.
L'impero inglese da sempre viene associato alla dottrina del liberismo, ovvero del libero scambio,
ma, almeno fino alla vittoria su Napoleone del 1815, non fu affatto così: l'impero era basato su
principi mercantilistica, di cui il Navigation Act del 1651, che assegnava gli armatori inglesi il
monopolio del commercio marittimo dell'impero, è un chiaro esempio.
Il Boston Tea party, che costituì il punto di inizio della rivoluzione americana del 1773, fu la
conseguenza del Tea Act votato dal parlamento inglese in quello stesso anno, che mirava ad
impedire i coloni americani l'acquisto del più economico te olandese, sostituendolo con i prodotti
dell'impero inglese.
Se pure la scintilla che innescò la rivoluzione americana fu di impronta liberista, la legislazione che
ne seguì una volta costituiti gli Stati Uniti d'America non lo fu affatto.secondo le parole di
Alexander Hamilton: "la superiorità acquisita in specifici campi dell'industria da parte delle nazioni
che ne beneficiano da tempo costituisce un formidabile ostacolo per l'introduzione di industrie
similari da parte di paesi che ne sono privi. Tale disparità non può essere superata senza aiuti
straordinari e protezione da parte del governo", 1791.
La divergenza tra Stati Uniti del Nord, favorevoli al protezionismo, e quelli agricoli del sud,
contrari, non fu la meno importante tra le cause che portarono alla secessione del sud e alla
conseguente guerra civile (1861-1865).
Da allora in poi tutte le amministrazioni espresse del partito repubblicano, da Lincoln a Hoover e
alla grande depressione del ’33, furono di orientamento protezionista, imponendo tariffe che
giunsero alla soglia del 100% (Smooth-Haley Tariff).
Analogamente sulla sponda europea dell'Atlantico il periodo tra le due guerre mondiali vide una
forte spinta alle politiche protezionistiche, anche come reazione alla grande depressione, e
impreparazione della ripresa delle attività belliche. In Italia il protezionismo giunse all'apice con la
dottrina dell'autarchia, ossia dell'autosufficienza economica. Essa prevedeva di ridurre il volume
delle importazioni attraverso dazi protezionistici, e di riorganizzare l'industria valorizzando le
risorse nazionali nella prospettiva di una chiusura verso l’esterno.
Persino Keynes, sostenitore dell'economia di mercato, mostra una certa buona disposizione,
sostenendo che è una minore interdipendenza economica degli Stati rispetto al livello precedente
avrebbe potuto rendere meno fragile il sistema del commercio internazionale prevenire grandi crisi
e guerre. In realtà tale politica condusse una caduta della produttività industriale ma soprattutto in
un rapporto ancora più stretto tra Stato e interessi privati.
Al termine della seconda guerra mondiale gli accordi di Bretton Woods (1944) riportarono libero
scambio al centro del processo di ricostruzione delle economie capitalistiche, ponendo le
premesse per il Gatt (General Agreement on Trade and Tariffs) del 1947, ossia per il progressivo
smantellamento di tutte le barriere al commercio internazionale.
Nonostante gli ultimi 60 anni della nostra storia siano stati ispirati alla dottrina del free trade, le
eccezioni costituite da politiche protezionistiche sono state tutt'altro che rare o secondarie: si
pensi alle politiche agricole europee, giapponesi e statunitensi, al protezionismo accordato a
grandi settori in difficoltà, agli aiuti alle industrie strategiche assicurate direttamente dagli Stati in
Europa e indirettamente della spesa militare degli Stati Uniti.
23.3 LE RAGIONI A FAVORE DEL PROTEZIONISMO
Di ragioni che tuttora vengono portate a sostegno delle politiche protezionistiche (dazi, quote
all'importazione, sussidi alle imprese) risultano essere:
1. Il protezionismo preserva l'occupazione nell'industria nazionale. Senza tali misure Inter distretti
industriali che dipendono completamente da determinate industrie sprofonderebbero in una
crisi occupazionale, che comporterebbe forti costi per la collettività sottoforma di sussidi ai
disoccupati che si renderebbero necessari per preservare un'intera comunità dalla miseria;
2. Il protezionismo impedisce che un'intera industria nazionale venga eliminata. In caso contrario
si creerebbe una dipendenza dei fornitori esteri che per ragioni strategiche e commerciali
appare indesiderabile, e che potrebbe alla fine condurre i fornitori ad approfittare della
posizione dominante venutasi a creare;
3. Il protezionismo costituisce un contrappeso alle politiche di aiuti più o meno occulte di cui
beneficiano i concorrenti stranieri. Tariffe doganali, quote all'importazione e aiuti alle imprese
rappresentano strumenti insostituibili o almeno di grande efficacia nei negoziati del commercio
internazionale, in funzione di ritorsione e di deterrenza;
4. Vi è poi l'argomento per cui il protezionismo sarebbe necessario nelle fasi iniziali (infant
industries) dello sviluppo di un settore esposto alla concorrenza internazionale, tuttavia la
questione si può porre per paesi in via di sviluppo non certo per quelli già industrializzati.
23.4 LE RAGIONI CONTRO IL PROTEZIONISMO
Il convertissimo venne criticato sul piano teorico e poi eliminato nella prassi delle politiche
economiche proprio nel paese che ne sulla culla. Tuttavia le critiche di Quesnay si basavano sulla
teoria del valore piuttosto fragile antiquata, e fu solo con i suoi conosciuto fondatore
dell'economia politica moderna, Adam Smith, che le ragioni della supremazia del sistema di libero
scambio trovare un'esposizione completa e convincente.
Tra le ragioni logiche per cui i sistemi basati sulle economie di mercato producono risultati di gran
lunga migliori di ogni altro sistema, smetti indicava in particolare il legame tra specializzazione,
produttività del lavoro ed estensione del mercato (“The division of labour is limited by the extent
of the market”).
Ne consegue che ogni restrizione artificiale degli scambi opera danno per la specializzazione e di
riflesso della produttività del lavoro.
In aggiunta a questi principi generali, cui si legherà successivamente Ricardo, Smith fornisce
un'analisi estremamente precisa e tuttora attuale delle vere ragioni del protezionismo:
“il consumo è la sola finalità e obiettivo di tutta la produzione, e l'interesse dei produttori
dovrebbe essere preso in considerazione solo in quanto necessario per promuovere quello dei
consumatori. Ma nel sistema regolamentato l'interesse dei consumatori e quasi costantemente
sacrificato a quello dei produttori; e sembra che si consideri la produzione e non il consumo il fine
ultimo in oggetto di tutta l'industria e il commercio. Nei casi di regolamentazione si può
dimostrare che si tratti sempre di banali imbrogli con i quali gli interessi dello Stato e della nazione
sono ma criticati a favore di qualche gruppo specifico di operatori”.
David Ricardo (1772-1823) ne segue le tracce con la "teoria dei vantaggi economici comparati"
compreso nella sua opera più famosa, Principles of Political all’Economy and Taxation, 1817.
Prendendo ad esempio un rapporto bilaterale tra due paesi limitato due sulle merci, egli osserva
che, se anche la produttività di un paese fosse stato superiore a quella dell'altro per entrambi i
prodotti, la soluzione ottimale sarebbe consistito nel far produrre al primo paese solo la merce per
cui la sua produttività risultasse in assoluto più elevata e lasciare al secondo l'intera produzione di
della merce restante, ancorché per quest’ultima la produttività del secondo paese fosse inferiore a
quella del primo.
Tale teoria è spesso mal compresa eccitata a sproposito, ma semplici calcoli numerici bastano a
dimostrare che la soluzione della specializzazione di ricardiana porta ad un volume di produzione
più elevato, il maggior prodotto ottenuto complessivamente dalla specializzazione potrebbe
essere poi ripartito attraverso lo scambio.
Nel saggio sul prezzo dei cereali (The Corn Question, Essay on the Influence of a Low Price of
Corn, 1815) Ricardo entra nel cuore del problema delle politiche protezionistiche.
A quel tempo le importazioni di cereali in Inghilterra erano gravate da forti dazi doganali, e ciò
manteneva artificiosamente elevati i prezzi interni di quei prodotti, producendo una rendita per i
proprietari agricoli ma anche la necessità di corrispondere salari più elevati nell'industria, in
conseguenza di maggior costo dei generi alimentari.
Ciò dava luogo a prezzi relativamente più elevati dei prodotti industriali, di cui facevano le spese
dei consumatori, doppiamente sacrificati dal rincaro dei prodotti alimentari e di quelli
dell'industria, come pure la competitività internazionale dell'industria inglese.
Risultava lampante che le tariffe sui prodotti agricoli conferivano un ingiustificato vantaggio ad un
gruppo di interessi, il cui costo era in definitiva sostenuto dei consumatori e delle imprese
esportatrici.
L'ultimo grande economista della tradizione inglese, John M. Keynes, affrontò il problema del
mercantilismo sotto il profilo del legame tra protezionismo i livelli occupazionali nella sua opera
maggiore "teoria generale dell'occupazione, dell'interesse e della moneta".dopo aver premesso
che "se c'è qualcosa che il mercantilismo non può fare e porre rimedio alla disoccupazione", egli
mostra qualche indulgenza verso il concetto, cuore della teoria mercantilistica, secondo cui vi
sarebbe una correlazione in senso inverso tra il surplus della bilancia commerciale ed il livello dei
tassi di interesse.
Questa correlazione disegni uno negativo può però sussistere solo in un regime monetario basato
sulla convertibilità della moneta e metalli preziosi, quale era ancora ai suoi tempi, mentre il
passaggio al sistema della moneta fiduciaria in effetti reciso anche questo tenue legame.
23.5 COME FUNZIONA IN PRATICA
La prima e più frequenti argomentazioni a sostegno del protezionismo è costituita dalla tutela
dell'occupazione, ma nella pratica le cose non vanno proprio in questo modo.
Per venire incontro alle recriminazioni degli industriali siderurgici negli Stati Uniti che si
lamentavano dell'eccessiva competitività delle importazioni del Brasile e minacciavano
licenziamenti, l'amministrazione americana nel 2002 posse andazzo del 30% sulle importazioni di
acciaio del Brasile, rendendo queste ultime più costose della produzione nazionale.
Ma per i fabbricanti copri mozzi per l'industria automobilistica, le cui tariffe non erano state
modificate, il dazio Ray se l'acquisto di acciaio più costoso del 20%, ponendoli fuori mercato
rispetto ai produttori giapponesi che potevano ancora acquistare acciaio a buon mercato del
Brasile, verso i quali i fabbricanti di automobili negli Stati Uniti dirottarono i propri ordini, con
l'effetto di creare una crisi occupazionale nell'industria dei copri mozzi americani.
Il saldo occupazionale (ovvero i posti salvati nella siderurgia meno i posti perduti nell'industria di
trasformazione) risulta ampiamente negativo, così da far giudicare fallimentare l'esperimento: lo
stesso Dipartimento del lavoro USA calcola che, per ogni posto salvato le misure protezionistiche,
se ne perdono otto nel complesso dell’economia.
Ma sei più complesse di questo caso sono le relazioni dell'interscambio tra le tre grandi aree del
commercio internazionale: Nord America, Asia ed Europa.la Cina ha registrato un vertiginoso
aumento delle proprie esportazioni a partire dal 2000, in ragione del 23% annuo. Le esportazioni
cinesi sono costituite da prodotti di bassa tecnologia che vengono venduti a bassissimo prezzo,
mentre le importazioni riguardano soprattutto beni di investimento e materie prime ed
energetiche.conseguentemente i soldi commerciali sono abbastanza equilibrati nel caso Ue-Cina,
ma lo sono molto meno nel caso Usa-Cina.
Gli avanzi commerciali hanno determinato presso la banca centrale cinese e la formazione di
colossali riserve di dollari, ma ciò che apparirebbe un trionfo delle politiche che colbertiane non
corrisponde né agli interessi cinesi né a quelli delle controparti commerciali, perché in definitiva
indica solo che le ragioni di scambio sono falsate.
I prodotti cinesi sono venduti a prezzi troppo bassi, e ciò preoccupa i paesi importatori per gli
effetti occupazionali prodotti da questa sorta di dumping, mentre le importazioni di beni
strumentali dall'Europa hanno prezzi troppo elevati, deprimendo l'accumulazione di capitale
produttivo all'interno della Cina e in definitiva rallentandone lo sviluppo potenziale.
In questo caso il problema era principalmente causato da una distorsione dei rapporti di cambio
tra lo yuan, il dollaro e l’euro. Il cambio del yuan è stato strettamente agganciato fino a poco
tempo fa al dollaro, così che la rivalutazione dell'euro sul dollaro, dovuta anche al disavanzo
commerciale americano, aveva provocato una svalutazione dello yuan sull’euro, E quindi
l'accumularsi delle riserve, e dall'altro la reazione protezionistica degli europei per i settori più in
difficoltà e l'imposizione di dazi sui prodotti tessili calzaturiere per guadagnare tempo e dare
modo a queste industrie di recuperare competitività, con una riorganizzazione che consiste in
larga misura nella delocalizzazione verso paesi a basso costo del lavoro.
Il problema è stato alla fine parzialmente risolto avviando la più ovvia delle soluzioni: lo
scollegamento del cambio dello yuan dal dollaro nel 2005.
Per quanto riguarda invece il secondo argomento portato a sostegno del protezionismo, ovvero
l'opportunità di mantenere una certa autosufficienza nazionale nei vari comparti industriali, si può
dire che in un mondo globalizzato, cioè caratterizzato da un'ampia frammentazione dell'offerta,
l'argomento non ha molto senso.
Se anche un’intera data industria fosse radicata da un particolare paese, il commercio
internazionale renderebbe altamente improbabile la formazione di un cartello universale di
imprese coalizzate nel praticare prezzi monopolistici alle esportazioni verso quel dato paese.
Vi è infine l'argomento che vede negli strumenti del protezionismo un ingrediente necessario delle
politiche commerciali nazionali, per la buona ragione che le politiche protezionistiche esistono
realmente sono praticate non pochi paesi industrializzati o in via di industrializzazione. Lo stesso
Smith contemplava la possibilità che un paese utilizzasse la minaccia di stabilire misure
protezionistiche per indurre gli altri paesi a ridurre le loro barriere commerciali all’importazione.
Anche nel caso del commercio tra Ue, Usa e Cina come abbiamo visto lo strumento
protezionistico può servire a fare pressione per eliminare un elemento esogeno di distorsione della
concorrenza, come un tasso di cambio eccessivamente favorevole all'esportatore. Comunque,
non appena si sia raggiunto il risultato, le misure protezionistiche dovrebbero essere rimosse.
Per il protezionismo in questo caso vale il paradosso delle spese per armamenti: sul fatto che la
guerra non vada in definitiva a vantaggio di nessuno tutti si dicono d'accordo. Ma il fatto che
qualcuno spenda per precostituirsi degli armamenti finisce per costituire un ottimo motivo di
armarsi per tutti gli altri.
Quando poi queste condotte ci tengono effettivamente lontani dalla guerra è questioni altamente
opinabile, così come è difficile calcolare il danno prodotto dalle politiche protezionistica e messa
in atto in funzione di ritorsione verso il protezionismo gli altri paesi.
Il tutto andrebbe messo in conto all'egoismo delle nazioni che impedisce la nascita di un governo
mondiale, qual meno di istituzioni internazionali abbastanza forti da assicurare la pace ed il pieno
funzionamento dei meccanismi dell'economia di mercato nelle e tra le nazioni.
23.6 IL CASO DELLE POLITICHE PREDATORIE
Gli elementi della teoria economica dimostrano inequivocabilmente che le politiche
protezionistiche costano al soggetto che li pratica assai più di quanto rendano alla comunità nel
suo complesso.
L'effetto reale del protezionismo consiste invece nell'avvantaggiare un gruppo di interessi,
ponendo nel costo a carico della collettività, è proprio questa e nella maggior parte dei casi la
reale motivazione dei proponenti.
Bisogna però dare atto che l'utilizzazione dei suoi strumenti appare il male minore quando esso
costituisce una ritorsione a comportamenti protezionistici messi in atto da altri paesi, oppure alla
palese violazione delle regole della fair competition.
Ci si riferisce in questo caso alle politiche predatorie ( preda-tory pricing), che consistono nel
praticare prezzi inferiori al costo variabile marginale allo scopo di eliminare uno o più competitori,
salvo poi, una volta conseguita una posizione dominante, sfruttare quest'ultima con l'imposizione
di prezzi monopolistici.
Pratiche di questo genere sono proibite e sanzionate dall'antitrust dei mercati interni, quindi
perché dovrebbero essere tollerate nell’interscambio internazionale?
L'ingresso massiccio della Cina e dell'India nel commercio internazionale non è un fenomeno
inusitato, ed è largamente positivo anche per il benessere dei paesi occidentali. Cina India stanno
percorrendo la stessa strada che il Giappone e le tigri asiatiche hanno percorso prima di loro.
La previsione ricardiana secondo cui ciascun paese si specializzerà nelle attività che presentano
la produttività più elevata secondo il modello di vantaggi economici comparati, e cioè senza che
la concorrenza cinese dei industrializzati il resto del mondo, appare plausibile semplicemente
perché ciò è già accaduto.
Le politiche di riconversione delle attività che non reggono la concorrenza cinese dovranno essere
ovviamente amministrati con sagacia e dovrà esservi un concerto internazionale per impedire
violazioni alle regole della concorrenza, come le politiche predatorie, ma la storia procede in
questo senso.
La lezione di Ricardo e che, se anche, e per quanto ciò appaia del tutto improbabile, l Cina e
l'India si rivelassero più competitive in tutti i campi dell'economia, la specializzazione secondo la
teoria dei vantaggi economici comparati non comporterebbe comunque per l'Occidente un
destino di the industrializzazione e di declino.
Download