Capitolo 1 I fondamenti dell’economia di mercato. Logica e limiti L’economia industriale è un ramo specialistico dell’economia politica il cui campo di applicazione, INDUSTRY, comprende tutte le attività di impresa svolte su larga scala, ad eccezione del settore agricolo e del settore bancariofinanziario, i quali richiedono strumenti diversi e specifici per poter essere analizzati. Le tappe fondamentali della costituzione dell’Economia industriale come disciplina specialistica risalgono alle opere di ALFRED MARSHALL à “Teoria dell’equilibrio economico parziale” 1890 e “Industry and trade” 1919. Dopo la crisi del ’29, un ampio numero di economisti iniziò ad allontanarsi dalle teorie della scuola neoclassica e dai suoi modelli astratti, con l’obiettivo di approfondire la realtà empirica del fenomeno delle grandi imprese dotate di potere di mercato, cercando di penetrare la realtà del funzionamento delle imprese nel contesto di mercati imperfetti, cioè realmente esistenti e diversi dalle sofisticate astrazioni della teoria dell’equilibrio economico generale. Tale approccio fu iniziato da un ciclo di seminari svoltosi ad Harvard da E.S. MASON, che pose le basi, negli anni ’30, per lo studio delle relazioni causali fra struttura dell’offerta, condotte delle imprese e risultati perseguiti. Questi indirizzi furono poi raccolti e sistematizzati nella pubblicazione del lavoro di Joe BAIN “Industrial Organization” che formalizzò il c.d. paradigma di Harvard, ossia la relazione S-C-P. Altro autore che diede un importante contributo fu George STIGLER, il quale elaborò saggi su vari temi relativi alla materia. Il nuovo indirizzo di studi sul funzionamento dei mercati e sul comportamento delle imprese era poi stimolato ed alimentato dalla produzione di materiale di analisi derivante dalle cause discusse davanti all’Antitrust. Nel corso degli anni quindi l’impostazione generale si è arricchita e sviluppata con nuovi strumenti e nuove strategie, utili ad analizzare il comportamento delle imprese che operano in mercati imperfetti. Questi nuovi sviluppi hanno reso meno convincente il determinismo dell’impostazione tradizionale S-C-P, mettendone in evidenza dei chiari limiti. Tuttavia tale paradigma rimane il punto di riferimento per lo studio della materia ed allo stesso tempo un coerente metodo espositivo degli argomenti di essa. Il sistema di partenza è l’ECONOMIA DI MERCATO basato sull’idea che l’individualismo non è in contrasto con l’utilità generale; concetto presentato in forma satirica da de Mandeville, “la favola delle api: vizi privati e pubbliche virtù”, 1714, che descriveva in modo efficace alcune caratteristiche etiche proprie del funzionamento della società, poi riprese in chiave economica da Smith ed in chiave socio-politica da Benjamin. Nella satira quindi è presente l’origine del giudizio diffuso per il quale alla base del pensiero economico del capitalismo e dello sviluppo dell’economia di mercato vi sia in definitiva la considerazione etica che gli uomini sono fondamentalmente egoisti, e che solo un sistema che volga tale vizio privato all’interesse e al bene comune può corrispondere ai canoni etici del bene. Questa coincidenza tra l’interesse dei singoli e l’interesse generale viene erroneamente attribuita anche alle opere di ADAM SMITH: si tratta infatti in questo caso di una semplificazione che ne travisa il pensiero, fondata sulla lettura affrettata di due celebri brani tratti dalla “Ricchezza delle nazioni”, 1776: il primo, riassunto nella frase “there are no free lunches”, passo nel quale l’economista inglese parla del self-love, dell’egoismo; il secondo passo è quello che esprime la metafora della mano invisibile. Questi due brani possono essere compresi solamente alla luce dell’analisi dell’opera maggiore di Smith, “Theory of moral sentiments”. In essa il ruolo dell’individuo ed il suo interesse personale è definito come prudenza comune, cioè come regola di condotta generale accettata e praticata, unione di ragione e comprensione da una parte e del dominio di sé dall’altra. È evidente che quest’ultimo concetto, il dominio di sé, indica una prevalenza di valori etici nel comportamento dell’individuo, e quindi che l’interesse personale non è da confondere con egoismo e guadagno. L’individuo è posto al centro del pensiero economico, visto che le sue scelte, espressione della prudenza comune, definiscono un sistema di gran lunga preferibile a qualsiasi altro ordinamento. In realtà dalle opere di Smith emerge un altro concetto, cioè quello che la burocrazia (il giudizio dei pochi) farebbe molto peggio di quanto risulterebbe dalla libera scelta dei privati. Dal sistema della libertà naturale dei comportamenti ci si attende la conciliazione dell’interesse privato con l’efficienza= concetto di concorrenza perfetta. La mano invisibile altro non è che il meccanismo di riequilibrio dei mercati ma non è detto che il risultato costituisca l’ottimo assoluto. Smith definisce chiaramente quali compiti richiedano l’intervento dello Stato, ma stila anche un lungo elenco dei difetti del semplice sistema della libertà naturale. L’economista quindi presenta l’economia di mercato basata sulle scelte individuali e il laissez faire solo come presunzione di ottimo sociale, un second best, cioè un sistema non necessariamente ottimale ma preferibile ad un’astratta soluzione non realizzabile. 1 Smith basa la sua definizione del funzionamento dell’economia di mercato sull’osservazione di fatti e comportamenti presentati però in modo universale, cioè validi in ogni circostanza di tempo e luogo. Proprio contro quest’universalità sono state mosse delle critiche da parte degli economisti tedeschi della scuola storico-istituzionale che rifiutavano le generalizzazioni della scuola classica e sostenevano la diversità delle istituzioni nei vari paesi, l’imperfezione dei mercati e il relativismo dei principi economici prefiggendosi di approfondire i singoli casi specifici dai quali poi eventualmente trarre leggi generali. Troviamo quindi da una parte l’indirizzo classico e in seguito neoclassico di orientamento deduttivo e dell’altra l’indirizzo storico-istituzionale di orientamento empirico induttivo. Alfred Marshall fu uno dei più celebri economisti inglesi di Cambridge le cui opere sono considerate l’origine della moderna economia industriale. Fu fortemente critico nei confronti della teoria classica e neoclassica, ritenendo che “Ricardo ed i suoi seguaci” (NON Smith) considerarono l’uomo come entità omogenea, senza studiarne gli aspetti differenziali e senza rendersi conto soprattutto di quanto le condotte e gli elementi strutturali delle industrie fossero suscettibili. L’analisi di domanda ed offerta delle industrie e delle imperfezioni dei mercati (TEORIA DELL’EQUILIBRIO ECONOMICO PARZIALE) spianarono la strada all’economia industriale=campo dell’analisi economica che riguarda specificatamente i casi nei quali le forze spontanee del mercato producono distorsioni all’equilibrio, che si allontana dall’ottimo paretiano, producendo una distribuzione delle risorse imperfetta à market failures: 1. 2. 3. 4. 5. 6. Produzione di beni pubblici e sociali, che il mercato non è in grado di produrre nella quantità e nella specie desiderabili a causa dei comportamenti opportunistici o perché il loro valore non è incorporabile in un prezzo. Presenza di fenomeni legati a incertezza e instabilità che allontanano il sistema dall’equilibrio stabile e che riguardano sia il sistema nel suo complesso (teoria macroeconomica keynesiana) sia circostanze specifiche di singole industrie e mercati (teoria dell’oligopolio e dei giochi strategici). Presenza di restrizioni alla concorrenza determinate dal potere monopolistico Presenza del fenomeno delle esternalità, per cui alcuni costi e benefici che derivano dalle decisioni di singoli operatori non risultano incorporate nel sistema dei prezzi che l’imprenditore prende in considerazione nel determinare le proprie scelte (es. costi dell’inquinamento). Presenza di costi di transazione che rende il ricorso al mercato meno efficiente o più rischioso rispetto all’accentramento delle operazioni produttive nell’ambito di una struttura di comando quale l’impresa. Fenomeno dell’asimmetria informativa (Akerlof), che si determina quando una parte degli operatori del mercato dispone di informazioni rilevanti sulla qualità del prodotto che non sono disponibili agli altri. L’insieme di queste imperfezioni rende la realtà dei mercati ed il loro funzionamento molto diversi da ciò che si determinerebbe in base agli assiomi della concorrenza perfetta, la quale costituisce un caso limite ideale la cui probabilità di verificarsi è piuttosto una eccezione. La rivoluzione industriale ed i successivi sviluppi dell’economia nell’800 hanno da una parte confermato la superiorità dell’economia di mercato sotto il profilo dell’efficienza, dall’altro ne hanno mostrato difetti e limiti funzionali sotto il profilo dei valori etici rappresentati, ed anche hanno mostrato le distorsioni spontanee e l’inattitudine dell’ordine spontaneo a produrre soluzioni accettabili per una casistica rilevante. Tutto ciò ha richiesto l’introduzione di correttivi di carattere istituzionale: a) Sindacati e legislazione del lavoro: il primo problema implicito al sistema basato sull’economia di mercato è rappresentato dalla relativa debolezza dei lavoratori salariati rispetto ai capitalisti che offrono il lavoro. Già Smith aveva affermato che essendo i datori meno numerosi dei lavoratori, era più facile per loro coalizzarsi in cartelli configurando una forma di monopsonio per la contrattazione dei salari. L’economista inglese ricorda che nel mercato del lavoro il principio della concorrenza è ostacolato da una asimmetria di forza contrattuale tra capitalisti e lavoratori per cui per il mercato del lavoro l’equilibrio naturale NON corrisponde ad un equilibrio concorrenziale, ma al monopsonio in l’imprenditore determina la quantità di lavoro da assumere fino a quando la produttività marginale del lavoro è uguale al costo marginale (> salario medio) dando origine ad un plusvalore e ad un minor livello di occupazione. Questa riflessione spinse una parte degli economisti classici, fra cui Marx, a porre al centro della analisi la “legge ferrea dei salari”, per la quale il salario dei lavoratori dipendenti non avrebbe potuto eccedere il livello della pura sussistenza, evitando che vi fosse conseguentemente una caduta della quantità di lavoro offerta. 2 Anche per tale legge vi è un equivoco relativo alla posizione di Smith, visto spesso come uno dei suoi sostenitori, se non proprio l’originale autore. La visione di Smith era però molto più avanzata, toccando addirittura prescrizioni di politica economica. L’economista inglese sottolineava come il segnale più decisivo della prosperità di un paese fosse l’aumento della sua popolazione; sosteneva infatti che se il lavoro fosse stato talmente ben remunerato, allora per una famiglia il fatto di avere numerosi figli, invece che essere un peso, avrebbe rappresentato fonte di opulenza e prosperità. Smith era inoltre convinto che una remunerazione liberale del lavoro è contemporaneamente l’effetto ed il sintomo di una crescente ricchezza nazionale, e che quindi costringere il lavoratore a rimanere povero non è altro che un sintomo di stallo. Gli aumenti della produttività conseguiti dalla tecnologia e dalla applicazione di quantità crescenti del capitale si trasferirono in cospicui aumenti dei salari anche sotto la pressione sindacale, andando a migliorare le condizioni di vita dei lavoratori e dando una espansione sistematica, di lungo periodo, del potere d’acquisto. Ovviamente, nel processo virtuoso di redistribuzione degli incrementi di produttività, le trade unions e la legislazione a protezione dei lavoratori hanno svolto ruolo di primissimo piano nella difficile ricerca di equilibrio fra monopsonio, nel quale spontaneamente cadrebbe il mercato del lavoro, ed il prevenire la formazione di una rendita a favore di lavoratori già occupati. b) Le politiche sociali: Previdenza obbligatoria e sanità: il secondo problema riguarda la capacità dei singoli individui di badare a se stessi. Le prime istituzioni moderne ispirate al principio della giustizia e dell’uguaglianza risalgono alla Germania di Bismarck (assicurazione obbligatoria per pensionamento dei lavoratori dipendenti raggiunti i 65 anni di età) e alla Gran Bretagna del governo liberale di Churchill. Il termine welfare però è legato alle riforme di Roosevelt e di Lord Beveridge. Tali politiche sociali si ispirano a: - uguaglianza delle opportunità; - contenimento delle conseguenze derivanti dalle disuguaglianze nella distribuzione del reddito e della ricchezza; - assistenza pubblica a chi non è in grado di assicurarsi minimo necessario. Il tratto fondamentale di tali politiche è costituito dalle assicurazioni sociali finanziate da contributi obbligatori, pubblica istruzione e fornitura di alloggi a prezzi coerenti con i livelli salariali. Le controversie relative alle politiche sociali nelle democrazie occidentali sono relative alla scelta del livello dei servizi forniti dallo Stato, livello che deve soddisfare i bisogni individuali e delle famiglie senza però costituire un disincentivo al lavoro produttivo (es. sussidi alla disoccupazione troppo elevati). Da questi concetti nasce la definizione contemporanea del liberalismo economico, inteso con il termine economia sociale di mercato. c) Finalità della tassazione: il terzo problema istituzionale è dato dal fatto che il sistema dell’economia di mercato non riduce le disuguaglianze fra i soggetti dell’economia, ma tende ad aumentarle. Inizialmente la principale finalità della tassazione del reddito e del patrimonio era costituita dal finanziamento dei beni pubblici. Smith era favorevole alle concessioni per la realizzazione di beni pubblici ma riconosceva anche la necessità dell’intervento pubblico finanziato con il prelievo di imposte. Tuttavia non si può parlare di finalità di redistribuzione del reddito fino all’inizio del ‘900, la quale fu incorporata nei sistemi fiscali attraverso la progressività delle aliquote. Progressivo e rapidissimo indebolimento del valore dell’uguaglianza. d) Antitrust: la market failure dell’economia capitalistica relativa alla accentuazione delle disuguaglianze riguarda anche la concentrazione delle imprese, ovvero la possibilità di costituire o sfruttare la posizione dominante acquisita nel mercato. Da quando esistono i mercati esiste qualche forma di distorsione intenzionale del mercato e della concorrenza. Si iniziarono a provocare distorsioni sistematiche solamente a partire dalla seconda metà dell’800 con le innovazioni tecnologiche e la diminuzione dei costi di trasporto. Effetto principale delle distorsioni furono crisi di sovrapproduzione e quindi cicli depressivi e recessioni; la discesa dei prezzi spinse gli imprenditori a forzare ancora di più sulla concentrazione per formare posizioni monopolistiche che permettessero loro di controllare quantità o prezzi. La dottrina prevalente nella conduzione degli affari era l’empire building cioè il gigantismo: vi era la convinzione che la grande dimensione procurasse forza competitiva e permettesse di raggiungere dimensioni ancora più grandi. Tutto questo però, oltre a danneggiare i produttori più piccoli ed i consumatori, creava il ceto dei tycoons dotati di una sproporzionata ricchezza ed influenza. La reazione a tutto ciò venne dal ceto politico, quando il senatore Sherman riuscì a far approvare a larga maggioranza l’Act del 1890; la legislazione fu poi migliorata con il Clayton Act del 1914 e con l’istituzione della Federal Trade Commission, ufficio a cui spettava il compito di stabilire quali comportamenti fossero da 3 giudicare “forme di concorrenza sleale”. Se in Europa (es. Trattato di Nizza) i divieti riguardano l’abuso di posizione dominante, negli USA è l’esistenza stessa della posizione dominante ad essere vietata. Nel caso europeo l’obiettivo finale era costituito dalla volontà di integrare i mercati nazionali in un grande mercato unico, nel caso statunitense invece era quello di disperdere il potere economico e ripristinare la fiducia nell’equità del sistema economico e politico. e) Stabilità e sviluppo: quinto, in ordine di tempo, tipo di correttivi introdotti per correggere le imperfezioni dell’economia di mercato riguarda la stabilità e lo sviluppo. La relazione tra alti salari, libera concorrenza e rapida crescita spiega la parte economica dello sviluppo ma non garantisce la stabilità del sistema né il raggiungimento delle condizioni di crescita più elevate possibili con la iena occupazione dei fattori disponibili. Il mercato produce instabilità per tre ordini di motivi: 1)fatto tecnico che si verifica in casi specifici, quando elasticità offerta è maggiore di quella della domanda di una particolare industria (“teorema della ragnatela”); 2)instabilità dei prezzi della moneta; 3)fenomeno del ciclo economico, alla cui comprensione si impegneranno inutilmente molti economisti fino alla comparsa di Keynes. Non è facile indicare a quale economista o a quale scuola si debba attribuire il merito di avere introdotto il valore della stabilità nel sistema dell’economia di mercato. Si orientati ad assegnare tale merito a due personaggi non ugualmente famosi: - KEYNES: introdusse due concetti rivoluzionari per il sapere corrente: à il liberismo e la mano invisibile non garantiscono affatto stabilità e sviluppo: contributo più noto fra quelli dati da Keynes consiste nell’aver messo in luce le ragioni della naturale tendenza verso l’instabilità nei mercati, e quindi il necessario intervento del governo sulla domanda effettiva per stabilizzare il sistema in piena occupazione. Trasse ispirazione dalle vicende della grande crisi, quando i governi di fronte al continuo peggiorare dei mercati rimasero ancorati alle prescrizioni di Cobden e del laissez faire neoclassico. Keynes partì dalla critica alla legge di Say, per la quale la stabilità sarebbe assicurata dal fatto che l’offerta finisce inevitabilmente per creare domanda finale (per Keynes questo equivaleva alla proposizione per la quale non vi sarebbero ostacoli alla piena occupazione). à la moneta non è estranea all’equilibrio dei mercati: se l’offerta di moneta è abbondante, perché la spesa pubblica è finanziata con l’emissione di carta moneta (signoraggio) in luogo delle imposte, ne può derivare una espansione dei consumi e degli investimenti. Da qui la conclusione che domanda ed offerta non sono indipendenti dalla moneta. Occorre inoltre ricordare che Keynes, pur essendo contrario al mantenimento del sistema monetario internazionale, viveva in un mondo in cui l’emissione della carta moneta era limitata dall’impegno dell’emittente alla convertibilità in metallo e dunque la pratica del signoraggio era ristretta a circostanze eccezionali. L’economista americano era molto preoccupato della instabilità che sarebbe potuta derivare dalla globalizzazione dei mercati finanziari. Il sistema di Bretton Woods si basava su tre principi fondamentali: > convertibilità con cambi fissi delle principali valute in dollari, e di dollari in oro; > tendenza verso piena liberalizzazione degli scambi di merci e servizi, creazione WTO; > controllo e sostegno della stabilità dei rapporti di cambio e dei tassi di crescita, esercitato su base mutualistica da FMI e WB. La globalizzazione dei mercati finanziari non era affatto prevista. - ROPKE: fu il principale teorico della stabilità monetaria. Il tedesco comprendeva che l’instabilità del potere di acquisto della moneta provoca, nel migliore dei casi, incertezza negli operatori economici, e quindi disoccupazione e stagnazione. Ropke sosteneva le virtù della moneta dura contro le miserie di quella molle (inflazionistica). Le posizioni di Ropke erano condivise anche dal governatore della Banca d’Italia Luigi Einaudi, il quale fece della stabilizzazione della lira il cardine del programma di politica economica da cui prese l’avvio la ricostruzione del dopoguerra. Il mondo anglo-americano non conobbe l’inflazione nelle proporzioni dei paesi sconfitti, ma dovette reagire agli eccessi dei keynesiani liberal, che sulla base di rilevazioni statistiche sostenevano che l’inflazione non danneggiasse l’occupazione ma che la favorisse. Queste dispute accademiche erano utilizzate dai politici per cercare di acquisire il consenso di gruppi di elettori, ad esempio aumentando spese per assistenza medica o sociale, non aumentando tassazione ecc. La controffensiva monetarista fu guidata da Friedman e dalla scuola di Chicago; il primo riformulò la 4 teoria quantitativa della moneta di Fisher, ricavandone la ferma convinzione che fosse necessario controllare la quantità di moneta e non soltanto i tassi di interesse. Per quanto riguarda la scuola di Chicago invece, essa oltre a reintrodurre il valore della stabilità dei prezzi, spinse la sua critica a tutte le forme di interventismo nell’economia. Prevalsero le idee di Friedman, sostenuta dal presidente della Federal Reserve Volker, le quali portarono durante il governo Reagan ad un lungo periodo di espansione. Reaganomics fu un miscuglio di principi monetaristi e keynesiani: severo controllo base monetaria che spense l’inflazione, accompagnato da una politica fiscale espansiva, che sostenne la crescita del PIL. 5 Capitolo 2 Le metodologie di analisi 1) LA SCUOLA DI HARVARD: metodologia associata ai nomi di MASON e BAIN ha un carattere fortemente empirico. Tale metodo si basa su un approfondimento sistematico della market failure determinata dal potere monopolistico e si articola nel PARADIGMA STRUTTURA-CONDOTTA-PERFORMANCE: la struttura dell’offerta (numerosità e dimensione delle imprese, barriere all’entrata, grado di differenziazione dei prodotti, integrazione verticale) determina le condotte delle imprese (politiche di prezzo, investimenti per produttività e innovazione, spesa pubblicitaria) da cui derivano le performance (risultati) dell’industria, misurabili in termini di efficienza e competitività. Le verifiche empiriche svolte su questa relazione causale dimostrano che alcune caratteristiche osservabili nelle condotte e nelle performance hanno effettivamente un forte legame con la struttura dell’offerta. Queste correlazioni e nessi causali NON COSTITUISCONO una teoria in senso proprio. Il modello di Harvard descrive il raggruppamento delle variabili caratterizzanti una particolare industria in quattro tipologie definite secondo un criterio di relativa omogeneità: 1. 2. 3. 4. CONDIZIONI DI BASE: distinte fra quelle che riguardano la domanda (funzioni di domanda: elasticità, tasso di crescita, tecnologia, sostituibilità, modalità di acquisto) e quelle dell’offerta (funzioni dei costi: materie prime, beni durevoli e non, economie di scala). In condizioni ottimali questi elementi si presentano come esogeni per l’industria, almeno nel medio periodo, dato che l’imprese presenti nel settore non possono esercitare su di loro alcuna azione modificativa nel breve-medio periodo. STRUTTURA DELL’OFFERTA: concentrazione imprese, barriere all’entrata, differenziazione prodotti, integrazione verticale e diversificazione. Elementi che non costituiscono tipicamente oggetto delle strategie delle imprese. COMPORTAMENTI DELLE IMPRESE: politica dei prezzi, spesa pubblicitaria, qualità del prodotto, sviluppo delle quote di mercato e di nuovi prodotti, comportamenti cooperativi o indipendenti. RISULTATI ECONOMICI: tasso di profitto, competitività dei prezzi, efficienza allocativa, saldo della bilancia commerciale, livello delle retribuzioni e dell’occupazione e stabilità\rischiosità del settore. Questi elementi della dinamica di una particolare industria o dell’intero complesso possono essere influenzati da POLITICHE PUBBLICHE attuate dal governo: regolamentazione, barriere commerciali, antitrust, imposte e sussidi, incentivi. Inoltre la relazione causale tra i blocchi di variabili non è necessariamente univoca seppur sia prevalente quella discendente. In sintesi, il modello della scuola di Harvard è fondamentalmente basato sulla osservazione di elementi fatturali derivanti dalla osservazione empirica, stilizzati in categorie omogenee e in relazioni causali. È evidente quindi in questo caso la forte influenza della scuola storica, in cui elemento prevalente della ricerca è l’osservazione e la descrizione dei dati di fatto e non nell’elaborazione di teorie generali. Nonostante la scuola di Harvard consista in un metodo descrittivo-positivo, è comunque facile rilevare alcuni presupposti teorici rilevanti che consistono nel ritenere che alcune caratteristiche di base di una particolare industria possono provocare delle distorsioni della struttura dell’industria, che ne allontanano le effettive caratteristiche da quelle ideali della concorrenza perfetta. Per questo motivo l’economia industriale che si ispira alla scuola di Harvard può anche essere definita “economia dei mercati imperfetti”. Le imprese hanno la possibilità di sfruttare tali imperfezioni a proprio vantaggio, oppure possono contribuire a renderle ancora più profonde. In questa ottica l’intervento della Autorità pubblica è giustificato dalla finalità di correggere il funzionamento dei mercati e fare sì che le performance che ne conseguono sia il più possibile vicine all’interesse generale e a quello dei consumatori. 2) LA SCUOLA DI CHICAGO: deriva dai tradizionali principi dell’economia classica e neoclassica, ai quali fu impressa una dose maggiore di realismo. L’iniziatore fu A. DIRECTOR, fondatore del filone “law and economics”, che si proponeva di approfondire le connessioni fra processi economici e istituti della legislazione, ma l’esponente più significativo fu sicuramente George STIGLER, Nobel per l’economia nell’82. Come la scuola di Harvard essa si basa sulla realtà empirica ma se ne differenzia per l’importanza attribuita alla teorizzazione, cioè alla costruzione di modelli che possano ricondurre i fatti osservati a teorie generali sulle ipotesi di comportamento dei soggetti economici. Stigler afferma che quasi sempre gli interventi della mano pubblica producono effetti sui mercati diversi da quelli desiderati, e che conducono a risultati peggiori di quelli che avrebbero 6 potuto determinare le forze spontanee del mercato; secondo Stigler infatti la prassi che dirige l’intervento pubblico si basa su valutazioni errate, non prendendo spunto da un contesto teorico coerente e approfondito. Risultato diretto del riconoscimento della validità della impostazione della scuola di Chicago sono politiche di deregolamentazione e apertura dei mercati; a differenza della scuola di Harvard, si poneva al centro dell’analisi il potere esplicativo dei fenomeni effettivamente osservati tramite il modello di concorrenza perfetta. In questa ottica quindi le performance dipendono essenzialmente dalla capacità di innovazione e di visione strategica dei manager: sono le migliori performance a formare le posizioni dominanti e non viceversa. In questo senso la scuola di Chicago integra l’impostazione tradizionale ponendo l’accento sulle relazioni causali ascendenti fra i gruppi di variabili. Quando in una industria viene assicurata la libertà di entrata di nuovi concorrenti le distorsioni che si possono osservare nella struttura, in termini ad esempio di concentrazione, rappresentano solamente una fase del processo concorrenziale, destinata comunque ad evolvere sotto la spinta delle forze del libero mercato e della concorrenza. Un intervento dell’autorità di governo, volto a ridurre ad esempio la concentrazione nell’industria, non andrebbe affatto incontro all’interesse generale, perché avrebbe l’effetto di favorire i potenziali concorrenti, al prezzo di costi più elevati e\o di minore innovazione (focus sulle relazioni causali ascendenti fra gruppi di variabili). Se la scuola di Harvard quindi giustifica e sollecita qualche forma di intervento pubblico, quella di Chicago sostiene fermamente che restrizioni, protezioni e aiuti possono solamente allontanare le condizioni di mercato da quelle della concorrenza, risolvendosi in un beneficio per pochi ed in un onere per molti. Per la scuola di Chicago quindi il potere di mercato e le posizioni monopolistiche non sono necessariamente fattori negativi, a patto che siano garantite le condizioni di libertà di entrata oppure la contendibilità. à”LA NUOVA ECONOMIA INDUSTRIALE” (CORNOUT e BERTRAND) : nuovo indirizzo di carattere teorico ed astratto rappresentato dalla teoria dei giochi, che segna un ritorno alla metodologia deduttivistica della tradizione classica e neoclassica, studiando il funzionamento dei mercati ed i comportamenti interattivi fra le imprese. Un gioco è un modello formalizzato che descrive una situazione di comportamenti interdipendenti nel quadro di regole date, dove il risultato di ciascun agente dipende sì dalle sue scelte, ma anche dalle azioni compiute dagli altri giocatori. In questi casi il comportamento ottimale di una impresa dipende non solamente dai propri costi di produzione, dal proprio volume della produzione, ma anche da ciò che l’impresa in questione ipotizza circa il comportamento delle altre imprese. La struttura del mercato e le condotte delle imprese non devono essere assunti come dati ma come il risultato del comportamento delle imprese alla ricerca dei migliori risultati possibili che dipendono quindi non solo dalla capacità di innovazione e di visione strategica dei manager ma soprattutto dall’interazione di forze concorrenti nella produzione di valore in condizioni di informazione imperfetta. 7 Capitolo 3 Settori e mercati. La teoria dell’equilibrio economico particolare di Marshall. Il mercato rilevante. I distretti industriali. Le classificazioni statistiche INDUSTRIA o SETTORE INDUSTRIALE= si riferisce ai venditori identificabile sulla base di fattori di offerta MERCATO= è riferito agli acquirenti, quindi identificabile sulla base di fattori di domanda. In riferimento a elementi dell’offerta, distinguiamo un’industria in base: - - Similarità tecnologica: P.W.S.ANDREWS definisce “industria” come l’insieme di imprese che utilizzano tecnologie di processo simili e possiedono esperienze e conoscenze comuni che rendono possibile produrre, qualora risulti conveniente, un particolare prodotto. Alla stregua di questa definizione, vengono raggruppati processi produttivi simili in quanto abbiano uno stesso background di esperienze e conoscenze, presentino stessa organizzazione tecnica oppure impieghino la stessa materia prima. Criteri di suddivisione legati alla tecnologia e alle materie prime sono adatti a settori tecnologicamente maturi ma non risulta adatto a seguire cambiamenti tecnologici che caratterizzano il dinamismo capitalistico; Reti e sistemi di distribuzione delle imprese: faranno parte di uno stesso settore tutti i beni ed i servizi che la rete controllata da una impresa o da un gruppo di imprese può distribuire o raggiungere. Si tratta di un criterio innovativo, utilizzato dalle imprese impegnate nella competizione in mercati dinamici e dalle autorità antitrust che regolano i settori delle public utilities. Le definizioni basate sul criterio tecnologico presentano il limite di non tenere conto del mercato e dei consumatori, mentre quelle basate sul mercato e su elementi della domanda tengono conto dei gusti e delle preferenze dei consumatori, dei bisogni e delle funzioni di prodotto. I processi produttivi che soddisfano uno specifico bisogno con beni e servizi costituiscono una industria. È ovviamente possibile specificare ulteriormente il bisogno; l’analisi di John BAIN possiede molti elementi di una analisi di mercato, facendo riferimento al concetto di sostituibilità tra prodotti dal punto di vista dei consumatori. Per misurare tale condizione Bain utilizza il concetto di elasticità incrociata tra beni sostituibili: - Elasticità incrociata dal lato della domanda= rapporto tra la variazione percentuale della quantità domandata del bene y rispetto alla variazione percentuale del prezzo del bene x - Elasticità incrociata dal lato dell’offerta= rapporto tra la variazione percentuale della quantità offerta del bene y rispetto alla variazione percentuale del prezzo del bene x Per le imprese la definizione dei mercati è un’operazione molto importante ai fini della scelta delle strategie aziendali: l’interesse delle imprese è più quello di segmentare il mercato in particolare al fine di discriminare i prezzi piuttosto che stabilirne i confini. L’innovazione tecnologica e strategica delle imprese si accompagna alla ridefinizione dei confini dei mercati in conseguenza della scoperta di nuovi bisogni dei consumatori, della creazione di nuovi prodotti o di nuove funzioni o usi per i prodotti esistenti, dell’impiego di diverse modalità di commercializzazione. à AMBITO COMPETITIVO E EQUILIBRIO PARZIALE Gli spetti della domanda e dell’offerta sono legati a quelli di settore industriale tramite il concetto di AMBITO COMPETITIVO (relevant market) = l’insieme delle porzioni della domanda e dell’offerta che presentano una elevata elasticità incrociata dell’offerta e di consumi caratterizzati da una significativa elasticità incrociata della domanda. Tale definizione coincide con quella di EQUILIBRIO ECONOMICO PARZIALE di MARSHALL e con il suo concetto di industry. 8 Dagli scritti di Marshall si deduce una definizione di mercato come spazio economico in cui buyers e sellers sono talmente indipendenti che i prezzi degli stessi beni tendono alla uguaglianza in maniera rapida e semplice. La teoria dell’equilibrio economico parziale considera l’equilibrio quale si realizza in una sola parte dell’economia, in un determinato mercato, supponendo che non varino le condizioni esistenti negli altri mercati, sulla base della ipotesi della massimizzazione dell’utilità quale fondamento dell’agire degli individui nel mercato. à MERCATO RILEVANTE L’applicazione della normativa Antitrust pone l’esigenza di definire l’ambito specifico in cui si esercita la concorrenza fra le imprese, cioè il MERCATO RILEVANTE = “il più piccolo contesto nel cui ambito è possibile la creazione di un potere di mercato”. In maniera più generica è possibile definire mercato rilevante il più piccolo insieme di prodotti in una area geografica in cui è possibile per le imprese porre in atto fattispecie proibite dalla legislazione antitrust. La definizione non fa riferimento quindi a caratteristiche intrinseche dei beni, ma all’insieme dei prodotti e delle aree geografiche che esercitano un vincolo competitivo reciproco. Spesso la definizione del mercato rilevante decide l’esito dei casi Antitrust. In base alle linee guida sulla definizione di mercato rilevante recentemente pubblicate dalla Commissione europea, per individuare i concorrenti effettivi delle imprese interessate in grado di condizionare il comportamento di quest’ultime e di impedire il loro operare in modo indipendente da effettive pressioni concorrenziali, bisogna definire il mercato rilevante sotto 2 PROFILI: v Il mercato rilevante sotto il profilo del prodotto: comprende tutti i prodotti ed i servizi considerati intercambiabili o sostituibili dal consumatore, in ragione delle caratteristiche dei prodotti, dei loro prezzi e dell’uso al quale sono destinati. Il calcolo della elasticità incrociata della domanda permette di misurare il grado di sostituibilità dei prodotti, calcolando quindi la misura in cui l’impresa è soggetta al potere di scelta dei clienti che ne limita specialmente la capacità di fissare un prezzo elevato. Occorre però considerare anche l’elasticità di sostituzione dell’offerta nel caso in cui questa possa influenzare la sostituibilità dal lato della domanda, cioè sia tale da permettere ai fornitori di modificare il loro processo produttivo in modo da fabbricare i prodotti ed immetterli sul mercato in tempi brevi senza dover sostenere costi aggiuntivi o affrontare rischi eccessivi. Un esempio di sostituibilità dal lato dell’offerta è rappresentato dai prodotti differenziati in base alla qualità. In questi casi il mercato rilevante del prodotto comprende tutti i prodotti sostituibili sotto il profilo della domanda e dell’offerta e le vendite correnti di questi prodotti vengono sommate per calcolare il volume totale del mercato. v Il mercato rilevante sotto il profilo geografico: definito come l’area nella quale le condizioni di concorrenza sono sufficientemente omogenee e che può essere distinta da zone geografiche contigue dove le condizioni di concorrenza sono differenti. il limite geografico di un mercato è determinato analizzando l’effetto di un aumento dei prezzi di una località in un’altra. Nel caso in cui un aumento del prezzo in una località influisca in modo sostanziale sul prezzo di un’altra località, allora entrambe le località appartengono al medesimo mercato geografico. Per individuazione del mercato geografico, occorre raccogliere maggiori informazioni relative a: -entità dei costi di trasporto, in relazione al valore aggiunto per unità di prodotto; -disponibilità degli acquirenti del prodotto a spostarsi; -eventuale presenza di barriere di natura tariffaria o non tariffaria agli scambi internazionali. L’attività istruttoria della Agcm e della commissione antitrust europea forniscono numerosi esempi nell’individuare un mercato rilevante: - - Settore calcestruzzo: l’Acgm nel 2004 ha sanzionato un’intesa restrittive nel settore del calcestruzzo volta alla ripartizione di forniture con fissazione di prezzi e condizioni contrattuali. L’istruttoria ha fatto emergere importanti relazioni tecnico-industriali e profili di integrazione verticale tra calcestruzzo e cemento individuando il mercato rilevante di entrambi i settori. Entrambi i beni sono prodotti omogenei e hanno dimensione tipicamente locale per l’elevatezza dei costi di trasporto. Settore tv a pagamento: questo caso riguarda la fusione tra Newscorp e Telepiù, chiuso dalla Commissione europea nel 2003. Nella definizione di mercato rilevante del prodotto, Newscorp sosteneva l’esistenza di un unico mercato tra televisione a pagamento e televisione in chiaro mentre la 9 Commissione identificava 2 mercati rilevanti differenti. La decisione della Commissione si è però basata su una valutazione dei mercati che non ha preso in considerazione la sostituibilità della domanda e dell’offerta e le forme di concorrenza potenziale. Se invece la scelta dei consumatori fosse stata valutata in relazione a variabili scarse come il tempo libero, le due attività sarebbero state tra loro sostitute. Settore bevande: questo caso riguarda l’avvio di una serie di acquisizioni nel mercato della distribuzione di bevande da parte di società come Partesa la quale svolge funzioni di holding di controllo di una rete di società operanti nel medesimo settore. Esso mostra come la modifica strutturale dei mercati può influire sulla determinazione dei mercati rilevanti nel tempo (abbandono del mercato della distribuzione di birra). Partesa in questo caso ha una dimensione nazionale per l’omogeneità dei gusti e la presenza di marchi affermati sul territorio nazionale e la bassa incidenza dei costi di trasporto. àDISTRETTO INDUSTRIALE La prima definizione di distretto deriva da MARSHALL = concentrazione di imprese di piccole e medie dimensioni specializzate nella lavorazione del cotone o della lana o dei metalli. La logica economica dei distretti sta, per Marshall, nella azione delle economie di scala esterne, ossia nei vantaggi di costo associati alla concentrazione di una industria in una particolare area geografica. Questo concetto è stato arricchito da BECATTINI che ne ha fatto il nuovo oggetto di indagine dell’economia industriale impiegandolo come categoria interpretativa dello sviluppo industriale italiano del secondo dopoguerra; osservando i numerosi casi di concentrazione di piccole e medie imprese in Italia (Prato, Carpi, Fermo) trovò una conferma sulla validità teorica del concetto di distretto industriale. Nella sua formulazione i distretti possono essere definiti come un “esteso numero di piccole imprese, legate da relazioni verticali di cooperazione e da relazioni orizzontali di concorrenza, specializzate in una o più industrie complementari in una area delimitata naturalmente e storicamente”. Becattini enfatizza però anche l’interazione tra vita economica e vita sociale che si realizza nei distretti definendoli entità socio-economica caratterizzati dalla compresenza di una comunità di persone e di una popolazione di imprese in una area delimitata naturalmente e storicamente. Il criterio di individuazione del distretto non è quindi solo la similarità tecnologica ma soprattutto il senso di appartenenza ad una comunità di vita e di lavoro. il concetto di distretto ha avuto molta popolarità anche all’estero dove però si fa maggiormente riferimento al termine cluster introdotto da Porter, il quale li definisce come una “concentrazione di imprese, in un ambito territoriale definito, interconnesse fra loro, che si trovano in taluni casi in competizione e in altri a cooperare”. àLe classificazione industriali e le fonti statistiche: al fine di condurre analisi settoriali e indagini compatibili con l’ambito di competenza disciplinare della materia, occorre riferirsi ai sistemi di classificazione delle attività economiche adottate dagli istituti di statistica nazionali e internazionali. Obiettivo di uniformità perseguito a partire dalla nuova classificazione definita nell’ambito delle Nazioni Unite. In Italia l’Istat si è adeguata predisponendo una nuova classificazione, fortemente modificata, delle attività economiche, l’Ateco 2007. In essa ciascuna attività economica viene codificata generalmente con un numero di cinque cifre. Le varie attività economiche sono classificate, dal generale al particolare, in: sezioni, divisioni, gruppi, classi e categorie. Nonostante i continui adattamenti l’attuale classificazione non risponde completamente alle esigenze di studio dell’economia industriale poiché la disaggregazione in classi corrisponde al mercato rilevante ma spesso si richiede una classificazione più fine: le classificazioni statistiche infatti non riescono a cogliere la differenziazione verticale cioè la differenziazione dei prodotti in funzione del livello dei redditi dei clienti e le relazioni tra le attività. 10 Capitolo 4 La teoria dell’impresa Un altro grande cambiamento relativo all’economia di mercato riguarda la natura dei soggetti ai quali è conferita la proprietà del capitale, e quindi il potere decisionale. Il ruolo degli individui si è ridotto e la figura dell’imprenditore e del capitalista si sono fuse in quella di IMPRESA e SOCIETA’, tanto che oggi si parla di coporate o managerial capitalism. La natura dell’impresa è stata oggetto a lungo di una semplificazione eccessiva da parte degli economisti, i quali consideravano l’impresa come una parte della teoria del prezzo, assumendo così la massimizzazione del profitto per l’impresa come principale ed unico criterio decisionale dell’imprenditore. Tuttavia a partire dal contributo di COASE l’impresa iniziò ad essere descritta in maniera più analitica, come una forma di associazione dotata di una personalità distinta da quella degli azionisti che, grazie al suo capitale, ha la possibilità di acquisire risorse trasformabili in prodotti o servizi da vendere sul mercato, ottenendo un profitto con il quale remunerare il capitale e quindi gli azionisti. Invece che essere una mera componente della teoria del valore viene presentata come una organizzazione che sostituisce il meccanismo dei prezzi e degli scambi nello svolgimento dei processi economici, se e quando il principio gerarchico risulti più efficiente del ricorso al mercato. Per quanto riguarda i meccanismi decisionali, nel caso in cui l’impresa sia individuale, il parametro più realistico resta sicuramente il criterio dell’utilità individuale, e la massimizzazione dell’utilità stessa coincide con la massimizzazione del valore del capitale dell’impresa. Tale criterio non coincide però con quello della massimizzazione del profitto. La massimizzazione del valore del capitale può essere conseguita agendo su redditività, crescita e rischio à V = D / (k – g) con V=valore corrente, D=risultato distribuito agli azionisti, k=tasso di capitalizzazione, n=tasso di crescita attesa CAPITALISMI A CONFRONTO Occorre necessariamente indicare quelle che sono le profonde differenze fra il sistema capitalistico anglo-americano e quello continentale. Queste riflettono in parte diversità culturali e psicologiche ed in parte derivano da differenze proprie dei sistemi economici: • • Contendibilità del controllo societario: possibilità per un gruppo esterno all’effettivo azionariato dell’imprese di assumerne il controllo. Le corporations americane e inglese risultano generalmente contendibili perché i sindacati azionari di controllo più grandi mediamente non superano il 5-10% del capitale azionario. Nel continente invece i sindacati di controllo (blocchi azionari di voto) vanno da un massimo del 53-56 % ad un minimo del 20 %, e ciò rende molto più problematica la contendibilità del controllo azionario e quindi la sostituzione dei gestori. Sistema di formazione del risparmio (sistema pensionistico): nei paesi anglosassoni tale sistema è a capitalizzazione, registra cioè forti avanzi finanziari i quali, riversandosi sui mercati di borsa, ne costituiscono il principale strumento di finanziamento esterno delle imprese. Nei paesi continentali invece il sistema pensionistico è a ripartizione, non produce cioè avanzi finanziari, e quindi sarà il sistema bancario ad alimentare prevalentemente il finanziamento delle imprese. 1) CAPITALISMO ANGLOSASSONE La caratteristica principale è la distinzione fra la proprietà che compete all’insieme degli azionisti (mandanti) ed il controllo che è esercitato dagli amministratori/manager (agenti). La principale conseguenza derivante dalla separazione fra proprietà e controllo sta nel fatto che gli obiettivi delle due categorie possono non essere coincidenti, nel senso che il i manager potrebbe non condividere la massimizzazione del profitto per gli azionisti. Tale problema era già identificato al tempo di Smith. Per questo motivo teoricamente il comportamento dei manager è sottoposto ad una serie di vincoli, i quali tendono a farlo coincidere con quanto richiesto dagli azionisti: - Vincoli interni all’impresa: dipendono dalla circostanza che i manager sono assunti con un contratto che li induce a comportarsi in maniera conforme agli interessi degli azionisti. Tuttavia quando l’azionariato è 11 molto frazionato (public company), la capacità degli azionisti di controllare il comportamento del management è più debole, dato che i costi per sorvegliare ed eventualmente sostituire il management sono di norma più alti dei benefici che essi otterrebbero da una migliore amministrazione dell’impresa. Per il medesimo motivo si verifica un’asimmetria informativa, cioè una differenza nelle informazioni a disposizione di azionisti e management, che rende difficile per i primi valutare esattamente il costo di agenzia, cioè la differenza del valore dell’azienda con o senza quel particolare management. Anche l’utilizzo di forme retributive ad incentivo (premi o stock options) non risolve del tutto il problema poiché la congruità dei premi e delle opzioni è stabilita da comitati composti da altri manager e da membri del cda che dipendono dai vertici dell’impresa e che sono monitorati da consulenti scelti e pagati dagli stessi beneficiari. - - - Vincoli derivanti dal mercato del lavoro: risultati poco brillanti della gestione producono una cattiva reputazione per i manager che ne sono responsabili; essendo nelle public companies molto frequente la rotazione del management, l’incentivo ad ottenere una buona reputazione può essere per i manager una motivazione coerente con quella degli azionisti. Vincoli derivanti dalla competizione fra imprese: una impresa poco competitiva è destinata a scomparire, e quindi la sopravvivenza dell’impresa genera nel management una motivazione allineata a quella degli azionisti. Vincoli derivanti dal mercato dei capitali: nel caso in cui una impresa finanziaria non sia gestita in modo tale da massimizzare il suo valore di borsa, il basso prezzo delle azioni costituisce una opportunità per gli investitori che con una scalata ostile alla maggioranza delle azioni possono lucrare la differenza fra valore corrente delle azioni e valore che si determinerebbe se società fosse affidata a gestori più abili o motivati agli interessi degli azionisti. Questo insieme di vincoli permette il raggiungimento di un compromesso fra interessi del mercato e comportamento effettivo degli agenti e ciò rende il capitalismo manageriale non così diverso dal prototipo classico descritto da Smith. Tuttavia le critiche al capitalismo anglosassone riguardano proprio il cuore della costruzione smithiana cioè il nesso fra comportamento razionale ed etica: -La superiorità del capitalismo è stata affermata da Smith per effetto della fusione tra razionalità individuale e valori etici. Il comportamento dei manager è influenzato da considerazioni di breve termine per cui l’interesse per i risultati immediati (short termism) rende ancora più ampia ed indispensabile l’azione di correzione che lo Stato deve compiere sui meccanismi spontanei dell’economia. Ma la potenzialità di svolgere ruoli correttivi resi necessari dal capitalismo è limitata, se non esclusa, dal successo che l’economia di mercato ha avuto (globalizzazione). -Occorre effettuare anche una seconda osservazione, relativa alla comparsa di sintomi che fanno pensare a gravi disfunzioni, le quali potrebbero condurre all’esaurirsi dei requisiti etici su cui si fonda la superiorità del sistema dell’economia di mercato. Non si parla solamente di scandali dovuti alla manipolazione dell’informazione (Enron o Parmalat), ma anche al profondo mutamento di valori della società occidentale. Con il crescere quindi delle dimensioni delle imprese e con l’ampiamento dello spazio occupato da queste nel sistema, accade che troppa ricchezza finisce con l’essere sottratta ai meccanismi impersonali, ugualitari ed etici del mercato. Inoltre, il grande numero dei manager super ricchi è in grado di formare coalizioni che controllano i mezzi di comunicazione, con conseguenti riflessi di condizionamento al sistema politico; a conferma di tutto ciò vi è l’enorme crescita della disuguaglianza fra salario medio e remunerazione dei manager più pagati. La crescita delle dimensioni delle imprese, e della ricchezza e del potere dei loro rappresentati, è anche all’origine della crescita dell’influenza delle lobbies sul potere politico, il che provoca distorsioni che stravolgano lo spirito originario dell’economia di mercato. 2) CAPITALISMO RENANO La principale differenza rispetto al capitalismo anglosassone consiste nella Corporate Governance: il controllo azionario della maggior parte delle grandi imprese è riconducibile ad un numero limitato di soggetti, e non ha la natura pubblica. Da questa differenza deriva una conseguenza fondamentale di carattere culturale: la massimizzazione del valore per gli azionisti cioè il profitto risulta un traguardo assai meno accettato, riguardando un fatto privato dei proprietari. Gli azionisti sono minoritari anche sotto il profilo finanziario, rispetto alle banche, cioè al pubblico dei risparmiatori. Ciò genera una frattura fra la pratica del management 12 e attese degli altri soggetti, e fa sì che la cultura renana diffidi della massimizzazione del profitto. Da questa frattura è sorta una variante di compromesso, cioè una dottrina che stabilisce come obiettivo degli amministratori la massimizzazione del valore non per i soli azionisti (shareholders) ma anche per un ambito più vasto di portatori di interessi esterni, appunto gli stakeholders. Se è possibile facilmente che si presentino casi in cui una valutazione più generale porta a negare che il profitto rappresenti sempre e comunque un valore di utilità generale, il contrasto fra visione orientata a interesse degli shareholders e quella espressa dagli stakeholders poco si presta ad ampie generalizzazioni. Preferibile ricorrere ad esempi: 1) Autunno 2002, la direzione della Fiat auto comunica la sua intenzione di chiudere l’impianto siciliano di Termini Imerese. Evidente è il fatto che ciò fosse in contrasto con gli interessi della comunità dei cittadini di Termini Imerese, mentre risulta meno agevole valutare l’interesse generale in rapporto a quello di azionisti e comunità locale. La prosecuzione dell’attività svolta in modo non economico, alternativa alla chiusura, sarebbe andata a gravare su: • Azionisti: per un generico azionista della Fiat, una riduzione del valore delle sua azioni per sostenere l’occupazione in un piccolo stabilimento siciliano non è accettabile. • Contribuenti: nel caso in cui per mantenere l’attività produttiva la Fiat avesse richiesto ed ottenuto aiuti statali. Tutto ciò senza considerare il divieto posto dai trattati dell’UE. Anche nell’ipotesi in cui i contribuenti fossero consenzienti a sostenere un onere per una motivazione di solidarietà, non è detto che il loro interesse si realizzi. • Consumatori: gli acquirenti di automobili non vogliono acquistare vetture più care o di qualità inferiore rispetto a quelle dei concorrenti. Potrebbero essere costretti a fare ciò nel caso di divieti di importare altre marche (quote all’importazione) o di dazi sulle vetture importate; tuttavia il protezionismo, non solo addossa ai consumatori un costo non necessario riducendone il benessere, ma ha anche il difetto di mantenere in vita imprese inefficienti. Il caso di Termini Imerese è un caso circoscritto, alla fine fu possibile trovare una soluzione trasferendo flussi compensativi di produzione, senza compromettere in maniera sensibile gli interessi in gioco. 2) 2000, caso Fiat Auto – GM, originato dal fatto che la prima aveva perduto una rilevante quota di mercato nei confronti dei concorrenti, dato lo scadimento del rapporto qualità-prezzo dei propri prodotti ed anche perché la riqualificazione della linea dei prodotti avrebbe comportato investimenti per miliardi di euro. Non disponendo di tali cifre il gruppo Fiat, non essendo possibile ricorrere al sistema bancario, e non potendo il gruppo Ifi-Ifil (socio di maggioranza) apportare un tale aumento di capitale, la Fiat aveva la facoltà di vendere (put option) alla GM la sua partecipazione nella Fiat Auto, liberandosi così della necessità di finanziarne il rilancio ed anche dei rischi. Considerando questa come scelta più favorevole dal punto di vista del valore per gli azionisti, la prospettiva dell’utilità per gli azionisti avrebbe coinciso con quella della comunità nazionale? La risposta è negativa. La decisione che infine fu presa dagli azionisti di maggioranza del gruppo cioè la sottoscrizione di un cospicuo aumento di capitale affiancato dall’emissione di un prestito convertibile è stata una decisione chiaramente ispirata da motivazioni etiche e contraria all’interesse personale dei singoli azionisti. Si può dunque concludere che il principale difetto di un sistema basato sull’individualismo consiste nel fatto che gli interessi del tempo presente trovano una rappresentazione più forte di quella del tempo futuro. L’economia di mercato, come la democrazia, consente di rappresentare solo gli interessi di chi già esiste, e non anche quelli delle generazioni future. àEFFETTI DELLA GLOBALIZAZIONE L’Interazione fra liberalizzazione del commercio internazionale e rivoluzione del sistema delle comunicazioni ha determinato un profondo cambiamento dei modelli di attività delle grandi imprese globali. Si tratta di un fenomeno ampiamente acquisito nella cultura dei manager e degli imprenditori, divenuto attualmente al centro dell’attenzione a causa del persistere dei livelli elevati di disoccupazione, associati al fenomeno della “deindustrializzazione” (progressiva riduzione della quota delle attività manifatturiere sul PIL). Rapida crescita del commercio internazionale e l’ingresso della Cina e dell’India nei sistemi dell’economia durante gli ’80 hanno evidenziato dei fattori di novità per ciò che riguarda i modi tradizionali con cui si produce valore per l’economia e risultati per gli azionisti. In una impresa, la produzione del valore nelle attività avviene in una sequenza rappresentabile come una catena formata da tre anelli: 13 a) Concezione e progetto industriale di un prodotto o servizio b) Produzione manifatturiera c) Attività di marketing e distribuzione I modelli tradizionali di management si concentravano particolarmente sull’anello sub b), dato che l’attività manifatturiera era considerata l’area strategicamente più rilevante per la competitività delle imprese. Henry Ford rappresenta l’esempio più classico di successo nell’epoca che ha preceduto la globalizzazione della produzione e degli scambi; i suoi metodi permettevano di produrre più rapidamente e con minori costi, rappresentando così il modello di riferimento per la conduzione delle grandi imprese durante quasi l’intero XX secolo. Con le trasformazioni della globalizzazione e della rivoluzione ICT, la rilevanza strategica dei singoli anelli è radicalmente cambiata, perché l’anello sub b) è diventato quello che più risente della concorrenza low cost da parte dei paesi emergenti, e quindi nei paesi più evoluti proprio questo elemento tende a diventare il punto debole della competitività. Le imprese americane ed europee osservando il comprimersi dei margini di profitto sulle operazioni manifatturiere, hanno reagito trasferendo tali fasi nei mercati emergenti (outsourcing o delocalizzazione). Questo processo ha avuto origine con le imprese della grande distribuzione, come Wall Mart, che ha iniziato a spostare i propri acquisti dal mercato domestico verso paesi dai quali era possibile ottenere prodotti di qualità equivalente, ma a prezzi inferiori. Questo modello di management risulta utilizzabile anche da parte di grandi imprese manifatturiere che si riorganizzano attraverso la delocalizzazione trasformandosi da multinazionali – imprese che vendono su numerosi mercati ciò che producono in varie parti del mondo - come la Ford in ciò che possono essere definite imprese transnazionali (platform companies), imprese come IKEA, Nokia e Apple, che vendono ovunque ciò che apparentemente non producono in nessun luogo. il modello di management delle Tnc consiste nel non considerare strategico l’anello centrale della catena della produzione del valore; l’eliminazione o la riduzione del peso dell’attività manifatturiera determina un duplice vantaggio: • • Effetto ben evidente che deriva dalla riduzione dei costi di produzione diretti per il minor costo del lavoro La delocalizzazione comprime l’entità del capitale investito nei processi produttivi che fanno capo direttamente alle Tnc, migliorandone in proporzione il ROE (rendimento percentuale sul capitale investito). Le imprese Tnc si trovano quindi a realizzare profitti molto consistenti dovuti alla competitività dal lato dei costi di produzione, potendo anche restringere ai minimi termini l’impiego di capitale. Delocalizzando gli investimenti e limitandosi alla progettazione dei prodotti acquistabili a costi molto bassi dalle fabbriche collocate nei paesi in via di sviluppo o di nuova industrializzazione, le imprese Tnc mantengono comunque il controllo dei marchi e delle reti di distribuzione sia nei mercati rilevanti sia in quelli del Bric, nei quali vanno a formarsi nel tempo mercati di consumatori ad alto reddito. Le implicazioni di questo modello hanno portato al fenomeno della deindustrializzazione= progressiva riduzione della quota determinata dalle attività manifatturiere sul PIL. Questo fenomeno però non è del tutto nuovo; nel corso degli anni ’60 infatti in Gran Bretagna, l’economista Kaldor, seguendo il lavoro di Solow, sviluppò una analisi delle cause e degli effetti del progresso tecnologico lanciando un allarme sul processo di deindustrializzazione. Secondo la sua teoria, la diminuzione del valore aggiunto nell’industria manifatturiera che si stava verificando in Gran Bretagna avrebbe provocato gravi danni dal momento che l’industria manifatturiera incorporava fattori di progresso tecnologico. Nel 1966 Kaldor convinse il leader Callaghan a introdurre una imposta differenziata sui salari che prevedeva una aliquota maggiore per il settore dei servizi, con l’obiettivo di incentivare lo sviluppo dell’occupazione nelle attività manifatturiere. I risultati furono deludenti, al punto che nel 1973 l’imposta fu revocata. Gli effetti che derivano dalla affermazione del modello di imprese Tnc hanno ricevuto attenzione anche negli studi di macroeconomia: • • La principale implicazione consiste nel fatto che l’outsourcing ha concorso a mantenere bassa l’inflazione, dato che non solo i prodotti fabbricati in Cina o nell’est europeo sono meno costosi, ma anche perché in questo modo è stato spezzato il potere contrattuale dei sindacati, aumentando la concorrenza all’interno dei sistemi economici. Inoltre è stato fortemente ridotto il significato delle statistiche del commercio internazionale: con il crescere delle imprese Tnc la parte statisticamente visibile della catena del valore, cioè la produzione manifatturiera, si traduce in un elemento del passivo della bilancia commerciale per i paesi che hanno guidato la rivoluzione 14 • manageriale. La parte meno visibile della catena del valore risulta difficilmente percepibile nella contabilità macroeconomica perché facilmente manipolabile nei contratti di fornitura con finalità finanziarie o fiscali. Implicazioni relative al modello delle Tnc, che avrebbero potuto offrire alla stabilità economica. Prima della crisi 2007-2009, si riteneva che la globalizzazione potesse rappresentare l’ingrediente più importante nella diminuzione della “volatilità” dei risultati economici. 15 Capitolo 5 La teoria della domanda LA DOMANDA MARSHALLIANA La prima e più completa formalizzazione della teoria della domanda è attribuita a MARSHALL che nella sua opera “Principles of Economics” la definisce come la relazione funzionale fra quantità domandata da un consumatore e il prezzo di una specifica merce. La curva di domanda quindi di un singolo consumatore, per un dato prodotto, riassume la relazione fra quantità massima del prodotto acquistata nell’unità di tempo ed ogni possibile prezzo; la curva quindi rappresenta sempre la quantità domandata dal consumatore come funzione del prezzo, ed i suoi punti sono possibilità alternative à q = f(p). Caratteri della curva di domanda: La curva è inclinata negativamente dato il principio della utilità marginale decrescente, per il quale tanto più alto è il prezzo tanto minore è la quantità domandata a parità delle altre condizioni. A questa regola fanno eccezione due casi particolari: • • Quando il consumatore valuta la qualità di un prodotto dal suo prezzo Quando il consumatore è spinto ad acquistarlo proprio per il suo elevato prezzo Il livello del prezzo è riportato sull’asse delle ordinate, la quantità (variabile dipendente) sulle ascisse, in contrasto con la comune prassi matematica. La curva si riferisce inoltre ad un preciso momento quindi tutte le possibili combinazioni prezzo – quantità sono ipotetiche, ad eccezione di una. La posizione e la forma di una curva di domanda marshalliana individuale dipendono da: • • • Gusti e preferenze consumatore Reddito monetario del consumatore Prezzo di ogni altro prodotto, tenuti costanti Al variare di uno di questi tre parametri si ottiene uno spostamento in parallelo della curva. Al variare del prezzo invece si ha un movimento lungo la curva stessa. È evidente quindi che mentre il reddito monetario è costante per ogni punto sulla stessa curva di domanda, il reddito reale muta invece continuamente passando da un punto all’altro. L’informazione essenziale che si ottiene dalla curva di domanda è il grado di reattività della quantità domandata di un prodotto ad ogni variazione del suo prezzo. Tale rapporto prende il nome di elasticità della domanda al prezzo, espresso in termini percentuale= rapporto tra la variazione proporzionale della quantità domandata di X e la variazione proporzionale del prezzo di X 𝜖= − Δ𝑄 𝑃 ∗ Δ𝑃 𝑄 Due caratteri particolari di tale espressione: 1. 2. Elasticità viene presa per convenzione come positiva, il che spiega la presenza del segno meno davanti alla frazione, posto per rendere non negativo il numero che esprime l’elasticità. Elasticità della domanda al prezzo è espressa in termini di variazioni relative, non assolute, nella quantità domandata e nel prezzo, data la difficoltà di avere utili indicazioni dalle ultime. - se una curva ha elasticità > 1 è elastica ed una diminuzione del prezzo aumenterà la spesa del consumatore; - se una curva ha elasticità < 1 è inelastica un aumento del prezzo accrescerà la spesa del consumatore per quel bene; - se una curva ha elasticità = 1, eventuali variazioni del prezzo non alterano la somma che il consumatore spende. L’elasticità della domanda di un bene al suo prezzo dipende da: • Durata del periodo cui si riferisce la curva di domanda: ogni curva di domanda è definita per un dato intervallo temporale, per cui la domanda è solitamente più elastica per lunghi periodi, dato che più è lungo l’intervallo di tempo considerato più agevole risulta per i consumatori sostituire un bene con un altro. 16 • • • Numero di beni sostituibili a disposizione: se un prodotto ha molti sostituti stretti la sua domanda sarà elastica al prezzo. Incidenza di un prodotto sul bilancio del consumatore: all’aumentare dell’incidenza di un bene sul bilancio del consumatore l’elasticità della sua domanda tenderà a crescere. I possibili usi alternativi cui un bene si presta: più un prodotto è adatto a svariate applicazioni più è elastica la sua domanda. Il concetto di elasticità può essere riferito anche ad un’altra variabile diversa dal prezzo, cioè il livello del reddito monetario di un consumatore. Nell’unità di tempo e con prezzi costanti di tutti gli altri prodotti, la relazione tra livello del reddito monetario di un singolo consumatore e la quantità domandata di un bene è illustrata dalla curva di Engel. La variazione della quantità domandata al variare del reddito monetario del consumatore può essere misurata per ogni punto della curva di Engel per mezzo della elasticità della domanda al reddito: 𝜖= − • • Δ𝑄 𝑌 ∗ Δ𝑌 𝑄 elasticità al reddito > 0 : incrementi del reddito monetario del consumatore comportano aumenti della quantità domandata di un bene, come ad esempio generi elementari - elasticità al reddito > 1 : un incremento di un punto percentuale nel reddito monetario comporta un aumento percentuale maggiore di uno nella quantità domandata - elasticità al reddito < 1 : un aumento di un punto percentuale del reddito monetario determina un incremento percentuale minore di uno della domanda elasticità al reddito < 0 : incrementi del reddito monetario del consumatore comportano riduzioni nel consumo di una merce, come ad esempio beni inferiori. In ogni caso, l’elasticità della domanda di un prodotto al reddito muta a seconda del livello stesso del reddito monetario individuale: a certe fasce di reddito corrisponderà un’elasticità positiva, mentre a partire da altre potrà essere negativa Una variazione nel prezzo del bene X influenza il comportamento del consumatore in un duplice modo: 1. 2. Da un lato, se il prezzo di X diminuisce, l’acquisto di tale prodotto diventa, a parità del prezzo di tutte le altre merci, relativamente più conveniente ed il nostro consumatore sarà spinto sempre ad aumentare la domanda del bene X (Teorema di Slutsky), in sostituzione dei prodotti divenuti relativamente più costosi à EFFETTO SOSTITUZIONE La riduzione del prezzo di X comporta anche un miglioramento del reddito reale del consumatore, che può fare aumentare gli acquisti di tutti i prodotti, compreso il bene X, a meno che questo sia un bene inferiore, la cui domanda diminuisce quando il reddito reale aumenta à EFFETTO REDDITO DOMANDA DI MERCATO = somma domande individuali ! 𝑄 = * 𝑞 = 𝑓(𝑝) "#$ Il modello della domanda marshalliana è un eccellente formalizzazione della relazione quantità/prezzo ma risulta ragionevole solo nel breve periodo, mentre non è realistica se il riferimento temporale diviene più ampio. Ne consegue che la quantità domandata di un particolare prodotto può variare anche per motivi che non dipendono soltanto dal prezzo e dal potere di acquisto che il consumatore può spendere per un dato prodotto, cioè dal suo reddito. Oggetto della revisione della teoria neoclassica sono gli stessi postulati su cui si fonda la stessa teoria neoclassica, cioè: 1. 2. 3. Costanza del sistema di preferenze del consumatore Relazione reversibile e differenziabile fra i tre parametri del modello di equilibrio statico paretiano: quantità domandata, prezzo e reddito del consumatore. Realismo dell’ipotesi di massimizzazione dell’utilità soggettiva nel comportamento del consumatore, 17 4. Razionalità ed autonomia del comportamento del consumatore nei confronti dei fattori e delle variabili esogene. Questi assiomi caratterizzanti il modello di comportamento del consumatore nell’economia neoclassica, sono stati posti in discussione e grazie a indagini empiriche si è potuta dimostrare: - - - - L’inattendibilità dell’assioma della stabilità del sistema di preferenze individuali (1)à le funzioni di utilità dei consumatori, cioè dei loro gusti e preferenze, variano anche in base a variazioni di prezzo e\o di reddito attese dal consumatore, passate esperienze di consumo, frequenti comportamenti imitativi, attività di promozione delle vendite. L’elasticità della domanda al prezzo muta in relazione all’ampiezza della variazione del prezzo e si sono quindi avanzati fondati dubbi sulla esistenza di curve di domanda isoelastiche all’andamento del prezzo. Duesenberry, nel 1949 approfondirà questo fenomeno, definendolo “irreversibilità della funzione della domanda”. Non è realistico nemmeno l’assioma relativo alla indipendenza del sistema di preferenze del singolo consumatore da ogni condizionamento esterno. La teoria neoclassica ipotizza un comportamento razionale del consumatore assolutamente autonomo; la funzione di utilità dipende solo dai gusti e dal reddito del consumatore nonché dai prezzi, mentre è insensibile alla domanda degli altri consumatori. Una tale impostazione non può reggere il riscontro della verifica empirica. Ne consegue l’assoluta improbabilità di una funzione di domanda collettiva, come somma delle singole funzioni di domanda individuali. Inoltre, negare la presenza del fattore tempo significa escludere la presenza di qualsiasi elemento dinamico, di qualsiasi processo di cambiamento, ma anche giustificare la esistenza stessa dei tre assiomi appena discussi. à LA TEORIA MARRISIANA L’ipotesi base del modello dovuto a Robin MARRIS (1964) è riconducibile all’assunto secondo cui i consumatori, superato il livello dei bisogni di sussistenza, sono portatori di un sistema di preferenze tutt’altro che stabile ed indipendente. Al contrario, i bisogni dei consumatori sono oggetto di una incessante trasformazione in funzione del continuo flusso di stimoli e di informazioni che alterano il sistema di giudizi e di valori. Un altro elemento fondamentale del comportamento del consumatore è costituito dalle esperienze di consumo acquisite: memorizzando le esperienze di consumo, il consumatore formula un quadro di riferimento, continuamente aggiornato, in base al quale prende le proprie decisioni di acquisto presenti e future. È provato che la maggior parte dei casi, un prodotto viene comprato se è già stato oggetto di consumo precedente. In tal modo trova giustificazione l’affermazione che è l’esperienza a creare i bisogni. Nel consumatore si possono comunque risvegliare bisogni latenti tramite lo stimolo del messaggio pubblicitario o i giudizi di altri consumatori su un determinato prodotto. Marris privilegia questo secondo canale di “attivazione del consumo”. Il ricorso all’esperienza altrui appare fondamentale nello spiegare la diffusione dei consumi nella moderna società industriale in cui, essendo particolarmente elevato il saggio di introduzione di nuovi prodotti, è impensabile che ogni individuo possa sperimentare da solo ogni nuovo bene. Date tali premesse, è possibile prendere in esame il meccanismo con cui un nuovo prodotto si introduce in fasce via via più vaste di consumo. Marris suddivide i consumatori in pionieri e pecore: i pionieri, a differenza delle pecore, sono caratterizzati una maggiore sensibilità nell’esplicitare i propri bisogni latenti, maggiore vulnerabilità al richiamo pubblicitario e in generale maggiore coraggio riguardo alle incertezze delle novità. Essi decidono nuovi acquisti senza fruire di stimoli da parte di altri consumatori. Il numero complessivo di consumatori pionieri di un prodotto appena lanciato dipende dal prezzo, dalla qualità del prodotto, dalla spesa pubblicitaria e da alcune caratteristiche socio – economiche, come il livello e la distribuzione del reddito. La domanda dei consumatori pionieri risulta quasi sempre anelastica, mentre la curva del consumatore pecora è caratterizzata da una buona elasticità alle variazioni di prezzo. È opportuno comunque tenere distinta la funzione che determina il numero dei pionieri da quella che definisce il comportamento del singolo pioniere. Il pioniere incorpora il nuovo prodotto nel proprio schema di preferenze, creando la propria curva di domanda fino ad 18 allora inesistente, con un processo irreversibile. Parimenti irreversibile è il cambiamento che subisce il consumatore pecora tutte le volte che, in seguito ad attivazione, è stimolato ad acquistare un dato prodotto. L’insieme di tutti i consumatori (o perché attivati o perché pionieri) che sono disposti a consumare quantità positive di un prodotto ad un dato prezzo, è definito popolazione del mercato, la cui dimensione è funzione sia del prezzo e delle qualità del prodotto, sia delle caratteristiche della popolazione stessa. Quando un nuovo prodotto viene lanciato sul mercato, i compratori sono pochi, ma superata la prima comprensibile diffidenza e sollecitata da una insistente pubblicità, gli acquisti di questi aumentano. Se i pionieri raggiungono un determinato numero critico ed esprimono favorevoli apprezzamenti sul prodotto, le persone con cui entrano in contatto possono essere stimolate da un comportamento imitativo: le pecore attivate potranno così influenzare nuovi consumatori, innescando così una reazione a catena di vaste proporzioni. Si sono ora richiamati due concetti nuovi: • • Criticità: particolare condizione della domanda, cioè il passaggio della domanda di un prodotto dalla fase di gestione a quella di esplosione, in cui sussiste criticità se la probabilità che si innesti una reazione a catena, è vicina all’unità, e quindi quasi certa. Contatto socio-economico: quando una persona è in grado di stimolare un’altra all’acquisto di un nuovo bene à ciò è possibile se fra i due vi è affinità di gusti, valori etici sociali ed economici (appartenenza alla stessa classe sociale). Non tutti i contatti sociali sono socio – economici. Da questa tipologia di contatti con un consumatore deriva uno stimolo; il numero degli stimoli ricevuti, sarà funzione non soltanto del numero dei singoli consumatori già esistenti con cui si stabilisce un contatto, ma anche del numero medio di contatti avuti con ciascuno di essi durante un certo periodo. E’ possibile quindi riassumere questa prima parte della analisi marrisiana così: la domanda complessiva del mercato è data dalla somma delle singole schede di domanda individuali, che differiscono fra loro a seconda che si tratti di consumatori pionieri o pecore. La funzione che esprime la domanda di un pioniere sarà: 𝑞"%# ' ( )" )%)+!" Mentre quella che esprime la domanda delle pecore sarà: 𝑞"%# ' ( )" )%),!" La domanda aggregata è dunque uguale a: Qj = Np Φp + Na Φs E’ possibile distinguere 3 fasi caratteristiche della domanda: 1. 2. 3. Fase di gestazione Fase di saturazione Fase esplosione: fase instabile, intermedia fra le due precedenti. Premesso che i pionieri sono distribuiti casualmente in una popolazione data, la popolazione del mercato può essere composta da un grande numero di gruppi primari, contraddistinti dal fatto che ogni membro è in contatto socioeconomico con ogni altro. In questi gruppi si posso osservare vaste reazioni a catena, rese più intense da diffusi fenomeni di emulazione e conformismo, strettamente dipendenti dalla struttura del sistema di gruppi e legami. La catena dei contatti non è né regolare né ininterrotta, per cui i contatti effettivi saranno certamente minori di quelli potenzialmente possibili. I contatti mancati sono quasi sempre riconducibili alla presenza degli “sbarramenti sociali che sono causa della forma irregolare della dimensione dei gruppi primari e delle ampie interruzioni nelle catene di gruppi connessi; le interruzioni, casuali e non, derivanti da tali ostacoli frazionano ogni popolazione di mercato in un certo numero di insiemi connessi distinti, definiti gruppi secondari, caratterizzati dal fatto che alcuni soltanto dei loro membri appartengono contemporaneamente a due o più gruppi. Relativamente al grado di stratificazione si intende il minimo numero di gruppi secondari, legati al gruppo primario da un certo grado di connessione, in cui può essere divisa una popolazione razionalizzata. Teoricamente, una popolazione omogenea, per quanto stratificata, può essere sempre completamente attivata da un produttore capace 19 di innescare una reazione a catena in ogni suo gruppo secondario. Al contrario invece, saturati gruppi secondari di una popolazione primaria, il processo di attivazione non può essere trasferito semplicemente su un’altra popolazione omogenea, tranne nel caso in cui quest’ultima abbia un reddito tale da appartenere alla popolazione del mercato di quel prodotto. Il numero di gruppi secondari in cui popolazione viene suddivisa è funzione sia delle cause di interruzione vere e proprie sia del grado di stratificazione, il quale viene determinato dalla seguente relazione: $ 𝜆 = √𝑆 Dove S rappresenta il numero dei gruppi secondari. In linea di massima Marris rileva che quanto minore è il valore di lambda tanto più facilmente un nuovo bene sarà in grado di saturare una data popolazione di mercato. Occorre considerare, oltre ai beni finali di consumo, anche i beni di produzione, cioè quei prodotti intermedi oggetto di transazioni tra le imprese. Marris dimostra la validità della propria teoria anche per questi beni. Nel caso limite in cui non vi fosse progresso tecnologico, la domanda di prodotti strumentali, essendo regolata solo dall’andamento degli altri beni, aumenterebbe solamente con esplosioni delle vendite dei prodotti di consumo. In realtà però la tecnologia compie continui progressi. Vi sono settori produttivi che rispondono più prontamente allo stimolo di una innovazione tecnica e altri invece, che Marris ricollega alle produzioni di bene già saturati, nei quali l’inerzia raggiunge punte massime. Molto spesso un macchinario, pur non essendo fisicamente logoro, viene ugualmente sostituito con uno nuovo per potere usufruire delle innovazioni tecnologiche in esso incorporate. È probabile che certi dirigenti, per prendere tale decisione, abbiano bisogno di uno stimolo come le pecore, il quale può derivare da due fonti: 1. 2. Dal contratto personale con altri dirigenti che hanno già introdotto l’innovazione: processo di stimolo, attivazione e propagazione del tutto analogo a quello illustrato nel caso dei consumatori. Ogni dirigente potrà subire uno stimolo ad innovare venendo a contatto con altri manager che abbiano già introdotto quel miglioramento e che operino nel medesimo settore produttivo. Anche in questo caso avremo un contatto socio – economico, dal momento che le due persone appartengono al medesimo ceto sociale e sono accomunate dagli stessi interessi ed aspirazioni professionali. Dagli effetti delle rinnovazioni introdotte da altre imprese concorrenti: anche qui, come per il consumatore, avremo una rete interconnessa di contatti, interrotta da barriere e sbarramenti vari, che si estende su tutto il settore industriale. Se un’impresa opera ad esempio in un mercato oligopolistico ed alcuni concorrenti adottano una innovazione che fa sentire il suo effetto negativo sulle vendite di un’altra impresa, quest’ultima molto probabilmente sarà stimolata ad imitarli, cioè ad introdurre quel miglioramento. Osservazioni conclusive sulla teoria di Marris: • • Nell’analisi delle condizioni di criticità si è stabilito che, a parità di altre condizioni, una popolazione di mercato di vaste dimensioni è più facile da saturare di una piccola, poiché il numero critico necessario di pionieri aumenta molto meno che proporzionalmente all’incremento di dimensione del mercato da penetrare. Marris trascura una delle componenti che più influiscono sulla domanda: la durata del prodotto, variabile essenziale per analizzare andamento della cd “domanda per sostituzione”. à DOMANDA DI BENI DI CONSUMO DUREVOLE Ulteriori motivi di insoddisfazione circa la capacità esplicativa del modello neoclassico di comportamento del consumatore derivano dalla necessità di considerare le difformità che si presentano nel caso in cui l’oggetto della decisione di acquisto sia costituito da beni di consumo immediato, beni di consumo durevole e beni strumentali. In questa sede si analizzano solo i modelli di previsione ed analisi della domanda generale di beni omogeni riguardante un intero settore produttivo. - La domanda di beni di consumo immediato (alimentari) è funzione della capacità di acquisto del consumatore, cioè del prezzo e del reddito; inoltre questi beni sono di solito perfettamente divisibili ed il loro consumo viene ripetuto frequentemente. 20 - Nel caso dei beni di consumo durevole (elettrodomestici e automobili) l’acquisto è relativamente saltuario e comporta una spesa non trascurabile in rapporto al reddito del consumatore. Essi sono inoltre indivisibili ed offrono un servizio prolungato nel tempo. Ne deriva che l’analisi teorica neoclassica che ha sempre privilegiato come oggetti di studio i beni di consumo immediato non può trovare applicazione riguardo ai beni di consumo durevole, la cui domanda è influenzata da un maggior numero di variabili e relazioni. La domanda di beni di consumo durevole è stata indubbiamente uno degli elementi portanti dello sviluppo industriale italiano del dopoguerra. Per analizzare le leggi alle quali risponde l’andamento della domanda di tale categoria di merci occorre verificare l’applicabilità a tali beni del principio di accelerazione al consumo di questi beni. Secondo questo principio la domanda di beni strumentali dipende dalla variazione della domanda finale dei prodotti ottenuti con l’uso di quel particolare strumento produttivo. Per quanto riguarda la domanda di beni di consumo durevole, l’applicabilità del principio risulterebbe legittima qualora si assumesse che la diffusione dell’uso di un determinato bene di consumo durevole fosse legata al reddito disponibile dei consumatori. Supposizione logicamente fondata ma difficilmente applicabile. La domanda di beni di consumo durevole dipende dalle variazioni del reddito dei consumatori e non dall’entità del reddito dei consumatori: àDomanda di beni intermedi e di investimento: Beni intermedi= materie prime, semilavorati à I modelli empirici che maggiormente si addicono ad una previsione della domanda aggregata sono quelli di interdipendenza input – output e quelli che si riferiscono alla politica di immagazzinamento perseguita dalle imprese. Con riguardo alle materie prime, la previsione della domanda presenta notevoli difficoltà causate dalle particolari caratteristiche di tali beni. Questi sono molto eterogenei, sia tecnologicamente che riguardo agli utilizzatori finali. La loro domanda è funzione della domanda delle imprese industriali che direttamente ne fanno uso nei loro processi produttivi, ma anche della domanda dei beni finali ottenuti con i prodotti intermedi. Ne consegue che la domanda di beni intermedi dipende non solo dalle variabili proprie della funzione di domanda di beni finali ma anche dai cambiamenti tecnologici, variabile particolarmente significativa nelle moderne economie industriali. L’azione di questa variabile fa sì che una particolare materia prima venga richiesta non solamente in funzione del livello assoluto del prezzo, ma anche del rapporto fra tale prezzo e quello di altri materiali succedanei. un secondo elemento perturbante deriva dal fatto che, nella maggior parte dei casi, i beni intermedi possono essere immagazzinati in grandi quantità senza gravi pericoli di deterioramento; la loro domanda quindi risulta influenzata anche dal livello degli stock costituiti presso le imprese utilizzatrici, nonché dalle aspettative economico-congiunturali e tecnologiche di quest’ultime. I beni finali di produzione o beni di investimento presentano alcune rilevanti analogie con i beni di consumo durevole. La previsione della domanda per incremento netto del parco (stock) è condizionata dalle variabili che definiscono la domanda di consumo finale, ed in particolare dalla macrovariabile “reddito nazionale”. Anche in questo caso quindi opera il principio di accelerazione, analiticamente definito da: 𝐼 = 𝑓(∆𝑌) Per previsioni di lungo periodo, le ricerche empiriche attinenti a particolari beni di produzione ricorrono direttamente alla macrovariabile “investimenti nazionali netti”. La macrovariabile “investimenti nazionali” e la sua dinamica possono essere analizzate con riferimento al lungo ed al medio-breve periodo: 21 - Per quanto riguarda l’analisi di lungo periodo si ricorre a modelli macroeconomici del tipo di quello Harrod-Domar, il quale si fonda sulla previsione dell’andamento delle due variabili “propensione al risparmio” e “coefficienti marginali capitale-prodotto”, ignorando del tutto le oscillazioni di carattere congiunturale. - In relazione invece all’analisi di medio – breve periodo si utilizzano modelli che mettono in risalto anche gli elementi congiunturali e ciclici. Ad essi ricorrono sia l’operatore pubblico, per ottenere informazioni sulle varie fasi della congiuntura indispensabili per il governo dell’economia, sia le singole grandi imprese industriali che, operando nel settore dei beni di produzione, possono trarre dalla conoscenza del presumibile andamento degli investimenti industriali lordi, nel breve e medio periodo, indicazioni preziose circa la possibile evoluzione futura delle loro vendite. Tali modelli sono riconducibili a due principali categorie: 1. 2. Modelli basati sul principio di accelerazione, che fanno dipendere gli investimenti dalla variazione della domanda Modelli del tipo “profitti-investimenti” in cui gli investimenti sono fatti dipendere dai profitti o comunque dai fondi propri disponibili delle imprese. Esposizione dei due fra i più significativi modelli elaborati: 1. 2. Modello del gruppo di studio di Ancona: investimenti industriali fissi lordi dipendono dalla variazione del valore aggiunto dell’industria (cioè dalle variazioni della domanda di beni industriali), rettificato per mezzo di coefficiente che quantifica i vincoli incontrati dalle industrie nell’attuare gli investimenti programmati. Tali vincoli derivano sia da elementi di ordine tecnico (raccolta info, elaborazione scelte alternative) sia da elementi di ordine economico. Nel primo caso le predizioni ricavabili dal principio di accelerazione sono ridimensionate dai vincoli che derivano dall’insufficienza dell’autofinanziamento accumulato nelle fasi precedenti. In fase recessiva invece i suddetti fattori di ordine economico impediscono al flusso degli investimenti di cadere al di sotto del livello corrispondente al mancato ammortamento degli impianti e al loro rinnovo. In questo modo le imprese affrontano il nuovo periodo di ripresa economica con un eccesso di capacità produttiva, il quale giustificherà un effetto accelerativo smorzato nell’andamento della nuova fase degli investimenti. Gli investimenti industriali fissi lordi dipendono quindi: direttamente secondo il principio dell’accelerazione, dal saggio di variazione del valore aggiunto dell’industria e dai profitti realizzati dall’impresa negli anni trascorsi, e inversamente dal costo del capitale e dalla capacità produttiva inutilizzata. Modello di Sylos Labini: si ricollega ad una logica di tipo “profitti – investimenti”. Punto di partenza è distinzione fra funzione degli investimenti industriali per le grandi imprese e quella per le medie e le piccole imprese: il saggio di variazione degli investimenti delle prime dipende direttamente dalla quota di profitto corrente, dal saggio di variazione di tale quota e dal grado di capacità produttiva inutilizzata. Per le medie – piccole imprese invece gli investimenti sono funzione dei profitti correnti, del loro saggio di variazione e della liquidità totale. Confronto di tali modelli macroeconomici con quelli utilizzati dalle singole imprese industriali per prevedere la domanda di beni di produzione nel medio – breve periodo. I modelli a livello di singola unità produttiva si fondano sui seguenti parametri: 1. 2. 3. 4. Costo del denaro, rappresentato dal saggio di interesse corrente. La disponibilità di linee di credito Profitti correnti delle imprese e\o i profitti attesi Grado di utilizzazione della capacità produttiva, misurabile con il ricorso o a determinati coefficienti empirici oppure al rapporto fra produzione effettiva e produzione temporale massima Tempo di aggiustamento, lasso di tempo necessario perché il parco effettivo di beni strumentali si adegui, tramite mutamenti indotti della domanda, alle variazioni teoriche del prezzo. Per quanto riguarda la domanda di sostituzione, si possono trovare numerosi punti in comune con le considerazioni svolte a proposito della dinamica della domanda di beni di consumo durevole. Occorre tuttavia sottolineare 2 importanti differenze: - la domanda di sostituzione per i beni di produzione è influenzata dal livello dei profitti delle imprese utilizzatrici e non dal livello del reddito; 22 - i modelli operativi aziendali danno notevole rilievo alla innovazione tecnologica; la vita media degli impianti produttivi viene quindi considerata assai più breve di quanto sarebbe lecito supporre in base ai dati tecnici. àLa domanda residuale: E’ quella parte della domanda di mercato che si rivolge ad una singola impresa offerente, costituita semplicemente dalla differenza fra domanda complessiva del mercato e quota assorbita dalle altre imprese costituiscono l’offerta. Nella forma marshalliana va sempre tenuta da conto l’ipotesi “other things the same”. L’andamento parallelo alla domanda del mercato della curva di domanda residuale introduce però una ulteriore ipotesi, che la quantità della domanda che viene soddisfatta dalle altre imprese permanga costante ad ogni livello di prezzo. Si tratta di una ipotesi coerente con la natura della funzione di domanda marshalliana che si limita a descrivere tutte le combinazioni possibili di quantità e prezzo alternative a quella data corrente sul mercato, per cui la quota di domanda assorbita dalle altre imprese può essere coerentemente considerata costante. 23 Capitolo 6 Struttura e regime di variazione dei costi di produzione Aspetto più importante tra le condizioni di base dell’offerta nel paradigma SCP. Necessario avere conoscenza di nozioni su costi delle imprese e sulle problematiche ad essi connesse, dal momento che numerose previsioni formulate dalla teoria economica si basano sul concetto di costo marginale. Inoltre i governi spesso regolamentano le industrie in cui l’entrata è collegata al sostenimento di costi particolarmente elevati. à Struttura dei costi di produzione: Essa si riferisce al breve periodo (intervallo di tempo tanto breve da non consentire all’impresa di variare la quantità impiegata di fattori), definibile come intervallo di tempo compreso tra quello in cui tutti i fattori sono fissi e quello in cui tutti i fattori sono variabili. Al crescere del periodo di tempo considerato, la quantità di un numero sempre maggiore di fattori diventa variabile. Nel lungo periodo infatti tutti i fattori produttivi sono variabili e la loro quantità è lasciata alla discrezione dell’imprenditore. Estensione temporale del breve periodo cambia a seconda di ogni industria: in quelle in cui la quantità dei fattori fissi non è rilevante il breve periodo può riferirsi ad un breve intervallo di tempo; per altre industrie invece il breve periodo può essere misurato in anni (es. industrie dell’acciaio, lungo arco di tempo per espansione della capacità produttiva di base). Relativamente al breve periodo ed alla struttura dei costi di produzione occorre distinguere tre concetti di costo totale: • • • Costo totale fisso: passività totali che l’impresa deve sostenere nell’unità di tempo per fattori fissi. Poiché la quantità di tali fattori è per definizione costante, il costo totale fisso sarà il medesimo indipendentemente dalla quantità prodotta. Alcune voci che concorrono a costituirlo sono ad esempio il deprezzamento dei fabbricati e delle attrezzature e le imposte sul patrimonio. Costo totale variabile: sono i costi totali che l’impresa deve sostenere per acquistare i fattori variabili. Aumentano all’aumentare della produzione, dato che livelli produttivi più elevati richiedono fattori variabili in quantità maggiore, il che si traduce in costi variabili più elevati. Per bassi livelli produttivi, gli incrementi nell’utilizzo di fattori variabili possono dar luogo ad incrementi della loro produttività. Di conseguenza i costi totali variabili aumentano con la quantità prodotta ma ad un tasso decrescente. Tuttavia, superato un certo punto, i rendimenti marginali del fattore variabile diventano decrescenti e i costi variabili aumentano ad un tasso via via maggiore. Proprietà dei costi totali variabili deriva dalla legge dei rendimenti marginali decrescenti. Costo totale: somma dei costi totali fissi e dei costi totali variabili. Funzioni di notevole importanza. Possibile analizzare più a fondo il comportamento del costo integrandolo con quello dei costi medi e marginali. Ci sono infatti tre funzioni di costo medio, che corrispondono alle tre funzioni del costo totale: • • • Costo medio fisso: dato dal rapporto fra costo totale fisso e quantità prodotta. Diminuisce al crescere della quantità prodotta. Andamento descritto graficamente da iperbole equilatera, infatti in ogni suo punto il prodotto fra ascissa (Q) e ordinata (CMF) è uguale ad una costante, il costo totale fisso. Costo medio variabile: dato dal rapporto tra costo totale variabile e quantità prodotta. Costo medio totale: rapporto tra costo totale e quantità prodotta. È pari alla somma del costo medio fisso e costo medio variabile. Per i livelli produttivi in corrispondenza dei quali le curve del costo medio fisso e variabile hanno entrambe andamento decrescente, il costo medio totale è necessariamente decrescente. Esso tuttavia raggiunge il livello minimo dopo il costo medio variabile, perché in un certo intervallo gli incrementi di quest’ultimo sono più che compensati dalle diminuzioni del costo medio fisso. Il costo marginale invece è l’incremento del costo totale conseguente ad un incremento unitario nella quantità prodotta. Se C (Q) è il costo totale relativo ad una produzione di Q unità, il costo marginale nell’intervallo compreso fra Q e (Q – 1) unità prodotte sarà C(Q) – C(Q – 1). Per bassi livelli produttivi, il costo marginale può assumere un andamento decrescente al crescere della quantità prodotta, per raggiungere un minimo e poi crescere all’aumentare della produzione. Le ragioni di ciò possono essere collegate alla legge dei rendimenti marginali decrescenti. Se in seguito ad una variazione ΔQ, ΔCTV e ΔCTF rappresentano rispettivamente il conseguente incremento del costo totale fisso e totale variabile, il costo marginale sarà pari a: 24 𝛥𝐶𝑇𝑉 + 𝛥𝐶𝑇𝐹 𝛥𝑄 Ma essendo i costi fissi costanti, la variazione dei costi totali fissi è nulla. Inoltre, se il prezzo del fattore variabile è un dato per l’impresa, ΔCTV = ΔI, dove quest’ultimo rappresenta la variazione nella quantità impiegata del fattore variabile conseguente ad un incremento pari a delta Q nella produzione. Così il costo marginale è pari a: 𝑀𝐶 = 𝑃 𝑑𝐼 𝐼 =𝑃 𝑑𝑄 𝑃𝑀𝑎 Dove PMa rappresenta il prodotto marginale del fattore variabile. Dato che al crescere della quantità prodotta PMa il costo marginale ha generalmente andamento crescente, questo normalmente diminuisce, raggiunge un minimo per poi aumentare. Esiste dunque un nesso tra la forma della funzione del costo marginale e la legge dei rendimenti marginali decrescenti. Tutto ciò si spiega facilmente se si pensa che il costo marginale medio non è altro che il costo dell’ultima unità prodotta, per cui se esso è più basso del costo medio tende ad abbassare la media. Se ciò si aggiunge un valore inferiore alla media, la media si abbassa. Ne consegue che l’unico punto in cui il costo medio è uguale al costo marginale è quello corrispondente al punto di minimo della curva dei costi medi. I costi medi, ed il loro andamento, sono meglio descritti dalla funzione dei costi formulata da Sylos Labini à C = vq + k, dove v sono i costi variabili, q la quantità prodotta e k i costi fissi. Fino al pieno utilizzo della capacità produttiva il costo medio di produzione è decrescente, mentre il costo marginale è costante ed uguale al costo variabile v. àAnalisi del Break Even Point La variabilità dei costi di produzione nel breve periodo, con la capacità produttiva data, dipende in definitiva dal peso relativo dei costi variabili e dei costi fissi. Se tutti i costi sono variabili, cioè proporzionali alla quantità prodotta, la variabilità del costo in relazione ai diversi gradi di utilizzo della capacità produttiva è nulla; se invece tutti i costi sono fissi, la variabilità del costo medio di produzione alle variazioni della quantità prodotta sarà molto grande. Ciò determina forti conseguenze nella struttura del settore, che possono essere esaminate tramite il grafico dei ricavi e dei costi di un’impresa. Questo è basato sostanzialmente sulla struttura dei costi di produzione, ossia sul rapporto tra costi fissi e costi variabili. Presupponendo una elasticità unitaria della domanda, possiamo dire che esiste una relazione unitaria tra prezzo e quantità che determina una inclinazione di 45° rispetto all’asse delle ascisse della retta dei ricavi. I costi di produzione sono rappresentati da una retta orizzontale, non variano al variare della quantità prodotta, e da una retta inclinata dei costi variabili, che crescono al crescere della produzione; da queste due rette dei costi si ricava la retta dei costi totali che è parallela a quella dei costi variabili, ma parte dalla quota in cui i costi fissi intercettano l’asse delle ordinate. La posizione di break even si raggiunge quando la retta dei costi totali interseca quella dei ricavi, nel punto q*. In caso di una diversa struttura dei costi per una impresa, le variazioni dei prezzi hanno effetti molto diversi; se il valore dei costi fissi k fosse elevato e il valore dei costi variabili fosse basso la diminuzione delle quantità prodotte avrebbe conseguenze molto gravi provocando ingenti perdite. Gli incrementi delle quantità prodotte oltre il break even producono invece effetti opposti. Si tratta di una analisi piuttosto semplice ma largamente utilizzata. Una impresa può servirsene per determinare ad esempio l’effetto sui profitti di una riduzione attesa delle vendite. Anche le difficoltà congiunturali di alcune industrie possono essere spiegate con riferimento alla loro struttura dei costi. Benché generalmente i grafici dei ricavi e dei costi presuppongono una funzione dei costi totali lineari, è possibile modificare questa ipotesi e introdurre una funzione dei costi totali curvilinea. àAltri concetti di costo Il concetto di costo opportunità, nonostante sia preso in considerazione in modo esplicito molto raramente, fa parte del modo di pensare e di agire di ogni agente razionale. Il costo opportunità di usare una qualunque risorsa per un determinato scopo è il beneficio che si sarebbe potuto trarre dall’impiego di quella risorsa nel miglior uso possibile alternativo. A questo proposito a volte si parla anche di costo imputato. Questi costi indicano la convenienza o meno a proseguire una determinata attività. 25 Altro concetto importante in economia industriale è quello di sunk cost. Un costo irrecuperabile è un investimento in un bene capitale che non ha usi alternativi. In altre parole, è un costo sostenuto per acquisire un fattore produttivo che avrà costo opportunità nullo. I costi, inclusi quelli fissi, che non si devono pagare in caso di interruzione di una attività sono definiti costi evitabili. àIl regime dei costi di produzione (lungo periodo) Nel lungo periodo l’impresa può installare gli impianti delle dimensioni e del tipo voluto. Tutti i fattori sono variabili, non ci sono funzioni del costo fisso di lungo periodo perché non esistono fattori fissi. Utile guardare al lungo periodo come orizzonte di programmazione. La decisione principale da prendere in relazione ai costi è quella relativa alla dimensione dell’impianto di produzione. Tale scelta dipende dalla quantità che l’impresa intende produrre nel lungo periodo, supponendo che vorrà produrla in modo da minimizzare il costo medio. La funzione del costo medio di lungo periodo mostra il costo unitario minimo corrispondente ad ogni livello produttivo nel caso che sia possibili costruire l’impianto delle dimensioni desiderate. Il costo unitario minimo corrispondente a ciascun livello produttivo è dato dalla funzione del costo medio di lungo periodo; tale funzione è tangente a ciascuna delle curve del costo medio di breve periodo nel punto in cui gli impianti ai quali esse si riferiscono sono a livelli di produzione ottimale. Per quanto riguarda le combinazioni tra i fattori che assicurano il minor costo, la funzione del costo medio di lungo periodo può essere interpretata così: in corrispondenza di ogni livello produttivo, il costo totale e medio di lungo periodo è minimo quando tutti i fattori sono combinati in modo che il prodotto marginale di ogni euro investito in un fattore sia pari a quello di ogni euro investito negli altri. Solo nel caso che l’impresa usi la combinazione tra i fattori che assicura il miglior costo, è possibile raggiungere la funzione del costo medio di lungo periodo. Nella maggioranza delle produzioni industriali la funzione dei costi medi di lungo periodo ha caratteristica forma ad L invece di quella tradizionalmente supposta ad U; ciò significa che la funzione è decrescente per un lungo intervallo per poi rimanere costante per un tratto di lunghezza variabile fino al comparire delle diseconomie di scala. Dalla curva si possono ricavare le differenze di efficienza e di competitività che si determinano fra imprese differenti; la pendenza della curva esprime il vantaggio che si acquisisce in termini di costo medio unitario di produzione avendo una dimensione più elevata. Se la pendenza è molto accentuata nella fase iniziale, le imprese più grandi saranno più efficienti delle piccole; se invece la pendenza non fosse accentuata o non vi fosse, non ci sarebbe alcun vantaggio a passare da una piccola quantità prodotta ad una grande quantità. Il punto in cui la curva smette di decrescere identifica la dimensione ottima minima dell’industria presa in considerazione. Se la produzione è realizzata su scale più piccole, il livello dei costi di produzione sarebbe più elevato, se invece la produzione è realizzata su scale più elevate della DOM, non ci sarebbe alcun guadagno in riduzione dei costi e la scelta avverrebbe in condizioni di indifferenza. Da una particolare funzione dei costi di lungo periodo deriva una delle caratteristiche della struttura dell’offerta, cioè la tendenziale concentrazione del settore; inserendo la curva di domanda nel grafico della funzione del costo medio di lungo periodo si può ricavare il numero di imprese che possono coesistere in condizioni di efficienza sul mercato. Informazione sulla DOM consente anche di rilevare le barriere all’entrata. Dato il costo medio di lungo periodo relativamente ad un certo livello produttivo, per calcolare il costo totale di lungo periodo basta moltiplicare il costo medio di lungo periodo per la quantità prodotta. Partendo dalla funzione del costo totale di lungo periodo è facile calcolare la funzione del costo marginale di lungo periodo, che mostra quantità prodotta ed il costo risultante dalla produzione dell’ultima unità addizionale nel caso che l’impresa abbia modo di attuare le variazioni della quantità impiegata di tutti i fattori che le consentono di raggiungere la combinazione ottimale. àLe economie di scala L’analisi dei costi fino a qui condotta consente di introdurre più agevolmente il concetto di economie di scala, che indicano vantaggi di costo che si ottengono all’aumentare della dimensione della capacità produttiva e della produzione. Una impresa realizza economie di scala quando il costo medio unitario di produzione diminuisce all’aumentare della produttività dei suoi impianti. La presenza di economie di scala rilevanti in un settore influenza il suo grado di concentrazione. Esse si associano alla presenza di rendimenti di scala crescenti, anche se possono derivare da numerosi altri fattori. Occorre chiarire che tali economie vanno distinte sia dai rendimenti di scala crescenti sia dalle economie di saturazione degli impianti; se infatti i rendimenti di scala si riferiscono alla relazione fra variazione degli input e variazione degli output, per le 26 economie di scala la relazione presa in esame è quella fra dimensione dell’impianto e costo medio unitario di produzione. Inoltre, le economie di saturazione sono dovute al fatto che il costo medio unitario diminuisce all’aumentare della quantità prodotta, in quanto i costi fissi si ripartiscono su un numero maggiore di unità di prodotto. L’esistenza di economie di scala segna invece che una maggiore dimensione dell’impianto consente un uso più efficiente delle risorse coinvolte nel processo produttivo. I due concetti sono comunque correlati: in presenza di economie di scala, il sussistere di diseconomie da mancata saturazione esprime la incapacità da parte dell’impresa di sfruttare economie di scala potenziali. I settori caratterizzati da più elevate economie di scala sono le industrie di processo come la siderurgia, il cemento e la chimica e le industrie di elettrodomestici, autoveicoli e motori. àLe determinanti delle economie di scala Queste possono derivare dalla presenza di rendimenti di scala crescenti, da tutti i fattori che possono determinarne la presenza, e da fattori connessi con il grado di controllo del mercato e correlati con la scala di produzione (“economie monetarie”). Una delle prime determinanti delle economie di scala fu individuata da Smith (Ricchezza delle Nazioni), il quale poneva in evidenza i vantaggi della divisione del lavoro manifatturiera, sia in senso statico che dinamico. Grandi volumi di produzione permettono una maggiore divisione del lavoro che aumenta la produttività delle risorse umane impiegate e delle macchine, per mezzo della specializzazione delle mansioni e dei processi. L’indivisibilità dei fattori produttivi dà luogo al “principio dei multipli”, per il quale, se una impresa utilizza diversi macchinari indivisibili, deve scegliere come livello di produzione minimo il minimo comune multiplo della produzione dei vari macchinari. Quando un processo è realizzato con più fattori produttivi che non sono divisibili all’infinito, l’aumento della dimensione determina una riduzione dei costi di produzione. A questo proposito è utile introdurre una distinzione fra: • • Economie di scala a livello di prodotto: la lavorazione di componenti in metalli può richiedere lo stesso tipo di operazioni meccaniche ma un diverso assetto del layout degli impianti per poter produrre il prodotto nella varietà di forme e dimensioni richieste. Se il tempo di riassetto del layout è lungo, rischia di essere superiore a quello di produzione. Quante più unità di ciascun articolo si producono, tanto più i tempi influiscono in misura minore sul costo totale di lavorazione del singolo prodotto. In generale l’introduzione di macchine automatiche permette lotti di produzione più ampi. Quando si fabbricano grandi quantità di singoli prodotti, cresce la necessità di dedicare più attenzione alla individuazione di difetti nei relativi processi produttivi. Le economie di scala specifiche hanno anche una importante dimensione dinamica dato che nell’esecuzione di operazioni complicate l’abilità degli operai cresce con l’esperienza, per cui imparano facendo il lavoro materialmente. Economie a livello di impianto: a questo livello le economie di scala più importanti derivano dall’aumento delle dimensioni delle singole unità di produzione; questo è particolarmente evidente nelle industri di processo (raffinazione petrolio, industria siderurgica o chimica). Entro certi limiti, la produzione di un impianto tende ad essere all’incirca proporzionale al suo volume, mentre la quantità di materiali e l’attività di fabbricazione necessaria per costruire l’unità addizionale in questione saranno proporzionali alla superficie occupata dalle camere di reazione, dei serbatoi e dei tubi di collegamento dell’unità. In questi casi viene applicata dai tecnici la regola empirica dei due terzi, per la quale se l’area di una superficie varia con un rapporto di 2/3 rispetto alla variazione del suo volume, anche il costo di costruzione di una unità produttiva nelle industrie di processo aumenterà di 2/3 rispetto alla crescita della propria capacità produttiva. Tutto ciò equivale a dire che l’elasticità dei costi rispetto al volume prodotto sarà di circa 0,6. Un altro vantaggio del maggiore dimensionamento degli impianti è quello delle economie delle riserve di capacità; in un impianto le cui dimensioni consentono di utilizzare solo una macchina specializzata deve esistere una macchina di riserva per evitare interruzioni per guasti accidentali. Nel caso di un impianto più grande, è necessaria una sola macchina in più per porre al riparo l’impresa, ad un costo che inciderà in misura minore sui costi totali di produzione. Economie multimpianto e a livello di impresa: economie derivanti da specializzazione e da riserve di capacità possono valere anche nel caso della gestione di numerosi stabilimenti da parte di una singola impresa in quanto le diverse unità produttive specializzate possono beneficiare di una maggiore scala, mentre in caso di interruzione della produzione di uno stabilimento è possibile contare sulla disponibilità di un altro. Allo stesso modo, in caso di impreviste fluttuazione della domanda servita da uno stabilimento, può farvi fronte l’impianto con capacità in eccesso. In molte circostanze è più conveniente disporre di più impianti 27 disseminati sul territorio piuttosto che di un unico impianto centralizzato. Questo avviene quando i costi di trasporto sono elevati rispetto al valore del prodotto trasportato. Inoltre, la concentrazione di ingenti quantità di capacità produttiva in singole aree può provocare la difficoltà di reperimento della forza lavoro necessaria presso la manodopera locale e quindi aumenti del osto di tale fattore. In generale, gli impianti con linee produttive più delimitate sono più facili da gestire e permettono di sfruttare appieno le economie specifiche di ciascun prodotto. Le economie multimpianto includono: - vantaggi nell’approvvigionamento di materie prime: anche di fonti finanziarie, a breve e lungo termine. In generale le grandi imprese sono ritenute meno soggette a rischi congiunturali, per la capacità che hanno di bilanciare gli effetti negativi. - vantaggi nella promozione delle vendite: sono soprattutto collegati alla facilità di rafforzare la fedeltà al prodotto del consumatore o di assicurare a nuovi prodotti una larga diffusione più rapidamente. - vantaggi nella raccolta del capitale; - vantaggi nella dotazione di risorse e competenze di tipo organizzativo – manageriale. Si può pensare ai vantaggi della centralizzazione di funzioni organizzative come la ricerca e lo sviluppo. In generale i costi fissi di produzione non variano al variare del livello di output, e quindi gravano soprattutto sulle imprese più piccole, ma soprattutto imprese più grandi possono permettersi risorse manageriali più specializzate e competenti. Attraverso la centralizzazione degli acquisti su larga scala una impresa con molti impianti che produce un bene omogeneo può spuntare prezzi minori per le materie prime ed altri mezzi di produzione rispetto ai piccoli acquirenti. Questi vantaggi derivano da tre motivi principali: 1) effettivi risparmi nell’ordinazione, nella programmazione della produzione, nella amministrazione, nei costi di spedizione; 2) possibilità di stipulare contratti più favorevoli quando si acquistano grandi quantità; 3) maggiore potere contrattuale e di ritorsione nei confronti dei fornitori in quanto grandi imprese possono minacciare più credibilmente azioni di integrazione verticale. àEconomie di ampiezza o di gamma La maggior parte delle imprese offre una gamma di prodotti diversi tra loro collegati. Quando la produzione congiunta di due prodotti è più conveniente rispetto alla produzione separata di ciascuno dei due si parla di economie di ampiezza o di gamma. In termini più analitici, siamo in presenza di economie di ampiezza quando il costo di produrre congiuntamente q1 unità del bene 1 e q2 unità del bene 2 è più basso del costo di produrle separatamente. Vale quindi formalmente la seguente disuguaglianza: C (q1, q2) < C(q1, 0) + C(0, q2) à condizione di sub-additività dei costi di produzione. Tali economie si accompagnano a molti casi di integrazione verticale e di diversificazione, mentre le economie di scala rappresentano il presupposto dei processi di concentrazione. Sebbene la presenza di economie di ampiezza renda efficiente la produzione congiunta anche quando questa non avvenga all’interno di una singola impresa, la presenza di costi di transazione e di rischi di comportamenti opportunistici giustificano la produzione da parte di una singola impresa. Le economie di ampiezza sono determinate dalla condivisione di: 1. 2. 3. Fattori o componenti del sistema produttivo (impianti, attrezzature, linee di produzione); Attività materiali della struttura commerciale (canali distributivi, reti): si prestano per la commercializzazione di più prodotti invece che di uno solo. Risorse immateriali in dotazione all’impresa (immagine, reputazione, know-how, managerialità): ricorrente è il caso di sfruttamento dell’immagine di un marchio, creata grazie alla attività promozionale su un mercato delle informazioni commerciali relative al mercato di un prodotto per la commercializzazione di un secondo prodotto connesso al primo. L’utilizzo di fattori di produzione comuni coincide anche con quei casi ad esempio, della produzione congiunta di latte e yogurt in una industria alimentari. Questi processi realizzano prodotti congiuntamente secondo rapporti relativamente fissi, utilizzando in maniera completa risorse materiali che rimarrebbero sottoutilizzate altrimenti. àDiseconomie di scala Possono elencarsi numerosi fattori che tendono a far crescere dopo un certo livello la curva dei costi supposta ad 28 L. Tra questi rilevano in particolare i fattori legati ai costi dei processi di coordinamento e di informazione che aumentano con la dimensione dell’impresa. Oltre una certa scala, il costo del fattore organizzativo e imprenditoriale può crescere più che proporzionalmente o la sua efficacia diminuire. Nelle grandi imprese i vantaggi prima elencati della grande scala possono così essere compensati da inefficienze amministrative e organizzative (rischi di burocratizzazione). Con la crescita della scala dimensionale, aumenta anche il numero di mercati servii dalla stessa impresa con diverse SBU. Il coordinamento di tali unità di business tende ad aumentare costi di trasporto e difficoltà logistiche. Mentre le diseconomie di scala sono legate solamente a fattori organizzativi ed operativi, le economie di scala includono anche fattori di natura tecnologica e transattiva. Occorre poi notare che un aumento nella dimensione di impresa può risultare contemporaneamente in economie e diseconomie di scala. Un’ampia letteratura mostra che entrambe le forme di impresa possono avere una loro razionalità economica – efficienza ed efficacia – a seconda dei contesti competitivi e tecnologici e dei settori di appartenenza. Molti dei vantaggi di scala sono legati a imperfezioni dei mercati che non funzionano secondo criteri di efficienza allocativa o a fattori legati al controllo del mercato che reagiscono alla scala di produzione. àEconomie di scala interne Possono essere contrapposti ai vantaggi della produzione su larga scala quei vantaggi derivanti dalla “localizzazione dell’attività produttiva”, ossia della concentrazione di più imprese di piccola e media dimensione specializzate nella produzione di un singolo bene o di più beni tra loro correlati in uno spazio delimitato territorialmente. Le piccole imprese, pertanto, se non possono beneficiare delle economie dipendenti dalle loro risorse interne, possono profittare delle economie dipendenti dallo sviluppo generale dell’industria, ossia delle “economie esterne” di produzione. Marshall definisce le economie esterne come i “risparmi di costo che dipendono dallo sviluppo di una industria e che si producono grazie alla concentrazione in piccoli spazi di piccole e medie imprese, grazie alla localizzazione di una industria”. I vantaggi per le piccole imprese della localizzazione dell’attività produttiva derivano dai processi che si sviluppano a livello locale soprattutto tramite: 1. 2. 3. 4. Sviluppo di industrie ausiliarie; Diffusione delle conoscenze tecniche e educazione alle abilità e al gusto necessari all’attività produttiva; Circolazione delle idee riguardanti i prodotti, le tecniche produttive, i mercati, ecc.; Facile reperimento di manodopera specializzata e facilità con cui i lavoratori specializzati trovano impiego. Questi processi determinano una serie di vantaggi sul lato dell’offerta che costituiscono la nota triade marshalliana delle economie esterne: • • • Economie di specializzazione degli input produttivi Economie di specializzazione a livello di beni e servizi intermedi Trasferimenti di informazioni e competenze tecnologiche Si aggiungono inoltre i vantaggi sul lato della domanda della localizzazione dell’attività produttiva, che fanno riferimento soprattutto alle economie di approvvigionamento. Incorre in costi più bassi l’acquirente che si reca in un’unica località per visionare prodotti e contrattarne il prezzo, piuttosto che nel caso occorra visitare fornitori localizzati in punti dello spazio diversi e tra loro distanti. àEconomie di apprendimento A volte si parla di economie di scala dinamiche, per indicare le cosiddette economie di apprendimento, cioè le riduzioni dei costi medi unitari generate dall’esperienza. L’esistenza di processi di apprendimento fu evidenziata per la prima volta nell’industria aeronautica negli anni ’30, divenendo poi una legge generale industriale. Si osservava che 29 via via che veniva prodotto un maggior numero di singoli velivoli, il costo di produzione di ciascun velivolo diminuiva; con il passare del tempo quindi la produttività degli operai, delle maestranze e delle macchine cresceva, la progettazione ed il layout degli impianti diventava più razionale grazie all’esperienza accumulata. Tale fenomeno può essere rappresentato da una cura in cui sull’asse orizzontale è posto il costo di produzione, mentre su quello verticale una variabile che approssima l’esperienza accumulata, che può essere misurata con la produzione. Così come le economie di scala, le economie di esperienza possono riguardare sia la produzione che le altre attività dell’impresa. Le curve di esperienza hanno lo stesso effetto delle economie di scala, ma i due fenomeni vanno tenuti rigorosamente distinti. Il termine apprendimento viene in genere utilizzato per abbracciare tutti i tipi di miglioramento del know how e delle procedure organizzative che avvengono passivamente, per il semplice accumulo di esperienza nel fare qualcosa. La curva di apprendimento fornisce una ulteriore giustificazione della persistenza della dominanza o anche del rafforzamento della dominanza di una impresa leader di mercato: vendendo di più, l’impresa dominante riduce i suoi costi più velocemente, il che la rende ancora più competitiva, facendone aumentare le vendite. Dalla presenza di curve di apprendimento deriva una legge generale dell’economie industriale; se nel mercato esistono situazioni di concorrenza, i prezzi dei prodotti industriali devono diminuire nel tempo in termini reali, proprio per effetto delle curve di apprendimento. Guadagno di produttività ottenuto grazie all’accumulo dell’esperienza viene trasferito al mercato tramite la riduzione dei prezzi per effetto del processo di competizione tra le imprese. Per loro natura, i processi di apprendimento possono essere inesauribili ma rimangono sistematicamente associati ad una traiettoria tecnologica; costituiscono uno dei principali fattori che rendono poco plausibili i modelli di efficienza industria – impresa basati sul ciclo di vita del prodotto. L’esistenza di marcati processi di apprendimento conferisce una forte dinamicità alle dinamiche concorrenziali dei mercati e contribuisce a spiegare perché talvolta le posizioni di dominanza siano difficilmente superabili, es. degli aeroplani ’70. àMisurazione andamento dei costi Analisi empirica dell’andamento dei costi, misurazione economie di scala, ampiezza o apprendimento sono rilevanti per tutte le decisioni delle imprese che riguardino la crescita interna o le operazioni di fusione ed acquisizione, entrata in un mercato ecc. ma hanno anche rilevanza per le autorità pubbliche. I metodi e gli approcci di misurazione dei costi possono essere suddivisi in tre categorie: a) Analisi del rendimento del capitale investito dalle imprese che appartengono a diverse categorie dimensionali, tramite l’analisi dei bilanci. Si associa la dimensione dell’impresa con il ROI; in questo modo se vi è tra queste due variabili una correlazione positiva si può sospettare la presenza di economie di scala, e cioè di una funzione dei costi decrescente al crescere della produzione. Essendo il ROI influenzato dalla differenza fra ricavi e costi, è possibile che diversi livelli di ROI siano determinati non da livelli diversi dei costi di produzione, ma da diversi livelli dei ricavi. La tecnica di misurazione basata sul ROI può essere applicata solamente a livello di impresa, perché utilizza i bilanci delle imprese. Se invece occorre misurare la presenza di economie di scala a livello di impianto, si ricorre alla analisi del fabbisogno di investimento per unità di produzione rispetto a diverse alternative dimensionali. 30 b) Approccio sviluppato da Stigler: partendo dalla osservazione per la quale, se una particolare dimensione di stabilimento è efficiente, con il trascorrere del tempo, tutte le imprese appartenenti all’industria tenderanno ad avvicinarsi a quella dimensione. Di conseguenza, qualsiasi dimensione di stabilimento o di impresa che sopravvive nel tempo è efficiente. Nel caso in cui tutte le imprese operanti in una industria sostengano costi simili, lo studio basato sulla sopravvivenza delle impese individua la singola dimensione efficiente; se invece le imprese sostengono costi diversi o fabbricano prodotti differenti, la loro scala ottimale varierà, e tale tipo di studio potrà individuare solo la gamma delle dimensioni efficienti delle imprese. Tale metodologia è appropriata solo quando le variazioni nella curva dei costi dipendano solo dall’aumento dei costi e non da altri fattori. c) Analisi statistica o econometrica dei costi: metodo più diretto ed adatto per gli impianti. Per determinare la pendenza della curva dei costi di lungo periodo di un impianto, si pongono in relazione costi medi di produzione registrati per un campione abbastanza ampio di impianti con statistiche che riflettono il prodotto di questi ultimi, considerando anche altre variabili. I modelli econometrici più utilizzati per stime della presenza di economie di scala sono funzioni di costo o funzioni di produzione translogaritmiche. La difficoltà di questo metodo risiede principalmente nel reperimento di dati, che quasi mai sono pubblici. Le imprese inoltre sono molto restie a fornire informazioni sui propri costi. àIl fenomeno delle esternalità Rappresentato dalla presenza di circostanze che influenzano il livello della produttività o dei costi di produzione malgrado non vengano prese in considerazione dall’imprenditore nelle proprie valutazioni decisionali. Le esternalità possono essere positive e negative, a seconda che abbiano o meno l’effetto di aumentare la produttività o ridurre i costi. Tipico esempio della presenza di esternalità positive è rappresentato da due proprietà contigue destinate una alla coltivazione di alberi da frutto e l’altra all’allevamento delle api. Ciascun imprenditore considera esclusivamente i possibili effetti diretti della propria decisione. Nei distretti industriali, la presenza di esternalità positive è alla base dello sviluppo e della competitività di tale forma di organizzazione del lavoro tra imprese. Esempi di esternalità negative possono essere riferiti all’inquinamento ambientale 31 Capitolo 7 La concentrazione dell’offerta. Misurazione. Cause ed effetti. Punto di partenza delle analisi empiriche dell’economia industriale è la definizione del grado di concentrazione che caratterizza e determina la struttura di una industria. Per “industria” si intende l’aggregato di unità produttive individuate sulla base di un comune denominatore, che può essere ad esempio: un prodotto o una gamma di prodotti omogenei in funzione dei materiali utilizzate nel processo produttivo, o in funzione dell’uso finale. Sulla base di tale definizione, si intende far riferimento ad un tipo di concentrazione orizzontale, distinta dai fenomeni di integrazione verticale e di concentrazione globale. La concentrazione misura la distribuzione delle imprese in una industria per dimensione. Una industria è concentrata se il numero n delle imprese in essa operanti è piccolo; a parità di n il grado di concentrazione cresce all’aumentare della variabilità delle dimensione e in particolare quando “una larga porzione di un qualche aggregato è detenuta da parte di una piccola porzione di unità produttive e decisionali, la quale domina l’aggregato”. La concentrazione gioca un ruolo fondamentale nell’approccio strutturalista; il paradigma SCP è stato da molti economisti identificato nell’ipotesi che gli oligopoli più concentrati beneficino di profitti maggiori di quelli meno concentrati. Quindi il grado di concentrazione di una industria riflette il comportamento potenziale delle imprese in essa operanti, e in particolare, il potere da esse esercitato nel determinare un prezzo di mercato superiore al costo marginale. Occorre però sottolineare che la concentrazione è una determinante importante della struttura di una industria ma non è di per se stessa una misura del monopolio o del potere di mercato, essendo quest’ultimo l’effetto di numerosi fattori strutturali e della loro interazione. àMisure statistiche della concentrazione Un efficace indice di concentrazione deve essere: a) facile da calcolare ed interpretare; b) indipendente dalla dimensione dell’aggregato di base; c) deve variare tra 0 ed 1. La sua definizione pone numerosi problemi di natura empirica e statistica: 1. 2. 3. La scelta della variabile da porre a misura delle dimensione: le analisi empiriche propongono tali alternative: a) vendite o quantità prodotte (output): tale scelta dà rilevanza alla domanda senza però tenere conto della integrazione verticale; sarebbe quindi a tale fine più opportuno utilizzare il valore aggiunto. b) numero degli occupati e capitale investito: variabili inidonee in quanto riflettono più propriamente caratteristiche del processo produttivo non univocamente ricollegabili al grado di concentrazione. c) immobilizzi: variabile che pone problemi di valutazione (valori correnti o storici) e comunque non idonea a riflettere univocamente il grado di concentrazione di una industria. Definizione dell’aggregato di riferimento: valutazione che richiede l’individuazione del criterio economico più adeguato e la definizione geografica. Scelta dei metodi di misura più efficaci: duplice dimensione della concentrazione – numero imprese e distribuzione per dimensione – pone non pochi problemi nella costruzione di un indice sintetico; sotto questo aspetto si distinguono indici di concentrazione assoluti, legati ad entrambe le dimensioni, ed indici di concentrazione relativi (o di disuguaglianza), che misurano solamente la dispersione delle quote di mercato. I due fattori dimensionali che caratterizzano la concentrazione sono rappresentati attraverso la curva di concentrazione, definita dalla percentuale cumulata dell’output (asse y) e dal numero cumulato delle imprese ordinate a partire dalla più grande (asse x). Le curve rappresentate sono tutte concave verso il basso, o al limite sono delle rette nel caso di imprese di eguale dimensione. Ipotizzando che ciascuna delle curve disegnate rappresenta una industria, è possibile effettuare dei confronti tra le stesse: mentre si può univocamente affermare che l’industria A è più concentrata delle altre due, non altrettanto immediato è il confronto fra B e C. La presenza di un punto di intersezione implica una valutazione specifica dei diversi tratti delle curve in questione. Hannah e Kay (1977) suggeriscono alcuni criteri utili di lettura delle curve di concentrazione: 1. 2. Criteri di classificazione: una industria è più concentrata di un’altra se la sua curva di concentrazione giace, per ogni suo punto, al di sopra della curva dell’altra. Principio del trasferimento delle vendite: il trasferimento da una piccola ad una grande impresa causa un aumento della concentrazione, che si traduce in un rigonfiamento della curva. 32 3. 4. Condizioni di entrata: entrata di una piccola impresa, ferme restando le quote delle altre imprese, porta ad una diminuzione della concentrazione. Condizioni di fusione: una fusione porta d un aumento della concentrazione, potendo essere scomposta in un trasferimento di vendite da una piccola ad una grande impresa combinato con l’uscita di un’impresa dal mercato. Fare grafico pag 135 àIndici di concentrazione assoluta Categoria caratterizzata sia dal numero delle imprese che dalle rispettive quote di mercato. Output dell’industria: ! 𝑋 = *𝑥 "#$ Quota relativa dell’impresa i-esima: 𝑠" = 𝑥 𝑋 In termini generali, un indice di concentrazione assoluto C è definito considerando gli elementi contenuti nella formulazione: ! 𝐶 = * ℎ-! 𝑠" "#$ Dove il termine successivo alla sommatoria (h) è la ponderazione attribuita alla quote di mercato delle imprese. -) reciproco del numero delle imprese: questo semplice indice, pari a 1/n soddisfa tutte le condizioni esposte tranne quelle del trasferimento delle vendite. La sua scarsa utilizzazione è dovuta proprio alla non considerazione della dimensione relativa delle imprese, 𝑠 " , a cui nell’indice è attribuito un peso pari a zero. -) rapporto di concentrazione: misura la proporzione dell’output delle r imprese più grande, con r scelto arbitrariamente: 𝐶. = ∑."#$ 𝑠" dove la ponderazione è pari ad 1. L’indice dà rilevanza, nella scelta di r, solamente ad un tratto della curva di concentrazione dell’industria; il rispetto delle condizioni dettate da Hannah e Kay dipende dalla significatività del tratto prescelto e dalla possibilità di evidenziare in esso le informazioni più significative della curva di concentrazione e le trasformazioni che la caratterizzano nel tempo. L’indice C4 misura il grado di concentrazione delle quattro maggiori imprese dell’industria considerata e di solito viene utilizzato con riferimento a fattori fortemente monopolistici. -) Indice di Hirschman – Herfindahl: particolarmente usato negli studi sulla concorrenza oligopolistica. La sua peculiarità è quella di proporre una ponderazione della quota di mercato detenuta della singola impresa. L’indice soddisfa tutte le condizioni di Hannah e Kay prendendo esso in esame tutti i punti sulla linea di concentrazione: ! 𝐻𝐻 = * 𝑠"/ "#$ 33 Dove ℎ-! = 𝑠" La scelta di tale tipo di ponderazione consente di attribuire un peso maggiore alle imprese che detengono una quota di mercato maggiore; per converso, il valore dell’indice non risente molto della presenza di imprese di piccolissime dimensioni. Nel caso di monopolio l’indice HH avrà il valore massimo pari ad 1, in quanto c = 0 (disuguaglianza quote di mercato) per n = 1; nel caso di molte imprese di uguali dimensioni esso sarà pari ad 1/n, e tenderà a 0 in presenza di un numero infinito di imprese. -) entropia: indice che mira a rappresentare l’elemento, mutuato dalla fisica, dell’incertezza caratterizzante una data industria. Esso è utilizzato come una misura inversa della concentrazione, in quanto ad un minor numero di imprese presenti sul mercato e\o alla presenza di poche grandi imprese (elevata concentrazione) dovrebbe corrispondere un minor grado di incertezza. ! 1 𝐸 = * 𝑠" ln( ) 𝑠" "#$ Dove il logaritmo naturale rappresenta il peso dato alle quote di mercato. Tanto maggiore è il coefficiente di entropia tanto più incerto diviene il controllo della quota di mercato per la singola impresa. Nel caso del monopolio, l’entropia è minima e l’indice è uguale a zero, dato che s = 1 e ln(1) = 0. Nel caso di molte piccole imprese di uguale dimensione l’entropia aumenta sia all’aumentare dell’omogeneità delle quote di mercato sia all’aumentare delle imprese. àIndici di concentrazione relativa Tali misure non tengono conto del numero, in valore assoluto, delle imprese e trovano la loro rappresentazione sintetica nella curva di Lorenz. Essa è definita dalla percentuale cumulata dell’output dell’industria (asse y) e dalla percentuale cumulata delle imprese disposte in ordine crescente (asse x). La linea OT rappresenta l’ipotesi in cui le imprese dell’industria considerata abbiano tutte uguale dimensione. È importante notare che il numero delle imprese non influisce sull’andamento della curva di Lorenz, che potrebbe essere lo stesso per un’industria con due imprese di uguali dimensioni e per un’industria con 1000 imprese di uguale dimensione. -) Coefficiente di Gini: indice dato dal rapporto fra l’area tratteggiata, sottostante la retta di equidistribuzione, e l’area OTS: maggiore è la disuguaglianza dell’industria, maggiore è l’area tratteggiata e dunque il valore del coefficiente di 34 Gini all’interno dell’intervallo [ 0 , 1 ]. Valori bassi del coefficiente indicano una distribuzione abbastanza omogenea, con il valore 0 che corrisponde alla pura equidistribuzione, ad esempio la situazione in cui tutti percepiscono esattamente lo stesso reddito; valori alti del coefficiente indicano una distribuzione più diseguale, con il valore 1 che corrisponde alla massima concentrazione, ovvero la situazione dove una persona percepisca tutto il reddito del paese mentre tutti gli altri hanno un reddito nullo. -) Coefficiente di variazione: misura della disuguaglianza di una industria è stata introdotta nella formulazione dell’indice HH. Il coefficiente c è dato dal rapporto fra la deviazione standard della dimensione di ciascuna impresa e la dimensione media: 𝜎 𝑐= 𝑥̅ L’indice rileva la dispersione delle dimensioni relative delle imprese dal valore medio delle stesse. -) Varianza dei logaritmi della dimensione d’impresa: indice particolarmente utile quando l’analisi verte sulla crescita relativa delle imprese. La sua formulazione si basa sulla rappresentazione logaritmica delle quote relative dell’impresa e sul concetto di media geometrica: ! 1 𝑥" 𝑣 = * log O Q 𝑎𝑙𝑙𝑎 𝑠𝑒𝑐𝑜𝑛𝑑𝑎 𝑛 𝑥 PPP 0 / "#$ Dove il denominatore della seconda frazione indica la media geometrica delle dimensioni delle imprese operanti nell’industria esaminata. L’uso di questo indice porta a classificazioni non ambigue della disuguaglianza nelle dimensioni d’impresa quando si può affermare che la distribuzione dei logaritmi della prescelta variabile sia di tipo lognormale. In una distribuzione lognormale i logaritmi della dimensione delle imprese si collocano in modo uniforme e simmetrico intorno al valore del logaritmo della media geometrica della dimensione stessa. Nella realtà è più frequente che la distribuzione assuma forma asimmetrica. Ciò spiega l’utilizzo di tale indice in lavori teorici di economia industriale. Fare grafico p 144 Gli indici di concentrazione relativa, nel non considerare il numero delle imprese cui rapportare la distribuzione delle quote, possono dare ambigue indicazioni sui particolari fenomeni che interessano l’evoluzione di un mercato. Si pensi ad una fusione: essa può far diminuire il numero delle imprese dell’industria, ma può dar luogo ad una impresa di dimensioni analoghe a quelle già presenti sul mercato e quindi portare ad una diminuzione del valore dell’indice di concentrazione relativa. Se però si considera come dato il numero delle imprese presenti, l’andamento degli indici in questione può dare utili informazioni sulla struttura competitiva dell’industria considerata. àI processi deterministici La letteratura relativa al fenomeno della concentrazione ha avuto come primo obiettivo quello di individuarne le origini. Se l’approccio deterministico sottolinea il carattere originario del fenomeno per cui in un dato momento e in un dato mercato le condizioni di costo e di domanda saranno tali da spingere le imprese a muoversi con azioni deliberate verso un livello di concentrazione d’equilibrio, l’approccio stocastico si basa su una interpretazione “casuale” dei fenomeni di crescita delle singole imprese presenti in un dato mercato, e questi fenomeni sono il risultato di eventi incerti che, correlati al comportamento delle singole imprese, determinano la performance delle 35 stesse e l’evoluzione della struttura dell’industria. Il livello di concentrazione d’equilibrio, verso il quale tendono le imprese, varia al variare delle condizioni tecnologiche o di costo e delle condizioni di domanda. Il fattore che occupa un ruolo centrale nel determinare livelli crescenti di concentrazione è quello delle economie di scala. Fare grafico p 146 Nel grafico è ipotizzata una situazione di partenza caratterizzata dalla curva di costi medi di lungo periodo (LAC) e dalla retta di domanda (D): nel lungo periodo, l’equilibrio di concorrenza sarà per ciascuna impresa definito dalla DOM e dal prezzo (x1 e p1). In tali ipotesi avendo ogni impresa la dimensione ottimale x1, il livello di concentrazione sarà determinato dal numero delle imprese in esso presenti e dal rapporto x1/D1. Ipotizzando un cambiamento tecnologico che provochi un abbassamento della curva dei costi fino a LAC2, l’effetto di questo farebbe aumentare la DOM, diminuire il prezzo di equilibrio concorrenziale e aumentare la quantità domandata fino a D2. L’effetto del livello della concentrazione dipenderà dalle mutate condizioni di dimensione ottima minima e di domanda; è facilmente intuibile infatti che se la crescita nella dimensione del mercato (aumento della quantità domandata) è minore dell’aumento del livello della scala di produzione ottimale, la concentrazione dell’industria aumenterà. I limiti che la teoria presenta derivano da due semplificazioni: 1. 2. Una relativa all’andamento della curva dei costi, per i quali viene ipotizzata una forma ad U; mentre in curve di costo ad L le economie di scala interessano un tratto rilevante della funzione di costo dopo il punto di DOM. E’ evidente che in queste condizioni, le economie di scala determinano, in un equilibrio concorrenziale, solamente il livello minimo di concentrazione dell’industria. Una relativa all’ipotesi del raggiungimento di un equilibrio di concorrenza individuato da p = mc; se il prezzo del mercato è p, è evidente che anche imprese con scala inferiore a quella ottimale potrebbero operare nel mercato, e che il livelo minimo di concentrazione del mercato in questo caso è dato da x2/D2. àI processi stocastici: Gli eventi casuali che producono effetti sulla dimensione dell’impresa possono essere rappresentati dalla distribuzione normale di Gauss – Laplace; essendo la probabilità di detti cambiamenti uguale per ciascuna impresa e soprattutto indipendente dalla sua dimensione iniziale, le imprese piccole dovrebbero gradualmente raggiungere le dimensioni di quelle più grandi, cosicché il gruppo tenderebbe a divenire più omogeneo. Nella realtà, come detto, si osserva una distribuzione dimensionale asimmetrica. La spiegazione di ciò è nella particolare ipotesi di crescita nota come legge dell’effetto proporzionato. Sulla base di questo modello, formulato da Gibrat, tutte le imprese a prescindere dalla loro dimensione hanno la stessa probabilità di una data crescita percentuale: eventi casuali dunque influenzeranno la dimensione della singola impresa con la stessa probabilità ma con diversi tassi di crescita reali. Non esiste un vantaggio delle imprese più grandi in tale processo di crescita, essendo l’aumento dimensionale legato ad una serie di eventi che influenzano tutte le imprese dell’industria considerata con la stessa probabilità. La presenza di economie di scala che dovrebbe favorire la crescita dell’imprese più grandi offre un impulso aggiuntivo ma non determinante all’aumento della concentrazione. àPotere di mercato, concentrazione ed elasticità della domanda Il teorema fondamentale del paradigma SCP può trovare conferma sotto il profilo delle relazioni teoriche. Assumendo 36 che le performance di un settore siano misurate dal suo tasso di profitto 𝜋 si può dimostrare analiticamente che questo dipende da tre fattori: 1. 2. 3. Elasticità della domanda Concentrazione dell’offerta Condotte collusive Si definisce potere di mercato il rapporto che c’è fra il margine di profitto (p – MC) ed il prezzo. Tale rapporto viene convenzionalmente indicato dall’indice di Lerner à L = p – MC / p. Per l’insieme delle imprese che costituiscono l’offerta, assumendo che le funzioni di costo non siano omogenee, l’indice di Lerner diventa: ! 𝐿 = * 𝑠" "#$ 𝑝 − 𝑀𝐶" 𝑝 Dove s con i costituisce la quota di mercato dell’i-esima impresa. L’indice può essere quindi definito come la media ponderata dei margini di profitto delle imprese in un settore. È ovvio che se la funzione dei costi è uguale per tutte le imprese, l’indice L può essere espresso nella formula base sopra indicata. La caratteristica rilevante di tale indice è che per una industria nel suo complesso esso è uguale all’inverso dell’elasticità della domanda: 𝐿= 𝑝 − 𝑀𝐶 1 = 𝑝 𝜖 Considerando le singole imprese, la funzione di domanda (p = f(Q)) di ciascuna di esse diventa p= f (q1 + q2 + … + qn) dove la sommatoria di qi per da i ad n è uguale a Q; il profitto per ciascuna impresa quindi sarà dato da 𝜋 = 𝑝𝑞" − 𝑐" 𝑞" . In questo caso, le variazioni del margine di profitto per ciascuna impresa sono date non solamente dalla differenza fra prezzo e costo di produzione, ma anche dalla variazione della quota di mercato, cioè dalla reazione che le altre imprese potrebbero mettere in atto in conseguenza della decisione assunta dalla impresa i-esima. Sotto questo profilo fondamentale si possono immaginare due situazioni tipiche: a) Le imprese non tengono in considerazione le reazioni delle imprese rivali, il che può essere verosimile in tre circostanze: - mercato si trova in posizione di equilibrio di Nash, dove nessuno ha interesse a modificare le proprie posizioni; - specifica impresa considera date le decisioni dei competitors, come nella tipica formulazione dell’equilibrio di Cournot; - le imprese sono legate da un cartello, e non vi è quindi incertezza circa il comportamento delle concorrenti. In questa ipotesi l’indicatore del potere di mercato L diviene uguale al rapporto fra indice HH e elasticità della domanda. Ciò significa che l’indice HH di un settore diviso per il valore assoluto dell’elasticità della domanda esprime il valore tendenziale della media ponderata dei margini di profitto delle imprese. b) Le imprese sono consapevoli della possibilità che le loro azioni possono provocare una variazione della condotta delle altre imprese, e debbono perciò formulare congetture circa la natura delle reazioni delle altre imprese. In questo secondo caso l’indicatore del potere di mercato diviene: 𝑝 − 𝑀𝐶 1+ 𝜆 𝐿= = 𝑝 𝑛𝜖 Dove n rappresenta il numero delle imprese presenti sul mercato, e lambda è rappresentata dalla congettura che l’impresa i-esima formula sulla reazione che la sua variazione di quantità provocherà sulla quantità offerta dalle altre imprese. In entrambi i casi, oltre alla condizione di base rappresentata dalla elasticità della domanda, la variabili strutturale concentrazione risulta avere un peso rilevante nella determinazione della performance tendenziale di una industria, sia che essa si esprima sotto forma di indice HH sia che si esprima più semplicemente sotto la forma della numerosità delle imprese che costituiscono l’offerta. Le numerosissime ricerche empiriche svolte a partire da Bain e Stigler mostrano in effetti una significativa correlazione fra la concentrazione ed i margini di profitto. Stigler sosteneva che 37 “in generale i dati suggeriscono che non sussiste correlazione fra profittabilità e concentrazione se il valore di HH è inferiore a 0,250 o la quota di mercato delle prime quattro imprese (C4) è al di sotto dell’80%”. 38 Capitolo 8 Le barriere all’entrata Si segue l’impostazione di Bain, che lega le barriere all’entrata alla capacità di alzare il prezzo ad un livello superiore al costo medio da parte degli incumbents, le imprese già presenti nel settore. Ciò consente di interpretare le barriere all’entrata come uno dei principali elementi della struttura del mercato all’interno del paradigma SCP. Se la concentrazione riflette il numero dei rivali effettivi esistenti nel mercato, le condizioni che determinano l’entrata indicano i potenziali concorrenti. Aiuta ad avere altre prospettive di studio la distinzione tra: • • Barriere all’entrata come vincoli costituiti da fattori di natura istituzionale: derivano sia da vincoli di natura regolamentativa (che legano lo svolgimento di una data attività produttiva all’ottenimento di autorizzazioni, licenze, permessi) sia da vincoli d natura istituzionale (legati all’insieme di norme che regolano i sistemi fiscali, finanziari, assicurativi, tariffari e di appalto e per lavori pubblici). Si tratta di vincoli tanto meno rilevanti tanto più il mercato si apre al libero scambio di beni, servizi e persone. Nonostante tale intento dell’UE, persistono, per alcuni settori, barriere all’ingresso di imprese non nazionali o forme camuffate di aiuto alle imprese nazionali sempre meno compatibili con la normativa europea in materia di aiuti e concorrenza. Barriere più propriamente economiche, derivanti da fattori della struttura o della condotta dei mercati, che esistono anche in assenza di restrizioni regolamentative. Ulteriori definizioni: a) Secondo alcuni autori, come Demsetz, le barriere all’entrata si limitano a questi vincoli istituzionali e coincidono con le sole restrizioni delle autorità di governo o di regolazione (es. tariffa o dazio doganale). L’autore fa anche l’esempio del settore dei taxi. Secondo Demsetz tuttavia anche se le autorizzazioni non fossero contingentate costituirebbero sempre una barriera all’entrata, in quanto provocano un aumento dei costi operativi andando a restringere artificialmente l’entrata. Nella visione di Demsetz l’operare concorrenziale porterebbe alla eliminazione dei profitti monopolistici nel lungo periodo non comportando la creazione di barriere all’entrata. Visione che identifica le barriere con le restrizione governative della libertà d’entrata. b) Una seconda definizione, suggerita da Stigler, concentra l’attenzione sulle asimmetrie nelle condizioni di costo e di domanda fra imprese già attive e potenziali nuovi concorrenti. Stigler, nello specifico, definisce una barriera all’entrata come “costo di produzione che deve essere sostenuto da una impresa che cerca di entrare in una industria, e che non deve essere sostenuto dalle imprese già attive nell’industria”. Visione che tende ad enfatizzare la presenza di condizioni di mercato asimmetriche. Secondo queste definizioni, ogni vantaggio delle imprese già attive sulle potenziali viene usato come una barriera all’entrata e come fonte di profitti di lungo periodo. Stigler affermò però che non esistono barriere all’entrata quando le imprese già attive ed i potenziali concorrenti hanno le stesse condizioni di costo e di domanda. c) Una terza definizione, quella più spesso usata, è attribuibile a Bain, per il quale le barriere all’entrata misurano di “quanto, nel lungo periodo, le imprese già sul mercato possono aumentare i loro prezzi di vendita al di sopra dei costi medi minimi di produzione e distribuzione senza indurre l’entrata di imprese potenziali concorrenti”. Il prezzo massimo che impedisce l’entrata è il prezzo più alto che le imprese attive possono stabilire senza attirare l’entrata (prezzo di esclusione). Uno dei postulati della concorrenza perfetta e di quella monopolistica è costituito dalla libertà di entrata ed uscita delle imprese dal mercato. La realtà, al contrario, ci insegna che le imprese affermate possono disporre di vantaggi competitivi di vario genere rispetto ai potenziali competitori, cosicché la decisione di entrare in un determinato mercato comporta l’assunzione di un rischio, che può essere rappresentato dalla possibilità di sostenere perdite e dall’entità di queste. Per Bain quindi, l’effetto potenziale delle barriere all’entrata – persistenza dei prezzi al di sopra dei costi unitari minimi di lungo periodo – definisce la loro natura. La definizione di Bain è più ampia di quella di Stigler, dal momento che tiene conto del ruolo delle economie di scala come causa di barriere, potendo queste condurre a prezzi maggiori dei costi unitari minimi. La definizione di Bain è anche diversa da quella di Demsetz, dato che questo avrebbe classificato come barriere anche le concessioni per taxi, anche se queste 39 fossero state liberalmente disponibili, a prezzi concorrenziali; Bain non accetterebbe questa definizione, poiché nessuno in questa situazione realizza sovrapprofitti. La definizione di Bain è la più complessa fra le tre, aprendo la strada a sviluppi che prendono in considerazione i comportamenti delle imprese e la loro interdipendenza con la struttura del mercato. Sulla base di prezzo massimo che impedisce l’entrata, Bain definì la condizione di entrata come il mark – up o il margine percentuale realizzabile al di sopra del costo medio minimo delle imprese incumbents. La condizione d’entrata misura l’altezza delle barriere in un particolare mercato; secondo questa definizione, si tratta di un concetto di lungo periodo. àDeterminanti delle barriere all’entrata Bain fornisce la definizione di barriere all’entrata nell’ambito di uno studio che individua tre classi di determinanti che possono influenzare la condizione d’entrata in un mercato; tali determinanti sono riferite a condizioni oggettive di mercato e configurano barriere di tipo assoluto, indipendenti dalle aspettative delle imprese entranti e delle reazioni degli incumbents: 1. Economie di scala: rappresentano una determinante rilevante della condizione di entrata quando la DOM di produzione è elevata rispetto alla dimensione del mercato. In questo caso un potenziale entrante potrebbe aggiungere all’offerta già esistente un notevole volume di produzione e generare quindi una significativa diminuzione nel livello generale dei prezzi e quindi dei profitti conseguibili. I potenziali entranti possono anche essere indotti a fare ingresso sul mercato con una scala produttiva ridota rispetto a quella ottimale, per non aumentare eccessivamente l’offerta. Comportando però l’entrata con una scala sub-ottimale costi più elevati per la nuova impresa, i prezzi di lungo periodo applicati dagli incumbents possono essere più elevati rispetto al costo medio minimo, senza indurre nuovi ingressi: in questo senso le economie di scala costituiscono un deterrente all’entrata. Il grafico mostra la curva dei costi medi unitari di lungo periodo di un’impresa, nuova o già attiva, con la consueta forma ad L in cui i costi inizialmente diminuiscono per poi rimanere costanti per un intervallo molto ampio di valori di produzione. Data tale configurazione, è possibile operare in maniera efficiente solamente producendo almeno la quantità OB. Se il mercato totale è di ampiezza pari ad OM, potranno operare sul mercato un numero massimo di tre imprese, che produrranno ciascuna la quantità OB che assicura il conseguimento della DOM. Anche se l’impresa entrante potesse entrare alla DOM, deve strappare alle imprese già attive una grossa fetta del loro mercato, eliminarne cioè una. Per ottenere ciò, in un primo momento dovrebbe sopportare gravi perdite. Se però confida che il mercato si espanderà, potrà strategicamente sopportare perdite iniziali da recuperare una volta che il mercato si sarà ampliato (barriere dinamiche). Il caso illustrato evidenzia due fattori ulteriori che influenzano l’entrata e precisamente - inclinazione della curva dei costi di produzione; - tasso di espansione della domanda. Se la curva è molto inclinata e la domanda è stagnante, l’entrata con impianti sottodimensionati sarà ostacolata in quanto il divario in termini di costo tra impresa dominante e rivale potenziale sarà notevole. Viceversa, quando la curva è poco inclinata con domanda crescente, l’entrata con impianti sottodimensionati può non essere penalizzante come nel caso precedente, poiché le maggiorazioni di costo non sono rilevanti. 2. Vantaggi assoluti in termini di costo: barriera legata alla presenza, per il potenziale entrante, di costi di produzione unitari superiori a quelli delle impese gi 40 3. à attive sul mercato, qualunque sia la scala produttiva adottata. Ciò significa che i rivali potenziali hanno una curva dei costi medi di lungo periodo che giace sempre e comunque al di sopra di quella che caratterizza le altre imprese. Rispetto al caso precedente, qui la nuova impresa sopporta uno svantaggio in termini di costo di produzione a qualsiasi livello di produzione essa scelga di produrre. I vantaggi assoluti di costo di cui godono le imprese incombenti derivano da una molteplicità di fattori. Per prima cosa, l’impresa dominante può disporre di tecniche produttive superiori, può avere accesso ai fattori produttivi a prezzi e\o condizioni più favorevoli oppure può disporre di risorse naturali meno costose o qualitativamente superiori, esempio perfetto quello relativo alle industrie minerarie. Infine, le imprese incombenti potranno disporre di maggiori disponibilità liquide; a causa delle imperfezioni del mercato di capitali, i settori che richiedono un forte apporto di capitali iniziali sono protetti contro i potenziali entranti. Questa osservazione è coerente con la formulazione di Stigler, in quanto evidenzia imperfezioni nel mercato dei fattori che generano barriere all’entrata. Qualunque ne sia la causa, tali costi maggiori a carico dei potenziali rivali sussistono nonostante essi operino ad una scala produttiva ottimale. Differenziazione del prodotto: si manifesta in una preferenza, momentanea o definitiva, dimostrata dai consumatori nei confronti dei prodotti già esistenti sul mercato rispetto a quelli potenziali nuove imprese. Impresa avviata può godere di reputazione positiva presso la clientela, in genere associata ad un marchio, che le consente di applicare prezzi superiori ai costi unitari di produzione, senza attrarre nuovi entranti. La nuova impresa quindi per riuscire a collocare la propria produzione è costretta ad applicare prezzi decisamente inferiori a quelli dei produttori già esistenti, vedendo così ridurre i propri ricavi, oppure sostenere elevati costi di produzione, vendita e distribuzione aumentando i propri costi per unità di prodotto. La lunghezza del periodo di promozione e avviamento ed i costi ad esso relativi costituiscono una barriera in quanto, più è ampio tale arco temporale più l’entrata sarà scoraggiata. àBarriere all’entrata aggregate Le industrie studiate da Bain – 20 settori industriali negli USA – furono classificate in tre categorie, secondo la condizione aggregata di entrata: 1. 2. 3. “molto alta”: per cui le imprese già attive potevano aumentare il prezzo del 10% rispetto ai costi medi minimi, senza attirare l’entrata “sostanziale”: corrisponde alla possibilità di aumenti del 5 – 9% “moderata”: relativa ad un mark – up potenziale sui costi medi minimi compreso tra l’1 ed il 4%. Le determinanti delle barriere all’entrata rivestivano maggiore o minore importanza a seconda del settore analizzato. àBarriere tecnologiche Aspetto dei vantaggi riconducibili ad una superiorità tecnologica protetta da brevetti o altri diritti su opere dell’ingegno e di know-how legato alla ricerca e sviluppo già avviata. I brevetti forniscono all’inventore diritti esclusivi su prodotto, processo, sostanza o design nuovo ed utile. La protezione legale accordata invece ai lavori 41 artistici è quella dei diritti d’autore. La finalità di brevetti e diritti d’autore è quella di fornire un incentivo alla innovazione, assicurando una protezione che consenta di remunerare le risorse impiegate per lo sviluppo della stessa innovazione, come i costi di ricerca e sviluppo. La protezione legale conferisce un potere di monopolio all’inventore; un innovatore, ex post, diventa un monopolista. Tale situazione comporta un costo sociale in termini di efficienza, misurata all’inefficienza allocativa associata ai prezzi di monopolio. Si configura quindi un trade-off tra inefficienza ed incentivo all’innovazione. Questo può essere in parte risolto combinando in maniera ottimale gli elementi della protezione come l’ampiezza e la durata. Quanto più lunga è la durata di un brevetto o di un diritto d’autore, tanto più velocemente la collettività si appropria del valore di quell’innovazione e viceversa. àBarriere all’uscita. Prezzo di eliminazione Si tratta di fattori economici, strategici ed emotivi che trattengono l’impresa nel mercato anche se la redditività è bassa o negativa. Se ad esempio una impresa impiega in un dato settore un’attrezzatura altamente specialistica, quindi difficilmente rivendibile o trasferibile, si tratterà di un sunk cost, un costo difficile da recuperare che rende l’uscita dall’industria poco probabile. Un analogo effetto di deterrenza dall’uscita hanno altri fattori, come ad esempio l’esistenza di contratti di lavoro di lungo termine, obblighi statutari per la stipula di contratti di fornitura di b\s già in essere, interdipendenze con altre attività della stessa impresa, ostacoli politici o fattori affettivi e personali. L’esistenza di fattori economici che rendono costosa l’uscita costituisce oggetto di considerazione in fase di entrata. Praticamente quindi uno degli aspetti che influenza l’entrata di una impresa in un’industria è la capacità dell’impresa di uscirne; se quindi è costoso uscire da un settore industriale, gli incentivi ad entrarvi sono ridotti. I costi di uscita servono a impedire l’entrata proprio come quelli sostenuti per entrare in una industria. Le barriere all’uscita rivestono un ruolo fondamentale nella teoria dei mercati contendibili di Baumol, Panzar e Willig. In questi mercati non esistono barriere all’entrata e all’uscita. I nuovi concorrenti entrano e lasciano senza dover sostenere costi netti; nessun concorrente è scoraggiato all’entrata dal fatto che, in caso di uscita dal mercato, perderebbe il denaro investito. Ogni investimento è recuperabile all’uscita, al netto dei deprezzamenti. Avendo già definito il concetto di prezzo di esclusione come quel prezzo che impedisce l’entrata di nuovi concorrenti e che definisce l’elevatezza delle barriere all’entrata, è possibile ora dare una definizione di “prezzo di eliminazione”, ossia quel prezzo in corrispondenza del quale uno o più concorrenti presenti in una industria sono indotti a sospendere la produzione e ad uscire dal mercato. La decisione di uscire dal mercato verrà presa qualora i prezzi correnti non consentano di coprire il costo variabile, e quindi la posizione più vantaggiosa per l’impresa che si trova in tali circostanze è quella di interrompere la produzione. A volte può essere preferibile una decisione di vendita dell’azienda, perché il valore realizzabile da una cessione potrebbe essere maggiore di quello che si potrebbe ottenere recuperando parte dei costi fissi con una decisione di prezzo, elevandolo ad un livello maggiore dei costi variabili. A scoraggiare l’entrata o a favorire l’uscita possono però anche essere le strategie adottate dagli incumbents, e non solamente le barriere strutturali. A questo fine si individuano le strategie di deterrenza all’entrata, le quali fanno perno sul prezzo o su altre variabili. Tra le strategie non di prezzo si ricordano: espansione della capacità produttiva, proliferazione dei prodotti e contratti di lungo periodo. Esistono poi strategie che un monopolista può mettere in atto per costringere alla ritirata le imprese che sono appena entrate nel mercato, in particolare la strategia dei prezzi predatori. Un’impresa adotta una politica predatoria dei prezzi quando, in una prima fase, riduce il proprio prezzo ad un livello molto basso per spingere i concorrenti ad uscire dall’attività e per scoraggiare l’ingresso da parte di potenziali imprese; in una seconda fase, quando i rivali sono usciti dal mercato, aumenta il prezzo. In altre parole, l’impresa incorre in perdite di breve periodo per ottenere profitti di lungo periodo. Quando gli incumbents pongono in essere strategie di deterrenza all’entrata si dice che l’entrata è impedita; se gli incumbents pongono in essere strategie che rendono l’entrata poco profittevole (es. strategia del prezzo limite), l’entrata è bloccata. Quando gli incumbents invece non fanno nulla per ostacolare l’ingresso di nuovi entranti e ciò è profittevole, l’entrata è accomodata. Con riferimento alla misura di costo, Areeda e Turner (1975) sostengono che da un punto di vista teorico la migliore misura è quella del costo marginale. Tuttavia suggeriscono di utilizzare nella pratica il costo medio variabile, definito come la somma di tutti i costi variabili, divisa per l’output, data anche la difficoltà di misurare il costo marginale di un’impresa. Quindi un prezzo di eliminazione, secondo Areeda e Turner, è quello ragionevolmente inferiore al costo variabile dei potenziali entranti. àIl modello BSM. Prezzo limite ed effetti della concorrenza potenziale Fino a questo momento le barriere all’entrata sono state analizzate in un contesto statico, senza considerare le 42 aspettative delle imprese entranti e le reazioni delle imprese incumbents. Un primo gruppo di modelli, proposti da autori come Bain, Modigliani e Sylos Labini, analizza il comportamento di entrata in un mercato oligopolistico assumendo l’ipotesi che le imprese concorrenti effettuino la loro decisione d’entrata supponendo che gli incumbents reagiscono all’entrata non variando i livelli di produzione, in maniera non dissimile dall’ipotesi del modello di Cournot. Con l’ipotesi appena descritta (postulato di Sylos Labini), i potenziali concorrenti possono calcolare la riduzione di prezzo del bene dell’industria dovuta alla loro entrata e quindi la convenienza dell’entrata stessa. Inoltre, le imprese già attive possono calcolare quale prezzo scegliere in modo da scoraggiare l’entrata, date le aspettative dei potenziali concorrenti. Portando avanti un’analisi del modello BSM in una prospettiva di statica comparata, possiamo sostenere che tale modello è costruito sulle seguenti assunzioni: • • • • • Si prendono in considerazione solamente due periodi, quello che precede l’entrata (t=0) e quello successivo all’entrata del nuovo competitor (t=1). L’offerta del tempo t=0 è costituita da una sola impresa o da un cartello di imprese (incumbents). Non vi è differenziazione fra il prodotto delle imprese già stabilite e quello del nuovo entrante. La domanda del mercato è costante nel tempo. Il potenziale entrante si comporta secondo l’ipotesi di Cournot, ossia ritiene che la quantità prodotta dalle imprese incombenti resterà invariata anche dopo l’eventuale entrata del nuovo concorrente. Con queste assunzioni il prezzo limite è dato dalla differenza fra i costi di produzione medi\marginali delle imprese incombenti e di quelli delle imprese entranti, ed inoltre dal sovrapprezzo che può essere praticato senza provocare l’entrata dei nuovi concorrenti. Nell’ipotesi del modello BSM (invarianza della produzione delle imprese incombenti), il prezzo limite è una funzione diretta della scala minima di entrata dei nuovi concorrenti ed inversa dell’elasticità della domanda, nel senso che tanto più piccoli sono i valori dell’elasticità della domanda tanto maggiore risulta la differenza fra il prezzo praticato dalle imprese incombenti e quello che risulterebbe in condizioni di concorrenza. Mentre la concorrenza potenziale impedisce all’impresa incombente di formulare un prezzo di monopolio, il prezzo che impedisce l’entrata corrisponde al costo medio marginale per i concorrenti potenziali. Più in generale si può osservare che l’effetto di una concorrenza potenziale è dato dalla differenza fra prezzo limite praticato dalle incumbents e prezzo monopolistico che queste fisserebbero in assenza di concorrenti potenziali. Se l’entrata potesse avvenire solamente oltre una soglia minima, ad esempio per la presenza di economie di scala, l’effetto dell’entrata sul prezzo ex post per i nuovi entranti sarebbe ancora maggiore, e quindi più elevato risulterebbe il prezzo limite praticabile dalle imprese incombenti. àLe barriere all’entrata in un contesto di concorrenza dinamica Abbandonando la formula della statica comparata e considerando il BSM in un contesto dinamico, l’ipotesi della invarianza della domanda dovrebbe essere rimossa, ma occorrerebbe soprattutto introdurre il concetto di tempo di reazione (R), che misura l’intervallo minimo che intercorre fra il tempo Tq e Tr. La casistica empirica mostra che il caso in cui i prezzi più alti del livello concorrenziale provocano l’immediata attivazione della concorrenza potenziale sono piuttosto infrequenti, dato che la produzione da parte dei nuovi entranti presuppone l’esistenza di una capacità produttiva disponibile e non utilizzata. Nella generalità dei casi l’entrata presuppone invece l’allestimento di una nuova capacità produttiva, un processo che difficilmente può essere istantaneo, ma può richiedere un tempo più o meno lungo, definito appunto tempo di reazione, corrispondente al tempo tecnico necessario per allestire una capacità produttiva incrementale da parte dei nuovi concorrenti. Definendo g come tasso medio annuale della crescita attesa della domanda del mercato, è possibile formulare l’equazione: Ponendosi nella prospettiva della impresa incombente, le alternative del comportamento possono essere rappresentate dalle seguenti tipologie, ricavabili da una matrice che mette in relazione investimenti\prezzi : • • Mantenere i profitti al più alto livello possibile non curandosi dell’entrata (the fat cat); Contenere i profitti ad un livello più basso del prezzo limite per ritardare il più possibile l’entrata (lean and angry); 43 • • Investire in capacità produttiva o nella differenziazione del prodotto per ritardare il più possibile la condizione di entrata (top dog); Contenere gli investimenti per massimizzare il cash-flow e quindi presentarsi alternativamente come potenzialmente aggressivo o accomodante nei confronti dei nuovi concorrenti. Le quattro combinazioni possibili delle condotte definiscono altrettante tipiche strategie della gestione del vantaggio competitivo: a) Strategia puppy dog: appare accomodante verso la concorrenza potenziale, mantenendo prezzi alti e investimenti bassi, che fanno presupporre una disponibilità dell’impresa incombente ad accogliere altre imprese nel proprio mercato. b) Strategia thrift (lean and hungry): ostile agli entranti per la deterrenza determinata dai prezzi più bassi. c) Strategia fat cat: sfrutta in pieno il vantaggio competitivo, cercando di ritardare l’entrata con elevati investimenti di capacità e di differenziazione. d) Strategia top dog: è la più deterrente verso i potenziali concorrenti, scoraggiandone l’entrata sia con prezzi relativamente inferiori, sia con il volume elevato degli investimenti. Fare grafico politica ottimale del prezzo p. 173 44 Capitolo 9 La differenziazione. Effetti spesa pubblicitaria La qualità e le innovazioni di prodotto La “non price competition” La differenziazione del prodotto è un elemento che attiene tanto alle condizioni strutturali del mercato quanto agli elementi che caratterizzano la condotta degli operatori in esso presenti. Il concetto di differenziazione implica che i prodotti in concorrenza nel mercato abbiano caratteristiche differenti o siano considerati tali dagli acquirenti. I venditori percepiscono: • • Condizione strutturale: la non perfetta sostituibilità dei propri prodotti rispetto a quelli dei concorrenti. Condizione di condotta: l’opportunità di indurre e utilizzare elementi di differenziazione nella domanda dei propri prodotti. Ciò incide in modo sostanziale sulle strategie delle imprese. Nel caso in cui i prodotti siano percepiti come non perfetti sostituti da parte degli acquirenti, ciascuna impresa definirà una propria curva di domanda residuale. Nel caso in cui invece i prodotti siano perfettamente omogenei, tutte le imprese concorrenti devono applicare lo stesso prezzo se vogliono continuare a vendere il proprio prodotto. Il prezzo del bene dunque è determinato sulla classica curva di domanda inclinata negativamente dalle quantità totali offerte sul mercato. In tali ipotesi, le imprese possono essere considerate price taker: 𝑝1 = 𝑝 = 𝑎 − 𝑏(𝑄) = 𝑎 − 𝑏(𝑞$ + 𝑞/ ) Se l’acquirente considera il prodotto dell’impresa 1 non perfettamente sostituibile con quello dell’impresa 2, la curva di domanda del prodotto dell’impresa 1 non può essere rappresentata nella formulazione sopra mostrata ma sarà : 𝑝1 = 𝑎 − 𝑏$ 𝑞$ − 𝑏/ 𝑞/ In questa equazione la curva di domanda di ciascuna impresa dipende non dalle quantità totali del mercato ma dalle quantità offerte dall’altra impresa e dal grado di differenziazione di ciascun prodotto espresso nel coefficiente b. Tanto più il prodotto dell’impresa 1 è differenziato tanto più il suo prezzo è indipendente dalla condotta dell’impresa 2. àLa differenziazione dei prodotti: modelli teorici Un prodotto si differenzia dai prodotti in concorrenza quando presenta una caratteristica che cattura, a parità di altre qualità, la preferenza di tutti i consumatori (differenziazione verticale). Vi sono però casi più frequenti in cui i consumatori valutano in modo differente le caratteristiche qualitative dei prodotti in concorrenza (differenziazione orizzontale). L’approccio utilizzato nel definire il concetto teorico di differenziazione fa leva sull’ipotesi che la domanda dei consumatori non sia orientata tanto al prodotto quanto alle caratteristiche o attributi del prodotto e dei prodotti concorrenti. Ciascun prodotto è individuato attraverso la definizione delle caratteristiche che meglio rappresentano la funzione di utilità dell’acquirente i-esimo per ciascun prodotto k. Se fosse possibile produrre tutte le possibili combinazioni di attributi sarebbe possibile soddisfare le preferenze di ciascun consumatore. La presenza di costi fissi e di economie di scala nella produzione di ciascuna combinazione fa sì che ciascun consumatore non troverà il prodotto che risponde perfettamente alla sua combinazione ottimale, ma la sua scelta sarà determinata dai prezzi relativi delle combinazioni offerte. L’aggregazione delle preferenze espresse dai singoli consumatori determina per ciascun prodotto e per ciascun venditore una curva di domanda negativamente inclinata. Un secondo approccio teorica nasce dalla letteratura sulle informazioni dei consumatori e sui costi di transazione. Ciascun consumatore, nel prendere le proprie decisioni di acquisto, investe nell’acquisizione di diverse tipologie di informazione fino al punto in cui i benefici attesi da una scelta più oculata tra i brand offerti sul mercato eguaglia il costo marginale dell’informazione (Porter). Ciascun consumatore ha a disposizione quindi un set di informazioni incompleto e diverso da quello degli altri acquirenti. Ne consegue che, anche se le preferenze di tutti i consumatori sulle caratteristiche rilevanti del prodotto fossero identiche, essi esprimerebbero per ciascun livello di prezzo dei prodotti in concorrenza una preferenza diversa in quanto diverso è il set di informazioni a loro disposizione. Per alcuni costi i consumatori sostengono un costo 45 specifico nel passare ad un prodotto concorrente (switching cost): eventuali variazioni di prezzo che incidono sulla funzione di preferenza inducono alcuni ma non tutti gli acquirenti ad un cambiamento di prodotto. La presenza di costi transattivi può divenire un elemento di differenziazione contribuendo essa a determinare le condizioni strutturali che definiscono la curva di domanda di un prodotto differenziato. -)Qualità dell’informazione e incertezza: il modello di Akerlof Importanza della qualità dell’informazione nel determinare in situazioni di incertezza le scelte dei consumatori ed il funzionamento dei meccanismi di mercato sono state analizzate per la prima volta da Akerlof nel 1970. Il mercato delle auto usate (market for lemons) è utilizzato dall’autore per dimostrare che, nel caso in cui si ipotizzi una situazione in cui gli acquirenti si affidano a valutazioni statistico-probabilistiche per superare l’incertezza delle informazioni sulle caratteristiche qualitative del prodotto, i venditori avranno un incentivo ad offrire prodotti di bassa qualità. In tale situazione, il beneficio connesso alla vendita di prodotti di buona qualità avvantaggia principalmente tutto il gruppo dei venditori anziché il singolo venditore: l’effetto è una progressiva riduzione della qualità media dei prodotti offerta e della dimensione stessa del mercato. Il mercato delle auto è caratterizzato da auto nuove e auto usate, le quali possono essere entrambe buone o cattive (lemons). L’acquirente di un’auto nuova non sa se il prodotto che ha acquistato è buono e cattivo: è verosimile quindi che questi consideri, inizialmente, ogni possibile auto di qualità media, associando cioè una probabilità q all’eventualità che l’auto acquistata sia buona, ed una probabilità (1 – q) che essa risulti cattiva. Le misure delle probabilità così definite derivano dalla quantità di auto buone e bidoni presenti sul mercato. Dopo aver posseduto l’auto per un po’ di tempo però il proprietario (venditore nel mercato dell’usato), che ha comprato a propria auto nuova, conosce la qualità della propria auto meglio del compratore. Il proprietario è dunque nelle condizioni di poter fare una stima molto più accurata e assegnerà una nuova probabilità all’eventualità che la sua macchina sia un bidone. Il prezzo a cui il proprietario vorrà vendere la sua auto sarà maggiore di quello che il compratore sarà disposto a riconoscergli sulla base delle informazioni a sua disposizione: il prezzo di un’auto buona e di una cattiva è per il compratore identico e coincide con il prezzo medio. Il venditore, che non potrà ricevere il valore effettivo della sua auto, uscirà dal mercato e quindi il numero dei bidoni sul mercato aumenterà con il conseguente peggioramento della qualità percepita dal compratore. La domanda dipende dal prezzo delle auto p e dalla qualità media delle auto usate offerte dal mercato; l’offerta di auto usate e la qualità p dipendono dal prezzo p, dalla qualità e dall’offerta S(p). In equilibrio, la quantità offerta è uguale a quella domandata per un dato livello di qualità. Se la qualità diminuisce, i compratori saranno disposti via via a pagare un prezzo minore il quale a sua volta determinerà un peggioramento della qualità. Estrema conseguenza di tale processo è la distruzione dello stesso mercato se prevarrà la presenza di venditori che, offrendo beni di qualità inferiori, portano fuori dal mercato quelli di qualità superiore. Rimedio più ovvio per il compratore che voglia assicurarsi un livello normale di qualità attesa è la garanzia. Altro efficace rimedio all’incertezza è la reputazione del brand, nella misura in cui il compratore possa rivalersi evitando acquisti futuri di prodotti del brand. à Analisi empiriche Il concetto di non perfetta sostituibilità dei prodotti in concorrenza introduce dal punto di vista teorico la misura più appropriata del grado di differenziazione. L’approccio teorico basato sulle caratteristiche del prodotto introduce semplificazioni e soluzioni metodologiche percorribili. Questo approccio consiste nel definire un prodotto attraverso le sue caratteristiche più rilevanti. Gli attributi sono accomunati dal fatto di essere misurabili. Il problema più rilevante nell’impostare analisi empiriche sugli effetti della differenziazione resta quello di stimare la valutazione del consumatore ed il peso che ciascuna delle caratteristiche che identificano il prodotto hanno nel definire il mix ottimale. È necessario individuare gli strumenti econometrici che consentono di derivare dette stime dai dati disponibili su ciascun prodotto o tipologia di prodotto. à Effetti della spesa pubblicitaria Approccio basato sulla teoria dell’informazione e dei costi transattivi individua nella spesa pubblicitaria un potenziale fattore di differenziazione dei prodotti. Essa contribuisce infatti a definire il set di informazioni a disposizione degli acquirenti e le loro preferenze. Inoltre, la spesa pubblicitaria rappresenta per i consumatori una fonte di informazione relativamente economica. È evidente che il contenuto informativo della pubblicità dipende dal fatto che i consumatori possano o meno determinare la qualità del prodotto prima di acquistarlo. Si definiscono prodotti con qualità individuabili quelle che possono essere valutati prima dell’acquisto, ed in relazioni ad esse si parla pubblicità informativa. Si parla di prodotti con qualità da sperimentare quando questi devono essere prima acquistati e poi provati, in questo caso si parla di pubblicità persuasiva. 46 Sulla base di questa distinzione, Nelson suggerisce che l’intensità della pubblicità sarà maggiore per i beni con qualità da sperimentare, sottolineando la funzione più persuasiva che informativa della stessa. Visione riduttiva del ruolo della pubblicità non considera che anche questi ultimi beni sono soggetti alla valutazione del consumatore, che non può essere ingannato dal lungo periodo. È evidente che l’acquirente cercherà il riscontro delle qualità evidenziate nella pubblicità e che anche una pubblicità persuasiva deve tener conto dell’effettiva abilità del consumatore di giudicare la qualità del prodotto dopo l’acquisto. Per entrambe le tipologie di beni è fondamentale la considerazione per la quale l’intensità della pubblicità e la sua persistenza nel tempo può essere di per se stessa segnale di qualità ed avere una valenza informativa. Porter fa riferimento alle abitudini di acquisto dei consumatori distinguendo fra: • Beni di convenienza: basso prezzo di acquisto e elevata frequenza di acquisto, il consumatore spende meno tempo nell’acquisto di tali beni che sono dunque più suscettibili all’effetto della pubblicità. Beni di spesa: prezzo unitario maggiore e sono acquistati meno frequentemente, consumatore potrebbe essere influenzato più dalla assistenza commerciale che dalla pubblicità. • Un basso investimento in pubblicità può essere ipotizzato nel caso di prodotti segnati da un elevato turnover degli acquirenti; i beni ad alto contenuto di moda richiedono massicci investimenti in pubblicità al fine di crearne e mantenerne l’immagine. Gli esempi analizzati individuano nelle diverse caratteristiche della domanda dei beni la motivazione della diversa intensità di pubblicità che caratterizza le strategie delle imprese venditrici nei diversi mercati. -) La legge di ottimizzazione del marketing mix Nel modello Dorfman – Steiner, le variabili strategiche che definiscono la politica del marketing di un’impresa sono: prezzo, qualità e pubblicità; un’impresa monopolistica utilizza queste variabili e sceglie il livello ottimale di pubblicità con l’obiettivo di massimizzare i profitti. Ipotizziamo una funzione inversa di domanda: 𝑄 = 𝑓 (𝑝, 𝑠, 𝑧) Dove la quantità è definita dalle variabili prezzo p, pubblicità s, qualità z. La pubblicità viene eseguita attraverso un unico canale di informazione ed è acquistata ad un prezzo costante unitario per messaggio pubblicitario T; il fattore qualità viene considerato costante. Il profitto dell’impresa monopolistica è definita nella nota equazione: 𝜋 = 𝑝𝑄 (𝑝, 𝑠, 𝑧) − 𝐶[𝑄 (𝑝, 𝑠, 𝑧)] − 𝑠𝑇 La condizione di primo ordine per la massimizzazione del profitto è definita, rispetto la variabile p, dato un livello costante di pubblicità: 𝛿𝜋 𝛿𝑄 𝛿𝐶 𝛿𝑄 =𝑄+𝑝 − =0 𝛿𝑝 𝛿𝑝 𝛿𝑄 𝛿𝑝 23 24 Dove 24 25 = 𝑀𝐶 Il risultato del modello di Dorfman – Steiner è che, in un’impresa monopolistica, il livello ottimale della spesa pubblicitaria, dato dal rapporto tra spesa pubblicitaria e fatturato (sT/pQ), risulta essere uguale al rapporto tra l’elasticità della domanda alla spesa pubblicitaria ed elasticità della domanda al prezzo. Ovviamente l’intensità di pubblicità sarà maggiore quanto maggiore è l’elasticità della domanda alla pubblicità e quanto minore è l’elasticità della domanda al prezzo. Questo è il caso dei prodotti legati all’immagine, per i quali la domanda è meno sensibile al prezzo che alla pubblicità e l’intensità di pubblicità è maggiore rispetto al livello medio registrato in altri settori. Un rapporto pubblicità/vendite costante presuppone che il rapporto tra le relative elasticità rimanga costante. Il risultato del modello D-S derivato per una impresa monopolistica può essere generalizzato al fine di considerare la concorrenza tra diverse imprese oligopolistiche. Ciò implica che la funzione di domanda rappresentata precedentemente dipenda dal prezzo e dalle politiche pubblicitarie e di prodotto dell’impresa considerata e delle altre imprese rivali. àGli effetti delle politiche di qualità e della innovazione di prodotto Il requisito minimo affinché si possa parlare di innovazione è che il prodotto, processo, metodo organizzativo o di marketing siano nuovi, o significativamente migliorati, con riguardo all’impresa in questione. Ciò significa che 47 l’innovazione potrebbe anche essere stata sviluppata precedentemente da altre imprese ed organizzazioni ma essere sconosciuta all’impresa in questione fino al momento della sua adozione. La definizione riportata nella terza edizione dell’Oslo Manual fa riferimento ad un concetto ampio di innovazione che include ben quattro categorie fondamentali: 1. 2. 3. 4. Innovazione di prodotto: quando vengono introdotti nuovi beni/servizi, o sviluppate nuove modalità di utilizzo di prodotti preesistenti, apportati significativi miglioramenti alle caratteristiche funzionali, o di utilizzo/fruizione di b/s preesistenti per migliorarne performance e qualità. Il design gioca un ruolo fondamentali: si traducono in una innovazione di prodotto solo quei cambiamenti di design che comportano un mutamento significativo nelle caratteristiche funzionali e di utilizzo di un certo prodotto (negli altri casi innovazione di marketing). Innovazione di processo: introduzione di nuovi o significativamente migliorati metodi di produzione o distribuzione (vari aspetti logistici dell’impresa). Generalmente si associa ad una riduzione dei costi medi unitari di produzione/distribuzione, oppure può comportare un aumento qualitativo dell’output finale, o anche essere il prerequisito necessario per la produzione o distribuzione di nuovi, o significativamente migliorati beni o servizi. Innovazione organizzativa: introduzione di un nuovo, o significativamente migliorato metodo per l’organizzazione delle pratiche, routine e procedure che caratterizzano lo svolgimento dell’attività di impresa, oppure può riguardare l’organizzazione interna con riferimento alle modalità di suddivisione del lavoro, oppure riguardare anche le modalità di gestione delle relazione esterne con altri agenti economici ed istituzioni pubbliche. Generalmente sono finalizzate all’aumento della performance di impresa, tramite riduzione dei costi amministrativi e transattivi, aumento soddisfazione sull’ambiente di lavoro e quindi della produttività dei lavoratori. Innovazione di marketing: finalizzata alla implementazione di un nuovo metodo di marketing, o nuove strategie, nuovi concetti e strumenti che non siano stati utilizzati precedentemente dall’impressa. Obiettivo finale è aumento delle vendite, aumentando attrattività del prodotto, estendendo target o modificando le modalità di collocamento. Oggetto della nuova strategia può essere sia un nuovo prodotto o un prodotto già esistente. Mentre vengono esclusi da tale definizione i cambiamenti minori e non significativi, sono positivamente valutate anche le innovazioni che sono state implementate da altre imprese o mercati, e che successivamente sono state adottate dall’impresa. Il processo di diffusione è fondamentale importanza dal momento che l’impianto economico delle innovazioni dipende proprio dalla loro diffusione. Un prodotto, processo, metodo organizzativo o di marketing si dicono nuovi per il mercato quando l’impresa introduce per prima l’innovazione nel suo mercato, laddove il mercato è costituito dall’impresa e dai suoi competitors e può includere una linea di prodotto oppure un’area geografica. Il concetto di “nuovo per il mercato” rileva quando l’innovazione viene introdotta da un’impresa per la prima volta, rispetto a tutti i mercati ed a tutte le industrie, sia nazionali che internazionali. L’accento sul grado di novità ha fatto emergere nella letteratura la contrapposizione fra: • • Innovazione radicale: relativamente alla dimensione interna queste richiedono la riconfigurazione strutturale del bagaglio di risorse e competenze posseduto dall’impresa, per cui possono essere definite competencedestroying. Presentano un notevole cambiamento tecnologico ed hanno un significativo impatto sul mercato rendendo obsoleti i prodotti preesistenti. Determina una discontinuità tecnologica. Aspetto rilevante è il potenziale di miglioramento. Nell’arco di un certo intervallo temporale le tecnologie preesistenti saranno spiazzate dalle nuove, in grado di offrire performance significativamente superiori. Innovazione incrementale: relativamente alla dimensione interna queste poggiano su un preesistente sistema di risorse e conoscenza e pertanto possono essere definite competence-enhancing. Relativamente alla dimensione esterna, queste innovazioni si caratterizzano per un modesto avanzamento tecnologico e pertanto non rendono obsoleti e non competitivi i prodotti esistenti sul mercato. Avvantaggia le imprese preesistenti ma le rende particolarmente vulnerabili nei confronti dell’innovazione radicale, che può aprire una traiettoria tecnologica facilmente percorribile dalle imprese entranti. 48 Nei nuovi scenari apertisi con l’avvento delle ICT, nei quali l’impatto economico delle due tipologie di innovazione è risultato molto diverso da quello sopra descritto. Alcune imprese operanti sul mercato persero la loro leadership in favore di nuovi entranti anche a seguito di innovazioni incrementali, o viceversa altre imprese riuscirono a difendere la loro leadership anche a seguito dell’introduzione di innovazioni radicali (es. IBM). Il superamento della contrapposizione tradizionale ha aperto la strada ad una classificazione più ampia e completa: • • • Henderson e Clark propongono una classificazione delle varie tipologie di innovazione sulla base dell’impatto di quest’ultima sulle competenze coinvolte nella realizzazione di un certo prodotto. In particolare, vengono individuati due tipi fondamentali di competenze richieste per sviluppare ed introdurre innovazioni: conoscenze alla base dei componenti e conoscenze alla base dei legami tra componenti. Sulla base di queste due conoscenze è possibile individuare quattro tipologie fondamentali di innovazione: 1) innovazioni incrementali: hanno scarso impatto sia sulle conoscenze dei componenti di un prodotto sia su quelle architetturali. 2) innovazioni modulari: comportano cambiamenti significativi delle conoscenze alla base dei componenti, mantenendo sostanzialmente inalterate le conoscenze architetturali. 3) innovazioni architetturali: esercitano il loro impatto sulle conoscenze relative ai legami dei componenti, ma non coinvolgono le conoscenze alla base dei componenti. 4) innovazioni radicali: poggiano su un nuovo set di conoscenze, sia alla base dei componenti che architetturali. Abernathy e Clark propongono invece una classificazione che si basa sull’impatto dell’innovazione su due tipologie di competenze, ritenute fondamentali per il successo di una innovazione: 1) competenze tecniche: indispensabili per lo sviluppo e l’implementazione di una certa innovazione, ma affinché si possa proporre al meglio la novità sul mercato e beneficiare economicamente delle innovazioni introdotte è necessario avere anche competenze commerciali. 2) competenze commerciali: potrebbero spiegare, se elevate, il mantenimento della leadership anche a seguito dell’introduzione, nello stesso mercato, di una innovazione radicale. Sulla base di tali considerazioni i due studiosi distinguono 4 fondamentali tipologie di innovazioni: innovazioni creatrici di nicchia (preservano le conoscenze tecnologiche e rendono obsolete quelle di mercato), innovazioni rivoluzionarie (rendono obsolete le conoscenze tecniche e preservano quelle di mercato); innovazioni regolari (preservano entrambe le conoscenze); innovazioni architetturali (rendono obsolete entrambe le tipologie di competenze). Christensen introduce invece il concetto di disruptive technologies, innovazioni che risultano essere la causa principale della perdita della leadership di alcune imprese operanti nel mercato. Tale criterio di classificazione non si basa né sulla complessità tecnologica né sulle competenze richieste, ma fa riferimento alla domanda dei consumatori: questo tipo di tecnologie presenta dei livelli di performance inferiori rispetto alle funzionalità richieste dai consumatori tradizionali, ma superiori con riferimento a dimensioni secondarie valutate da nicchie di consumatori correnti, o futuri potenziali. Inoltre i prodotti che incorporano le tecnologie disruptive generalmente costano meno. È possibile individuare tecnologie: 1) disruptive low-end: indirizzate ai segmenti bassi del mercato e a quei consumatori che prestano molta attenzone al prezzo accontentandosi di livelli medi di prestazioni; 2) disruptive new-market: finalizzate all’apertura di un nuovo mercato. Dato che tali tecnologie non sono volte a soddisfare le esigenze della quota maggioritaria dei consumatori correnti, vengono spesso sottovalutate dalle incumbents che preferiscono investire in tecnologie volte a migliorare prodotti preesistenti e a soddisfare le esigenze dei consumatori tradizionali. La situazione diventa pericolosa per l’incumbent quando la nuova tecnologia presenta un rapido tasso di miglioramento delle performance considerate rilevanti dai consumatori principali. In questo caso, quando la nuova tecnologia supera la performance della tecnologia consolidata, le imprese operanti vedono minata la loro sopravvivenza sul mercato. L’attività di innovazione rappresenta un’efficace strategia competitiva per le imprese produttrici ed è solitamente associata ad un incremento nel benessere dei consumatori. Bisogna però considerare che l’innovazione si sostanzia in un processo economico che presenta alcune criticità, per quanto indubbiamente desiderabile. Infatti esso, in una prima fase, richiede una fase iniziale in cui principi o idee di prodotto vengono sviluppate in prototipi (fase 49 dell’invenzione), la quale richiede investimenti in attività di ricerca rischiosi in quanto sono incerti gli esiti della stessa. La fase successiva dell’innovazione richiede un’ulteriore attività di sviluppo che, insieme ad iniziative di marketing, può decretare il successo del lancio commerciale del nuovo prodotto. Se l’innovazione è significativa e ha successo, essa si diffonde con effetti positivi sul benessere dei consumatori e sulla crescita del sistema economico. In questa terza fase del processo di progresso tecnologico, diffusione, sono soprattutto i competitors a giocare un ruolo fondamentale. Il prodotto dell’attività di invenzione e di innovazione infatti presenta alcune delle proprietà che definiscono un bene pubblico: una volta disponibile, può essere riprodotto ad un costo molto basso e non è facile impedire alle imprese concorrenti di beneficiarne (inappropriabilità e indivisibilità). Queste due caratteristiche e i costi elevati associati all’attività di ricerca giustificano comportamenti di free-riding e di opportunismo che possono costituire un disincentivo all’attività di innovazione. L’introduzione di brevetti e licenze d’uso mira a risolvere questo problema attraverso il riconoscimento del diritto legale di proprietà sui benefici economici riconducibili a detti prodotti. L’esigenza di creare le condizioni più favorevoli al progresso tecnologico e agli investimenti è al centro del dibattito sulla definizione di politiche industriali volte a garantire la crescita di sistemi economici avanzati. àStruttura di mercato e innovazione di prodotto Il problema cruciale nello studio dei processi di innovazione è quello di valutare l’influenza che strutture di mercato monopolistiche o concorrenziali hanno sull’attività di innovazione: obiettivo è quindi quello di definire quale contesto competitivo offra gli incentivi maggiori alla attività di innovazione. L’analisi classica sulla teoria dell’innovazione – Arrow 1962 – individua nella concorrenza la forma di mercato in cui gli incentivi all’innovazione sono più forti. Se infatti l’impresa opera inizialmente in un contesto competitivo avrà un incentivo maggiore ad introdurre una innovazione di processo che consente una riduzione dei costi rispetto ad una impresa monopolistica. Demsetz critica le conclusioni di Arrow. Ipotizzando un inventore esterno che applica una royalty per unità di prodotto sia alle imprese in concorrenza che a quella in monopolio, il maggior incentivo riscontrabile nella prima forma di mercato è determinato dalla restrizione dell’output tipica del monopolio. La differenza fra concorrenza e monopolio scompare se si assumono imprese di uguali dimensioni, ovvero nell’ipotesi che l’impresa in concorrenza produca lo stesso output di quella in monopolio. L’incentivo all’innovazione offerto dal monopolio è maggiore se si ipotizza che l’inventore non è vincolato ad applicare la stessa royalty per unità di prodotto nelle due industrie. La contrapposizione fra concorrenza e monopolio è ricomposta nella visione schumpeteriana della distruzione creativa. Nelle tesi di Schumpeter infatti prevale l’argomentazione che la grande dimensione offre di per se stessa incentivi maggiori all’innovazione tecnologica: le grandi imprese hanno risorse maggiori da destinare all’attività di ricerca, una piccola impresa ha bisogno di finanziamenti per intraprendere il progetto di sviluppo, risorse difficili da reperire se il mercato dei capitali non funziona perfettamente. L’analisi di Schumpeter non conduce al classico tradeoff concorrenza-monopolio. Essa piuttosto implica una visione dinamica che lascia spazio nel breve periodo a forme di potere monopolistico: l’effetto benefico della concorrenza deriva non dalla concorrenza di imprese esistenti ma, piuttosto, dalla concorrenza potenziale che nuovi prodotti o nuovi processi possono portare nel mercato distruggendo la posizione acquisita dal monopolista. àDifferenziazione e il potere di mercato Nell’analizzare i diversi fattori che possono determinare la differenziazione di prodotti sono state evidenziate le implicazioni in termini di poteri di mercato e concorrenza. Detta relazione è esemplificata attraverso la formalizzazione di un modello di differenziazione orizzontale nel quale i prodotti, pur essendo perfetti sostituti dal punto di vista qualitativo, si differenziano per l’elemento spaziale e la localizzazione geografica dell’offerta rispetto al luogo di domanda e consumo. La situazione rappresentata può essere generalizzata a tutte quelle in cui venditori e compratori sono fisicamente separati e un costo di trasporto deve essere pagato dall’acquirente per comprare da uno specifico venditore. Nello stesso modo può essere esteso ad includere i casi frequenti in cui due prodotti si differenziano per alcune caratteristiche valutate in modo differente da ciascun consumatore. Il modello di Hotelling (1929) offre una soluzione al problema sopra definito. I venditori cercheranno, in una sorta di gioco ripetuto, di posizionarsi l’uno alla destra dell’atro al fine di sottrarre al concorrente un numero maggiore di consumatori. Questo gioco raggiunge un punto di equilibrio quando entrambi si collocano esattamente nel punto centrale della spiaggia. Il problema decisionale dei due venditori può essere formulato anche come la scelta della politica di prezzo ipotizzando che la localizzazione sia esogenamente fissata. 50 Capitolo 10 La diversificazione Con il termine diversificazione si intende il processo per cui un’impresa caratterizzata da un particolare tipo di attività produttiva avvia attività economiche diverse da quelle tradizionali, pur mantenendo la propria presenza nell’ambito originale. Il punto di arrivo è un’impresa diversificata, e se ciò comprende numerose attività il termine con il quale viene definita l’impresa con tali caratteristiche è impresa conglomerata o conglomerale. Lo strumento di tale processo può essere costituito da: - acquisitions: acquisizioni di altre imprese; - puro e semplice sviluppo di nuove attività; - mergers: fusioni. Il processo di diversificazione può essere orizzontale (relativo a mercati contigui al mercato originario dell’impresa), verticale (se avviene in settori che si trovano a valle o a monte del settore originario) oppure conglomerale (se riguarda attività non connesse fra loro). L’applicazione del concetto di diversificazione dipende naturalmente in larga misura da come viene definita la diversità. Il concetto di mercato rilevante nei fatti è relativamente flessibile, non esistendo una misura rigidamente stabilita entro la quale i valori delle elasticità incrociate dell’offerta e della domanda definiscono un singolo mercato rilevante. La misurazione della diversificazione si fonda sui concetti di attività prevalente, e di grado diversificazione. La formula più semplice consiste nell’assumere come criterio l’entità del fatturato. Il grado della diversificazione può essere misurato secondo due tipologie: • • La prima utilizzata dal Census of Manifactures degli USA, rapporta le attività secondarie all’attività totale. Questa misura ripropone gli stessi pregi e gli stessi difetti dell’indice di concentrazione C. Indice HH, costituito dalla somma di valori elevati al quadrato delle attività dell’impresa stessa in luogo delle quote di mercato delle varie imprese. L’indice HH assume il valore i 1 quando l’impresa non è diversificata, e il valore di 1/n in caso in cui le n attività siano tutte della stessa dimensione. Le cause che possono spiegare i processi di diversificazione sono teoricamente distinguibili in quattro principali categorie come segue: a) Vantaggi nei costi di produzione: una delle giustificazioni che viene più frequentemente proposta per le operazioni di fusione e di diversificazioni è basata sui risparmi di costi che si possono ottenere per mezzo della ripartizione di costi indivisibili su una più ampia gamma di prodotti. La diversificazione motivata dalla presenza di fattori indivisibili non va ovviamente confusa con il fenomeno delle economie di scala, cioè della diminuzione dei costi unitari di produzione all’aumentare del volume del prodotto. Il fattore indivisibile può anche essere rappresentato da un bene immateriale come la “marca”. b) Vantaggi nei prezzi di vendita: questione circa l’effettiva possibilità di ottenere vantaggi nei prezzi di vendita mediante la diversificazione è un argomento da una parte simmetrico alle osservazioni svolte nel caso delle differenziazione dei prodotti, e consiste nel fatto che mediante la diversificazione/differenziazione sia possibile segmentare la domanda del mercato, e quindi sfruttare le differenti elasticità dei segmenti della curva con prezzi differenziati. Per altro verso i vantaggi che deriverebbero dalla diversificazione dei prodotti dipendono dall’utilizzo di due tecniche di vendita: -) trying sales (full line forcing): quando un venditore, verosimilmente monopolista, condiziona la vendita di quel prodotto all’acquisto contemporaneo di un altro prodotto. Tale pratica è vietata dalla legislazione antitrust (trattato di Nizza), anche se si possono avanzare dubbi sul fatto che tali pratiche determino semplicemente un trasferimento di profitti all’interno del gruppo diversificato. Ad esserne danneggiati sono i concorrenti minori, che si vedono sottrarre una parte della domanda potenziale non potendo contrapporre una offerta differenziata. -) bundling sales: tecnica che consiste nell’offrire un certo numero di prodotti diversi ad un unico prezzo. Mira a trasferire una parte della rendita che si formerebbe per i consumatori. La diversificazione, sotto il profilo delle condotte di prezzo può consentire i sussidi intergruppo, ovvero l’estensione di una posizione dominante da un settore all’altro. c) Strategie di sviluppo dell’impresa: uno dei più tipici motivi che spingono l’impresa ad avviare processi di diversificazione quando la generazione di risorse prodotte dall’attività tradizionale supera le esigenze 51 dell’impresa stessa per mantenere la propria competitività nel settore di origine. Assumendo che la domanda del mercato attraversi cicli, e che quindi si susseguano le fasi di introduzione, crescita, maturità e declino, ed inoltre assumendo che la quota di mercato sia indice di potere di mercato e quindi di profittabilità, si può costruire una matrice, definita matrice BCG, nella quale l’asse delle ascisse corrisponde alle quote di mercato detenute da una specifica impresa per un dato prodotto, mentre quello delle ordinate è relativo al tasso di crescita delle vendite di quel dato prodotto. La matrice può essere scomposta in quattro quadranti, corrispondenti a quattro diverse combinazioni potere di mercato/crescita: 1) cash cows: prodotti che hanno buona profittabilità e bassi tassi di crescita. Generazione di risorse di questi prodotti dovrebbe superare le esigenze di crescita e quindi liberare delle disponibilità per il management; 2) stars: prodotti a maggiore redditività e crescita; 3) question marks: prodotti su cui puntare per lo sviluppo; 4) dogs: prodotti da eliminare. Questo semplice schema riassume alcuni criteri delle strategie delle imprese, soprattutto quello secondo cui un’impresa, sia pure di successo, che non investe in nuove produzioni e mercati è destinata al declino e all’eliminazione. La strategia delle imprese che porta alla diversificazione consiste in un continuo processo di selezione fra il mix dei prodotti esistenti e lo sviluppo di nuovi prodotti. Occorre sempre ricordare che il confine fra differenziazione e diversificazione nel campo dello sviluppo delle imprese non è certo, ed inoltre spesso ciò che all’esterno appare una diversificazione all’interno può essere considerato una differenziazione dei prodotti volta a segmentare il mercato. d) Aspetti finanziari: sotto questo profilo la diversificazione di una impresa o di un gruppo solleva rilevanti questioni riguardanti: -) valore del capitale economico (capitalizzazione), espresso dalle quotazioni delle aziende nel medio lungo periodo; -) costo del capitale di rischio, 𝑘6 , cioè il rendimento richiesto dal mercato per le azioni di una particolare impresa; -) crescita, stabilità del gruppo e adeguatezza delle risorse finanziarie. I primi due aspetti possono essere considerati simultaneamente, dato che il valore delle azioni è dato semplicemente dal rapporto fra risultato atteso e saggio di rendimento richiesto dal mercato, che coincide con il costo del capitale proprio per una impresa. Per risultato atteso si intende l’istante dei risultati che verosimilmente possono determinarsi, ciascuno dei quali ha una data probabilità la cui somma è uguale ad 1. Per comodità di trattamento si assume che la distribuzione probabilistica dei risultati sia di tipo normale o gaussiana. Ciascuna distribuzione probabilistica è caratterizzata quindi da due tipici parametri: ` ): dato il tipo di distribuzione, è ance il parametro più probabile 1) media ( 𝑹 ! 𝑅P = * 𝑅" 𝑝" $ dove R con i rappresenta i risultati possibili e p con i le relative probabilità. 2) deviazione standard che misura la dispersione dei risultati possibili attorno al risultato medio: ! 𝜎 = b*(𝑅" − 𝑅P) / ∗ 𝑝" $ Dove sigma rappresenta la misura del rischio connesso ad una specifica impresa. La teoria finanziaria assume che il mercato sia in prevalenza costituito da operatori avversi al rischio: a parità di rendimento atteso, essi assegnano all’attività più rischiosa un valore inferiore e quindi il costo del capitale per le imprese caratterizzate da un più elevato valore di sigma risulterà più alto. Un obiettivo del processo di diversificazione può consistere nel compensare il fattore di rischio di una industria con quello di un’altra industria, così da ottenere una covarianza inferiore alla varianza delle singole attività industriali. In questo caso, risultando diminuito il rischio complessivo di un’impresa, dovrebbe simmetricamente diminuire il costo del capitale, e aumentare il valore delle azioni e dunque dell’impresa nel suo complesso. In realtà i mercati azionari dimostrano di non apprezzare quasi mai il fatto che una impresa ne sostituisca le 52 funzioni per la diversificazione del rischio. È ovvio che ogni singolo investitore può selezionare i propri investimenti fra attività con diverse combinazioni di redditività\rischio per ottenere un portafoglio più congeniali alle proprie preferenze, di quanto potrebbe comunque fare una impresa tramite un processo di diversificazione condotto al proprio interno. La diversificazione può concorrere all’obiettivo della stabilità dell’impresa, tramite il fenomeno della covarianza, ma ciò normalmente avviene ad un costo che è rappresentato dal maggior rendimento richiesto dal mercato. Se i mezzi sono limitati all’eccesso di risorse proprie rispetto alle necessità di impiego, valgono le considerazioni svolte in precedenza. 53 Capitolo 11 L’integrazione verticale Integrazione verticale può essere definita secondo due diverse prospettive: • • SCP: il termine integrazione verticale è uno degli elementi della struttura industriale e indica la misura in cui una singola impresa realizza al suo interno fasi successive di produzione e distribuzione di un prodotto. Strategica: il termine si riferisce alla strategia di una impresa che decide di muoversi verso un’altra fase del processo produttivo o distributivo, sia tramite una fusione o acquisizione, sia avviando nuove attività. Quando le fasi internalizzate riguardano la produzione o la prima produzione o la trasformazione delle materie prime o di altri input, si realizza una integrazione a monte; quando invece lo stesso processo riguarda fasi della produzione finale o della distribuzione, si realizza una integrazione a valle. Tutti i processi produttivi possono essere scomposti in un numero finito di fasi distinte ed elementari. Tra i numerosi esempi, si possono portare i casi dell’impresa di trasporto aereo o le aziende di raffinazione del petrolio. L’integrazione verticale può essere anche considerata un caso specifico di diversificazione che avviene in un unico processo produttivo. Per comprendere l’ampiezza dell’integrazione verticale, osservata secondo la prospettiva strutturale, è utile contrapporla alla specializzazione; una impresa è specializzata quando svolge una singola fase del processo produttivo. La specializzazione pure è comunque un concetto relativo, poiché quasi tutte le imprese svolgono più attività che potrebbero, almeno in teoria, essere svolte da singole imprese specializzate (es. funzioni separate come contabilità e finanza). In quest’ottica, ben poche imprese sono completamente specializzate. L’integrazione verticale ha dunque una dimensione quantitativa e può riguardare tutte o alcune fasi di una filiera produttiva, che include l’insieme delle fasi che vanno dalla produzione e lavorazione della materia prima alla commercializzazione del prodotto, configurandosi casi di completa o di parziale integrazione che possono essere misurati da opportuni indici; a tal proposito Adelman ha suggerito il rapporto fra sommatoria del valore aggiunto (VA) e sommatoria delle vendite (S): 𝐶𝑣𝑖 = ∑!"#$ 𝑉𝐴 e∑! 𝑆 "#$ Quanto più un’impresa è integrata, tanto più alto è il valore dell’indiche che, nel caso limite di completa integrazione, quando numeratore e denominatore sono uguali, assume il valore 1. Al contrario l’indice assume valori tanto più piccoli quanto meno sono integrate le attività e più numerose sono le transazioni fra le imprese. Questa misura presenta alcune limitazioni, dato che l’indice fornisce differenti risultati a seconda dello stadio in corrispondenza del quale viene misurata l’integrazione. Esso è più un indicatore dello stadio di produzione o distribuzione che della concentrazione, e non può essere utilizzato per confrontare l’integrazione fra le imprese in differenti stadi di produzione. Un’altra famiglia di indici è quella che utilizza le tavole input-output, dalle quali si può desumere quanto un settore dipende dal mercato, ossia da altri settori produttori degli input e dei beni e servizi intermedi attraverso degli indici che misurano l’incidenza dei settori di origine sui settori di destinazione. I limiti di queste misure discendono tutti dal grado di aggregazione geografica e settoriale delle matrici intersettoriali. Se gli indici sono espressi in termini monetari, i prezzi di trasferimento tra i vari stadi del processo produttivo possono divergere dai prezzi di mercato generando alcune incertezze. àCause ed obiettivi dei processi di verticalizzazione L’integrazione verticale si verifica per le stesse cause per le quali esistono le imprese. Se in una prospettiva dinamica si distinguono due filoni (il primo considera le scelte delle imprese in materia di integrazione verticale come una modalità per acquisire potere di mercato, il secondo di natura evolutiva che pone sugli aspetti dinamici dell’integrazione verticale), in una prospettiva statica, opposta alla precedente, che non considera il cambiamento economico, tecnologico e istituzionale, si individuano almeno tre determinanti principali dell’integrazione verticale: a. Fattori tecnologici: alcuni processi produttivi sono caratterizzati da forti interdipendenze tecnologiche. Un esempio tipico riportato è quello dell’industria dell’acciaio e del ferro. I costi di trattamento e fusione sono ridotti se i processi sono condotti in continuo. Non solo l’integrazione permette di evitare la ripetizione di una operazione, ma consente anche il risparmio su una serie di materiali ausiliari per la conservazione ed il 54 b. trasporto del bene intermedio. Economie di tipo tecnologico spiegano perché la produzione del ferro e dell’acciaio venga tipicamente realizzata in un sono impianto, portando così all’integrazione in una sola impresa. Ci sono molti altri esempi di integrazione verticale dei processi produttivi dovute a complementarietà tecnologica, come ad esempio le economie di tipo termico. Oltre al caso dell’interdipendenza dei processi produttivi, rientrano nell’alveo delle spiegazioni tecnologiche anche quelle che interpretano l’integrazione verticale come un tentativo di sfruttamento economico delle tecnologie derivate nei settori a valle. Ad esempio, la Polaroid, decise di integrarsi a valle nel settore delle macchine fotografiche per sfruttare la sua tecnologia proprietaria nel campo delle lenti di precisione. Il patrimonio tecnologico dell’impresa si presta ad essere applicato a campi diversi da quelli in cui si è originariamente sviluppato. Le complementarità tecnologiche possono avere una natura statica o dinamica. Nel caso di settori caratterizzati da conoscenza stabile, con un tasso di innovazione sostenuto e apprendimento lento, le conoscenze sono spesso codificate in brevetti proprietari che possono essere utilmente sfruttati nelle fasi di distribuzione o di produzione. Nel caso invece di settori caratterizzati da forte dinamismo tecnologico, rapidità dei cambiamenti e natura tacita delle conoscenze incorporate nelle routine organizzative dell’impresa o nelle sue maestranze, rende difficili da coordinare sul mercato le diverse conoscenze richieste, spingendo quindi alla integrazione verticale. Economie di transazione: in questo campo, così come nelle altre teorie istituzionali che si pongono il problema dei confini dell’impresa, occupa un posto preminente l’aspetto della organizzazione imprenditoriale. Nella sua analisi classica dell’impresa Ronald Coase operò una distinzione fra coordinamento del mercato e coordinamento imprenditoriale dell’attività economica. Entrambe le forme di coordinamento delle transazioni si associano a costi: - nel primo caso di transazione: costi sostenuti per acquisire e trattare l’informazione sulla qualità degli input, sui prezzi, sulla reputazione del fornitore. - secondo caso di organizzazione: generati da rendimenti decrescenti della funzione organizzativa e la crescente possibilità di errori nella gestione se più attività vengono intraprese. La struttura organizzativa o l’istituzione impresa nasce per economizzare sui costi di transazione quando: 1) utilizzo del meccanismo dei prezzi risulta troppo oneroso ed è conveniente internalizzare le transazioni che in precedenza erano svolte sul mercato (caso di fallimento del mercato). 2) il ricorso ad una molteplicità di contratti completi comporta costi di negoziazione più elevati di quelli connessi ad un unico contratto incompleto. In base alla formulazione di Coase, l’impresa intraprenderà direttamente delle nuove attività fino al punto in cui i costi di coordinamento interno dell’ultima attività da internalizzare uguagliano i costi del coordinamento del mercato. Il mercaot evidenzierà un grado di equilibrio dell’integrazione verticale, in condizioni concorrenziali, che darà luogo alla più efficiente organizzazione della produzione e della distribuzione. L’approccio di Coase è stato poi ripreso e sviluppato da Williamson che considerò in dettaglio i fattori che influenzano i costi di transazione e spiegano quindi l’integrazione verticale. In contrasto con le assunzioni economiche standard, Williamson fa l’ipotesi che gli attori economici agiscano in condizioni di razionalità limitata e opportunisticamente, traendo cioè profitto dalle opportunità vantaggiose che si presentano. Queste ipotesi comportamentali vengono nel suo schema combinate con le dimensioni di incertezza, di frequenza delle relazioni e di relazioni di scambio tra un numero limitato di soggetti, per determinare in quali casi è conveniente sostituire il coordinamento del mercato con l’organizzazione interna all’impresa e quindi ricorrere all’integrazione verticale. In generale, le conclusioni di Williamson sono che, l’organizzazione interna consente di economizzare sui costi connessi alla razionalità umana in tutti quei casi in cui il sistema dei prezzi non offre una informazione sufficiente e l’incertezza è sostanziale. Alla stessa stregua, l’organizzazione interna consente di economizzare sui costi determinati dall’opportunismo dei contraenti e dal fatto che via via un contratto viene rinnovato, diminuisce il numero delle parti che effettivamente vi partecipano. La teoria di Williamson si discosta dall’approccio SCP in quanto studia l’organizzazione interna dell’impresa e descrive l’ambienta in cui opera in termini di distribuzione dei costi di transazione anziché in termini di struttura di mercato. Scendendo nel dettaglio, le situazioni che inducono alla integrazione verticale possono essere esemplificate in quattro fattispecie: 1) specificità dei beni capitali: un bene capitale specifico (es. macchinario) vene realizzato su misura per uno o 55 c. alcuni acquirenti particolari e non potrebbe essere utilizzato per servire il ciclo produttivo di un altro acquirente. In questo caso il fornitore dipende completamente dal suo acquirente e in caso di contrasti su condizioni contrattuali o di difficoltà economico-finanziaria, potrebbe rischiare di uscire anch’egli dal mercato. Per alcune fasce di fornitura del settore automobilistico si sono verificati molti di questi casi. In questi casi è conveniente ricorrere all’integrazione verticale, oppure alla sola integrazione verticale parziale. La specificità può riguardare però anche il capitale umano e può spiegare la maggiore preferenza per contratti di lavoro piuttosto che di consulenza. La specificità di una risorsa va valutata anche con riferimento alla frequenza delle transazioni. La frequenza è riferita al numero di scambi in cui viene effettuata la transazione. Si può distinguere fra transazioni con frequenza occasionale o ricorrente. Sulla combinazione degli aspetti di frequenza e specificità, è possibile osservare in generale che all’aumentare delle risorse materiali ed umane richieste da un certo investimento, aumentano i costi di transizione, mentre tendono a diminuire con l’aumentare della frequenza delle transizioni. Si farà ricorso all’integrazione verticale in caso di elevata specificità delle risorse e di transazioni ricorrenti. 2) incertezza: il ricorso al mercato è contraddistinto da numerosi fattori di incertezza e di rischio che possono riguardare ritardi o interruzioni nelle consegne agli stabilimenti, o nelle consegne ai mercati di sbocco, mancato rispetto dei termini di consegna. L’incertezza è anche uno dei più rilevanti casi di imperfezione del mercato. Per premunirsi contro i rischi sopra indicati, le imprese aumentano il livello delle scorte, ma ciò può portare ad un incremento delle immobilizzazioni non compatibile o capace di pregiudicare l’equilibrio finanziario dell’impresa. L’integrazione con i propri produttori di materie prime permette di contenere il livello delle scorte. Nel caso di una impresa che si occupa delle varie fasi di produzione, il livello di scorte permanenti o di sicurezza sarà senz’altro minore, perché minore è il rischio di ritardi o interruzioni di fornitura quindi minori sono i costi di produzione. Gli esempi di questi casi sono molto frequenti soprattutto nei settori che operano nel mercato delle materie prime scambiate sui mercati internazionali soggette a rilevanti fluttuazioni nei prezzi e nelle quantità immesse (es. gas e petrolio). I prodotti finiti o i semilavorati possono contenere percentuali di prodotti difettosi superiori alle soglie di tolleranza o essere mediamente di qualità inferiore a quella richiesta, rischiando di danneggiare il processo produttivo del produttore o di pregiudicare la sua reputazione. Una impresa integrata può facilmente controllare che le forniture corrispondano alle specifiche tecniche e agli standard qualitativi richiesti. 3) compressione o blocco informativo: può essere difficile stipulare il contratto che dà all’impresa fornitrice gli incentivi adeguati per raccogliere le informazioni. Possono pertanto sorgere controversie sui pagamenti difficili da risolvere. 4) coordinamento estensivo: integrazione facilita un coordinamento ampio, come accade nelle industrie dotate di reti (compagnie aeree e ferrovie). Una ferrovia ad esempio ha una domanda di traffico sulle linee principali che molto dipende dallo sviluppo del traffico sulle linee secondarie. Anche se potrebbe essere possibile elaborare un sistema di prezzi per ogni collegamento della rete ferroviaria, tale sistema potrebbe essere molto complicato. Quindi le società ferroviarie hanno un incentivo a fondersi per risolvere in modo semplice questi problemi di coordinamento. Imperfezioni di mercato: comprendono tutti quei casi in cui i beni vengono venduti a prezzi non competitivi o non vengono prodotti affatto. Per molti prodotti di recente introduzione il mercato a monte dei componenti, i macchinari e le attrezzature per produrli, non sono abbastanza sviluppati e possono portare a prezzi molto elevati. La minaccia di sostituirsi al fornitore o al distributore può essere un mezzo efficace per costringerli ad offrire condizioni migliori. Situazioni di prezzi non competitivi si possono sviluppare anche in conseguenza di fluttuazioni dei prezzi. Tra le spiegazioni che chiamano in causa le imperfezioni di mercato, l’incertezza è uno dei fattori maggiormente citati. Diversi autori hanno ipotizzato l’esistenza di incertezza nei mercati concorrenziali e in altre forme di mercato che possono essere ugualmente considerate ai fini dell’analisi dell’integrazione verticale. Il caso delle imperfezioni di mercato e dell’incertezza come causa dell’integrazione verticale è già ricompreso nella teoria dei costi di transazione. Si fa qui cenno a quei modelli che permettono di trarre ulteriori implicazioni. Arrow discute il caso di asimmetrie di informazione tra i produttori a monte e a valle che generano un incentivo all’integrazione verticale. Nell’analisi di Arrow, le imprese a valle hanno informazioni limitate sul prezzo delle materie prime e questo limita la capacità di prendere decisioni efficienti. 56 Uno dei motivi comuni che porta all’integrazione verticale è quello di garantirsi la fornitura di fattori di produzione importanti. Carlton presenta un modello valido per quei mercati in cui il prezzo non è il solo strumento utilizzato per allocare i beni e sono possibili fenomeni di razionamento della domanda. Quando il razionamento è possibile, si crea un incentivo all’integrazione verticale per aumentare la probabilità di ottenere per tempo il prodotto. L’impresa potrebbe produrre i propri input per soddisfare il livello prevedibile di domanda e far affidamento sui fornitori per la domanda meno stabile. In questa situazione però i fornitori reagiranno in maniera opportunistica, aumentando i prezzi quando l’impresa ordina gli input a causa di un aumento non previsto di domanda da parte del suo mercato di sbocco. Di qui l’incentivo ad integrarsi. In una prospettiva dinamica si distinguono due filoni, che presentano una connotazione deterministica: a. b. Motivazioni strategiche e restrizioni della concorrenza: gli incentivi monopolistici alla integrazione verticale hanno rappresentato una area di recente attività di ricerca. Già Bain segnalava che l’integrazione verticale è interpretabile, quando non spiegata da economie legate a complementarità tecnologiche, in termini di barriera all’entrata. Infatti, l’integrazione a monte o a valle ottiene il risultato immediato di eliminare uno o più concorrenti potenziali per i mercati nei quali già si operi e aumenta i requisiti di fabbisogno di capitale iniziale per i potenziali entranti. L’interpretazione è affine a quella che vede l’integrazione come una forma di comportamento strategico, con il fine ultimo di escludere dal mercato gli avversari non integrati, elevandone i costi. A volte l’integrazione verticale viene realizzata anche per aggirare normative di regolamentazione e antitrust o per evitare controlli su prezzi e tasse. Occorre aggiungere inoltre che i diversi modelli che rientrano nella categoria delle spiegazioni monopolistiche o comunque riconducibili alla difesa o alla conquista di potere di mercato si affiancano e vanno considerati congiuntamente a quelli sulle restrizioni verticali. Quest’ultime sono oggetto di attenzione da parte dell’autorità antitrust nei mercati in cui esiste potere di mercato. In alcune circostanze esse possono portare all’aumento del potere di mercato delle imprese che vi ricorrono. Possono essere usate come strumento di collusione o per escludere i rivali dal mercato le restrizioni verticali come il prezzo imposto o la clausola di esclusiva. Le restrizioni verticali più diffuse sono: -) franchising: produttore vende i diritti di esclusiva, normalmente coperti da un marchio, al distributore dietro il pagamento di un canone di concessione. Oggetto del contratto sono in genere una o più licenze di diritti di proprietà intellettuale, assistenza tecnica e commerciale. Tali accordi permettono al proprietario di ali diritti di sfruttare e difendere la propria reputazione. -) prezzo imposto: pratica in base alla quale il produttore impone un prezzo minimo ai rivenditori. Questi accordi creano un incentivo ai venditori al dettaglio a concentrare l’attenzione su variabili diverse dal prezzo. Se il prezzo imposto lascia un margine al distributore, questa differenza può essere utilizzata per impedire la competizione a valle quando questa distruggerebbe l’incentivo dei rivenditori a investire per fornire servizi di vendita e investimenti promozionali che aumentano la domanda. Normalmente è considerato illegale, mentre sono ammessi i prezzi consigliati. -) accordi per le vendite in esclusiva: nascono dall’esigenza dei produttori di evitare che dai propri investimenti traggano beneficio i rivenditori, se questi vendono anche prodotti dai concorrenti. Le clausole di esclusiva risolvono queste esternalità tra produttori. Tuttavia queste possono anche causare l’uscita dei concorrenti dal mercato e per tale ragione sono perseguite dalle autorità antitrust. -) pratica delle vendite abbinate: copre diverse tipologie di vendita in cui due o più beni sono venduti congiuntamente e non si riferisce necessariamente a prodotti collocati in fasi consecutive di uno stesso processo o filiera produttiva. Alcuni casi di tying e bundling sono stati già esaminati. Modelli dinamici: il grado di integrazione verticale di una industria può variare nel tempo in funzione della fase del ciclo di vita che lo stesso settore si trova ad attraversare. È questo l’approccio di Stigler, che formula un modello in termini dinamici sulla base del teorema smithiano per il quale “la divisione del lavoro è limitata dall’ampiezza del mercato”. In una prima fase di crescita del settore le imprese tendono a svolgere internamente tutte le attività intermedie e complementari connesse con la produzione dell’output finale, in quanto il mercato dei prodotti intermedi è limitato dallo sviluppo ancora modesto dell’industria di sbocco. Nonostante vi siano rendimenti crescenti, a un’impresa non conviene specializzarsi in quanto incorrerebbe in 57 rilevanti costi fissi che non potrebbero distribuirsi su un output elevato. Dato un mercato sufficientemente ampio, le attività con tali diverse relazioni costo-scala possono essere esternalizzate a produttori specializzati. Nei primi e negli ultimi stadi dello sviluppo di una industria, secondo Stigler, il mercato può essere troppo piccolo per supportare i produttori indipendenti, ed in questo caso l’integrazione diviene una scelta obbligata alle imprese dell’industria. Quando l’industria si espande, le imprese tenderanno a disintegrarsi verticalmente specializzandosi nella loro attività core e a rivolgere a uno sviluppato mercato dei prodotti intermedi. A mano a mano che una industria si sviluppa e raggiunge la fase di maturità, si sviluppano nuovi prodotti che riducono gran parte della domanda del prodotto originale, perciò il settore si riduce, di conseguenza le imprese si integrano di nuovo verticalmente. A conclusioni simili a quelle di Stigler, con premesse e finalità diverse, arriva anche il modello della concorrenza dinamica di Steindl; il modello di Stigler è stato criticato da diversi autori, da Adelman a Williamson , che osservava che tale modello prende in considerazione solo i costi di produzione trascurando quelli di transazione. 58 Capitolo 12 I casi della concorrenza. I mercati contendibili. I casi del monopolio. Il Monopsonio La concorrenza monopolistica Le determinanti della struttura di una industria sono classificate qui in diverse ipotesi di forme di mercato. Obiettivo è valutare, in maniera coerente al paradigma SCP, le condotte degli operatori e gli effetti in termini di performance ad esse conseguenti. La concorrenza perfetta e il monopolio rappresentano due modelli di riferimento nell’analisi dei mercati reali. àI casi della concorrenza. Equilibrio di breve e lungo periodo Il modello della concorrenza perfetta si basa su cinque ipotesi principali: 1. 2. 3. 4. 5. Struttura del mercato atomistica: imprese sono numerosissime e ciascuna ricopre una quota di mercato così piccola che la sua condotta non ha alcun impatto significativo sulle altre e sul mercato. Omogeneità del prodotto: prodotti offerti sono perfetti sostituti e quindi ciascun consumatore è indifferente ad acquistare da una impresa piuttosto che da un’altra, a parità di prezzo. Informazione perfetta: conoscenza perfetta circa prezzi, qualità e caratteristiche tecnologiche del prodotto. Libertà di accesso e di uscita dal mercato e completa mobilità dei fattori di produzione: le imprese possono entrare e uscire senza incorrere in costi rilevanti; i fattori produttivi possono spostarsi senza costo da un mercato ad un altro e le materie prime e le altre risorse di produzione non sono controllate da pochi operatori. Price taking: ciascuna impresa considera come dato il prezzo di mercato, dato che fissando un prezzo maggiore a quello applicato dalle altre perde l’intera quota di mercato. Se invece fissa un prezzo inferiore, acquista l’intera domanda di mercato a fronte di una capacità produttiva considerata costante nel periodo di mercato. L’impresa quindi individua il livello di produzione ottimale considerando una curva di domanda individuale perfettamente orizzontale. Lungo questa curva, il prezzo eguaglia il costo marginale ( p = MR). Considerato che l’impresa sceglie il suo livello di produzione ottimale nel punto in cui MR=MC, si deriva la regola ottimale sulla base della quale in concorrenza il prezzo eguaglia il costo marginale. Tali ipotesi richiedono a loro volta alcune condizioni corollario, le più importanti delle quali sono: • • • Perfetta divisibilità della produzione: condizione legata alla tecnologia di produzione, ed implica che la singola impresa possa produrre e il singolo consumatore possa acquistare una singola unità o una frazione sufficientemente piccola di produzione. Assenza di esternalità: garantisce che ogni impresa sostenga tutti i costi associati alla sua attività di produzione e non abbia la possibilità di passare parte di essi su altri operatori del mercato. Perfetta trasparenza del mercato: implica che le imprese e consumatori non sostengano costi particolari per operare nel mercato ed acquisire su di esso le informazioni rilevanti. Nel definire il processo di aggiustamento che porta imprese price taker ad individuare il proprio livello ottimale di produzione dato il prezzo di mercato, è stato introdotto il concetto di periodo di mercato (spot market), durante il quale la quantità offerta dalle imprese può essere considerata costante. Il prezzo di mercato sarà determinato dalla classica curva di domanda negativamente inclinata e da una funzione di offerta rappresentata da un retta parallelamente verticale. Quando si passa ad analizzare la posizione delle imprese nel breve periodo, la curva di offerta rispecchierà per ogni impresa la soluzione ottimale individuata nella relazione p = MC: ciascuna impresa price taker, dato il prezzo di mercato, individua il livello produttivo in corrispondenza del quale questo eguaglia i costi marginali. L’equilibrio di breve periodo, in corrispondenza dell’intersezione tra domanda e offerta, può determinare una situazione di profitto per le imprese in quanto il prezzo è superiore al costo medio dell’impresa. Questa è una situazione è temporanea perché i profitti registrati nel mercato attireranno l’ingresso di nuovi operatori; grazie al meccanismo dell’uscita, è temporanea anche la situazione di perdita eventualmente determinata dall’equilibrio del mercato. Nel lungo periodo, la presenza di profitti nel settore indurrà l’ingresso di un numero considerevole di imprese che produrranno allo stesso livello di costo delle imprese già operanti nel mercato. L’equilibrio per la singola impresa è definito dal punto in cui il prezzo p* è uguale al livello minimo dei costi medi totali e in corrispondenza della quantità 59 q*. Il livello p* è definito dal punto di intersezione tra la domanda D e la curva di offerta di lungo periodo del mercato. àEquilibrio di concorrenza e funzioni di produzione Nel definire equilibrio di breve e lungo periodo, le curve di offerta del mercato sono state rappresentate come la somma orizzontale delle curve di offerta individuali delle imprese. Importante ipotesi che rende valida la formulazione è che le curve di offerta dei fattori produttivi siano perfettamente elastiche: se si verifica un aumento o una diminuzione della produzione di tutte le imprese del settore considerato, il prezzo dei fattori rimanga invariato. Se invece l’espansione della produzione di un intero settore fa salire i prezzi di alcuni fattori, le curve dei costi delle singole imprese si spostano verso l’alto e quella di offerta di breve periodo diventa meno elastica. Nel lungo periodo, se l’aumento della produzione determina un aumento dei prezzi dei fattori, la curva di offerta tende a crescere e diventa inclinata positivamente. Un secondo importante fattore attiene alla funzione di produzione. L’analisi dell’equilibrio di breve e di lungo periodo riportata presuppone l’impostazione classica basata su una funzione di produzione caratterizzata da rendimenti di scala costanti. Questa ipotesi contribuisce a determinare la situazione nella quale in corrispondenza della quantità di equilibrio, Q*, tutte le imprese n* sono in grado di operare al livello minimo dei costi medi AC. In ipotesi di prezzi dei fattori produttivi costanti, la presenza di rendimenti di scala costanti garantisce che tutte le imprese, dopo aver raggiunto la DOM, non avranno un incentivo ad aumentare la propria scala produttiva o a diminuirla per incorrere in diseconomie. L’ipotesi di rendimenti di scala costanti è fondamentale nel determinare la stabilità delle soluzioni di equilibrio. àStabilizzazione dei mercati concorrenziali. “Futures” e “floor prices” Appare realistico ipotizzare che mutamenti nelle abitudini di consumo possano determinare spostamenti nella curva di domanda. Questi fattori introducono elementi di instabilità nei prezzi e nelle quantità prodotte e rendono più problematico il processo di convergenza verso l’equilibrio di lungo periodo. È utile a prevedere gli effetti di variazioni nella produzione e nei prezzi il modello dinamico noto come “teorema a ragnatela”. Nei settori dove tali effetti sono potenzialmente rilevanti e rendono fortemente instabili i mercati dei prodotti, il rischio è che le variazioni di prezzo siano tali da compromettere la sopravvivenza stessa del settore. In tali ipotesi gli interventi di sostegno da parte del governo fissano un prezzo di intervento (floor price) per evitare che il prezzo di mercato scenda al di sotto del livello soglia mettendo in crisi il settore. Una soluzione alla evidenziata instabilità dei mercati concorrenziali e alla incertezza che ne deriva per gli operatori è rappresentata, per molti importanti settori dell’economia moderna, dai futures. Il contratto future attribuisce al sottoscrittore il diritto e l’obbligo di acquistare o vendere un determinato bene o strumento finanziario (commodity o financial futures) ad una scadenza prefissata (settlement\expiration day); si tratta di un contratto standardizzato negoziato in mercati amministrati per effetto del quale alla scadenza le quantità vendute\acquistate sono acquisite\consegnate dall’operatore del mercato al prezzo prefissato. È frequente che il contratto venga negoziato prima della scadenza o annullato mediante l’acquisto di un contratto che riconosce una posizione opposta a quella del contratto originario. In questo caso, i futures offrono agli operatori una copertura assicurativa da indesiderate variazioni di prezzo. àI mercati contendibili Difficile riscontrare nel mercato la maggioranza delle ipotesi su cui si basa il modello di concorrenza perfetta. Pensando ad esempio a settori produttivi caratterizzati da economie di scala e limitate quantità di output domandate: tali ipotesi sono compatibili di una o poche imprese che possano efficientemente operare nel mercato. Tuttavia il meccanismo dell’entrata e dell’uscita è determinante nel garantire che la concorrenza funzioni e produca i risultati analizzati. Il meccanismo funziona in assenza di costi di ingresso o di uscita (sunk cost) e nell’ipotesi che tutti gli operatori possano avere libero ed agevole accesso al mercato delle materie prima: in questo caso si parla di mercati perfettamente contendibili (Baumol, Panzar e Willig). In un mercato così descritto l’equilibrio di concorrenza perfetta è sostenibile se nessun potenziale entrante ha la possibilità di ottenere dei profitti. Se il mercato presenta opportunità di profitto, un potenziale concorrente potrebbe entrare e realizzare un guadagna prima che i prezzi cambino, e quindi uscire senza costo se le prospettive future non sembrano favorevoli: in questo caso il mercato è vulnerabile ad una concorrenza del tipo hit and run. Il meccanismo dell’entrata descritto garantisce che anche industrie con RDS crescenti riportino comportamenti perfettamente competitivi. 60 àI monopoli Modello si basa sull’ipotesi che in un mercato caratterizzato da un prodotto per il quale non sia possibile individuare prodotti sostituti, operi una sola impresa. Il vantaggio acquisito dal monopolisti può anche essere protetto, in particolari casi, da specifici interventi dello Stato. La motivazione più significativa al monopolio resta quella cosiddetta del monopolio naturale. Una impresa vi si trova se può produrre la quantità Q di mercato ad un costo inferiore a quello che caratterizzerebbe la produzione di un numero k di imprese che si dividono in parti uguali la quantità Q. La presenza di costi medi decrescenti e di costi marginali costanti o decrescenti in corrispondenza della quantità di mercato Q determina la condizione di subadditività della funzione di costo: tali proprietà e le economie di scala quindi possono determinare la presenza di monopoli naturali. I settori dell’elettricità, gas, telecomunicazione, e comunque in generale quelli caratterizzati dall’utilizzo di network trasmissione\trasporto sono stati a lungo etichettati come monopoli naturali per gli elevati costi fissi e per costi marginali decrescenti o costanti. àEquilibrio monopolistico Il monopolista stabilisce il livello di prezzo e di output in funzione della massimizzazione del proprio profitto. La curva di domanda di mercato, D = p(Q), coincide con la curva di domanda del monopolista: quest’ultimo sceglierà la quantità che desidera vendere determinando in modo automatico sulla curva di domanda il prezzo a cui gli acquirenti sono disposti ad acquistarla, oppure fisserà il prezzo e quindi la quantità individuabile ad esso corrispondente. Se il monopolista vuole scegliere Q al fine di massimizzare il profitto, considerata la curva di domanda negativamente inclinata p = a – bQ e la funzione di costo C(Q), la condizione di primo ordina determina tali relazioni: max 𝜋(𝑄) = (𝑎 − 𝑏𝑄)𝑄 − 𝐶(𝑄) 𝑑𝜋 𝑑𝐶 = (𝑎 − 2𝑏𝑄) − = 𝑀𝑅 − 𝑀𝐶 = 𝑂 𝑑𝑄 𝑑𝑄 L’equilibrio del monopolio è individuato nel punto in cui il ricavo marginale eguagli i costi marginali. Se l’elasticità della domanda al prezzo è molto alta (curva molto elastica) una piccola variazione di prezzo determina una rilevante diminuzione delle quantità. L’effetto sulla quantità domandata diviene meno rilevante in presenza di una curva di domanda più rigida. Se la domanda fosse completamente anelastica, non sarebbe possibile soddisfare la condizione di massimizzazione del profitto. Questa conclusione è valida per un semplice modello statico, che non tiene conto del fatto che la domanda dei consumatori, pur essendo molto rigida nel breve periodo, può subire mutamenti nel tempo. In tale ottica, il monopolista potrebbe non sfruttare i vantaggi di operari nel tratto anelastico della curva di domanda di breve periodo. àCosti e benefici del monopolio La possibilità di restringere l’output e di incrementare i prezzi determina due effetti sul benessere sociale (social welfare: somma del surplus del produttore e del surplus del consumatore) rispetto ad un equilibrio di concorrenza: 1. 2. Primo effetto del passaggio ad una situazione di monopolio è redistributivo e si sostanzia in un trasferimento di surplus dal consumatore al produttore pari al profitto che questi è in grado ottenere. Perdita secca per il consumatore, non trasferita al produttore, che deve rinunciare all’acquisto del bene. La perdita secca di benessere fino a qui è stata definita sulla base della formulazione di Harberger (1954), che utilizza stime dei parametri della curva di domanda marshalliana dei singoli settori per derivare una approssimazione lineare di tale area nella formulazione: 𝑏𝑐𝑒 = 1 (𝑝 − 𝑝8 )(𝑞7 − 𝑞8 ) 2 7 L’elasticità della domanda al prezzo quindi è il parametro determinante nella definizione della perdita secca. Si osserva però che l’effetto dell’elasticità della domanda sulla misura della perdita secca non è sempre univocamente determinabile. In particolare un aumento del mark-up non necessariamente si traduce in un aumento della perdita secca. Situazioni di monopolio caratterizzate da elevati mark up coincidono con quelle caratterizzate da una bassa elasticità della domanda al prezzo: ciò implica che aumenti anche significativi del prezzo non hanno un impatto rilevante in termini di quantità domandate, e quindi di perdita secca di benessere, ma si traducono in ingenti trasferimenti monetari dal consumatore al produttore, che non sembrano avere nessun effetto sulla misura della perdita secca 61 proposta da Harberger. Il metodo da quest’ultimo proposto si basa sullo strumento della curva di domanda marshalliana, l’approccio utilizzato è quello dell’equilibrio economico particolare. Lungo una curva di domanda marshalliana l’utilità del consumatore non è costante. La definizione di una curva di domanda hicksiana, che attraverso variazioni compensative mantiene costante l’utilità del consumatore, consentirebbe di incorporare nel confronto anche l’effetto dell’elasticità al reddito della domanda del bene considerato. La dimensione di equilibrio economico particolare non consente di includere nel calcolo della perdita secca l’effetto che ha il trasferimento del reddito monetario al monopolista sia sulla quantità domandata di altri prodotti e quindi sugli output di equilibrio in altri settori sia sul livello di utilizzo dei fattori produttivi. In una prospettiva più ampia di equilibrio economico generale, il valore della perdita secca indotta dalla monopolizzazione dipende non solo dalla elasticità della domanda del bene considerato al prezzo, ma anche dalle elasticità al reddito e dalle elasticità incrociate delle domande di tutti i beni. Inoltre, come evidenziato nell’analisi critica di Bergson, il passaggio al monopolio di uno o più settori compromette il pieno utilizzo dei fattori produttivi se si considera il reddito reale dei consumatori. Una valutazione effettuata in un contesto di equilibrio economico generale sarebbe preferibile al fine di non sottostimare la perdita effettiva di benessere sociale associata ad una situazione di monopolio. È innegabile che la formulazione analitica di tale problema richiede semplificazioni che risultano altrettanto restrittive di quelle necessarie a giustificare l’approccio dell’equilibrio economico particolare. Dal punto di vista applicativo quindi il metodo proposto da Harberger è quello che consente, nonostante i suoi limiti, una valutazione empirica del valore della perdita secca di benessere. Tale analisi si sviluppa dal lato della domanda ipotizzando che l’impresa in monopolio e quella in concorrenza abbiano la stessa curva di costi marginali. Tullock e Posner sostengono che la stima della perdita di benessere è sottostimata se non si considerano i costi necessari all’ottenimento ed al mantenimento del potere monopolistico: questi costi assumono la forma di un eccesso di capacità produttiva o di eccessivi investimenti in pubblicità e differenziazione del prodotto. Un’alta fonte dei maggiori costi del monopolio è quella relativa alle inefficienze intrinseche al processo produttivo che caratterizza tale forma di mercato. àIl monopsonio Sotto un profilo teorico, il monopsonio (un compratore e pluralità di venditori) rappresenta un caso perfettamente speculare di quello monopolistico. Il monopsonista limita i propri acquisti alla quantità che fa coincidere il costo marginale del fattore acquistato con la sua produttività marginale. La restrizione della quantità domandata rispetto a quella che sarebbe offerta in condizioni di mercato concorrenziale ha l’effetto di ridurre il prezzo, non di aumentarlo come avviene in monopolio. Di conseguenza, l’area del sovrapprofitto del monopsonista è maggiore di zero. Fra i casi classici che dovrebbero ricadere nella forma di mercato monopsonistica, oltre al mercato del lavoro, e delle commesse pubbliche, vi sono in generale i settori che si trovano a monte di industrie fortemente concentrate. E’ altamente inverosimile che il monopsonista si limiti a restringere i propri consumi per ottenere un sovrapprofitto. Per questo motivo i prezzi offerti sono normalmente considerati sulla base di un mark-up positivo. Ciò può dare luogo ad una fonte di notevoli inefficienze che derivano dalla mancata spinta concorrenziale nel settore. Il monopsonista quindi tende ad intervenire sulla struttura dei propri fornitori, in modo da determinare oltre alle condizioni di prezzo che ne garantiscono la sopravvivenza, anche prezzi di fornitura più contenuti. àLa concorrenza monopolistica La teoria della curva di domanda di Chamberlain propone della concorrenza monopolistica come una valida alternativa al modello di concorrenza perfetta quando si abbandona la ipotesi di perfetta omogeneità dei prodotti rivali. La concorrenza monopolistica conserva tutte le caratteristiche esaminate nel caso della concorrenza perfetta ad eccezione del fattore strutturale e strategico individuato nella differenziazione del prodotto. Le ipotesi del modello di Chamberlain sono: • • • Nel mercato ci sono molti produttori e il prodotto di ciascuno di essi, per quanto differenziato, sia un sostituto sufficientemente buono di quello degli altri Numero delle imprese sia sufficientemente elevato da generare in ciascuna impresa l’aspettativa che le proprie azioni sfuggano ai concorrenti, che non hanno la possibilità di adottare misure ritorsive contro di essa La curva di domanda e le funzioni di costo siano le stesse per ciascuna impresa del gruppo. 62 Si ritiene che il settore del commercio al minuto abbia molte delle caratteristiche della concorrenza monopolistica. Il prodotto può essere caratterizzato da fattori di differenziazione spaziale. Vi sono esempi altrettanto significativi di prodotti che si differenziano per caratteristiche intrinseche: esempio ristorante di cucina cinese e di cucina italiana; la diminuzione del prezzo da parte di una impresa non necessariamente produce, come in concorrenza perfetta, l’effetto di sottrarre quote di mercato ai concorrenti. Per aumentare le sue vendite, l’impresa dispone di tre leve: può agire sulla variazioni di prezzo, sulle caratteristiche del prodotto, sulla spesa pubblicitaria e promozionale. àL’equilibrio nella concorrenza monopolistica La singola impresa è in qualche misura price maker e adotta le proprie decisioni di prezzo e quantità lungo una curva di domanda residuale negativamente inclinata, che mostra le quantità che l’impresa potrà vendere se pone un prezzo diverso da quello attuale e mentre le altre imprese mantengono i prezzi esistenti. àOsservazioni critiche al modello di Chamberlain Concorrenza monopolistica offre un modello di analisi delle forme di mercato intermedie fra concorrenza perfetta e monopolio. Le sue ipotesi tuttavia sono state oggetto di critiche che hanno rimarcato la distanza del modello dal funzionamento dei mercati reali. Stigler critica il concetto di gruppo di imprese, osservando che la sua definizione è ambigua e in contraddizione con l’ipotesi di differenziazione del prodotto. Se si sostiene la sostanziale analogia delle curve di domanda e di costo delle imprese che compongono il gruppo, il gruppo deve necessariamente essere definito in modo da comprendere solo imprese che vendono prodotti omogenei. Harrod sottolinea che il processo che porta alla definizione dell’equilibrio di lungo periodo si basa su un procedimento che utilizza una curva dei costi marginali di lungo periodo ed una curva di ricavo marginale di breve periodo. Ciò determina la fissazione di un prezzo sufficientemente alto da indurre ingresso di nuove e imprese e il successivo spostamento verso il basso della nuova curva di ricavo marginale. Analisi di Harrod cerca di dimostrare che il margine di capacità utilizzata è minore di quello riportato nella formulazione originaria. 63 Capitolo 13 Le politiche di prezzo. Tecniche e strategie delle imprese “price maker” Rappresentano una variabile comportamentale delle imprese che si riflettono nelle performance. Sotto il profilo della formazione dei prezzi sono fondamentali delle distinzioni relative alle caratteristiche di: • Prodotto e mercato: possono essere classificati in due grandi categorie: > commodities: merci scarsamente o non differenziate. Si tratta principalmente di prodotti naturali, ma anche di molti prodotti della trasformazione industriale. L’equilibro in questo caso è assicurato dalle variazioni dei prezzi, i quali aggiustano le quantità offerte e domandate assicurandone l’uguaglianza. In questo caso le imprese non hanno alcuna discrezionalità nella formazione dei prezzi. > products (o customs): prodotti per i quali la differenziazione ha un ruolo rilevante nel determinare le scelte dei consumatori. In questo caso si deve distinguere fra imprese che hanno discrezionalità nella formazione (price maker) e quelle che possono solo subire passivamente le decisioni altrui (price taker). Per le seconde le decisioni riguardano solo la quantità da produrre in funzione del prezzo corrente sul mercato, per le prime si pone il problema di come formare il prezzo di vendita. Per quanto riguarda la formazione del prezzo di vendita, tale problema va scomposto in due profili: • • Tecniche di formazione, ovvero i criteri con i quali le imprese price maker procedono: secondo una celebre indagine, condotta da due economisti di Oxford, gli imprenditori ed i dirigenti d azienda hanno scarsa o nessuna familiarità con i concetti che caratterizzano la teoria del prezzo. Strategie, cioè le finalità che si propongono di raggiungere attraverso le politiche di prezzo. Il metodo più frequentemente usato è quello del full cost pricing, che consiste nel rilevare i costi di produzione direttamente imputabili al prodotto, e ad aggiungere a questi un ricarico (mark-up) sufficiente a coprire i costi non direttamente attribuibili al prodotto e a far conseguire un margine di profitto normale (circa 10% del valore della produzione). Tale tecnica può essere applicata con una serie di variazioni: 1. 2. 3. 4. Gross margin: riscontrato nel commercio, si applica il mark up ad un solo costo di produzione. ROI margin: obiettivo è costituito da un dato rendimento sul capitale investito invece che da un dato argine di profitto sul valore della produzione. Flexible mark-up: il margine di ricarico può essere considerato alla stregue di una indicazione, in base alla quale si procede poi alla definizione del prezzo tenendo conto delle reazioni di mercato e concorrenti. Direct costing: metodo più funzionale per le imprese multiprodotto. Con tale variazione ci si limita a calcolare il costo diretto di una produzione, affidando alla funzione del marketing la scelta della combinazione ottimale di prezzo-qualità-pubblicità. Nonostante l’apparente tra prassi (effettive modalità di fissazione dei prezzi) e teoria (principi generali microeconomici), in realtà i due aspetti risultano molto meno distanti. Si consideri che secondo la formula del full cost pricing il prezzo è determinato da à p = v + k, dove v sono i costi variabili diretti e k è la quota di imputazione dei costi indiretti fissi e del margine di profitto considerato. Si consideri inoltre che k = K/q, dove K rappresenta il totale dei costi da ripartire. Essendo q = f(p), occorre di necessità avere introdotto qualche relazione fra quantità e prezzo, introducendo i concetti di elasticità e ricavo marginale. Applicando il concetto di margine normale, si anticipano le reazioni del mercato e dei propri concorrenti incorporandole nelle proprie decisioni di prezzo. Nella prassi la formazione del prezzo rappresenta il punto terminale di un procedimento che si svolge per tentativi o successive approssimazioni. àGli obiettivi delle politiche di prezzo Obiettivo è la massimizzazione del profitto dell’impresa, che corrisponde alla combinazione prezzo/quantità dove il ricavo marginale è uguale al costo marginale. Gli imprenditori però paiono piuttosto orientati a formare i prezzi con l’obiettivo di conseguire un profitto “normale”. Questa contraddizione può essere spiegata dai differenti orizzonti temporali presi in considerazione dalla teoria del prezzo e dagli imprenditori reali. Se nel primo caso l’orizzonte è istantaneo, nel secondo ciò che si tende a massimizzare è il valore dell’impresa, che risulta dal flusso attualizzato dei 64 profitti che verranno conseguiti. Se l’orizzonte è prolungato ad un tempo sufficientemente ampio la fissazione del prezzo da parte di una impresa deve necessariamente tenere conto della sostituibilità dei prodotti nel breve e nel lungo periodo e delle reazioni delle altre imprese incombenti. àObiettivi di specifiche politiche di prezzo a. b. c. d. e. Vintage pricing: consiste nel praticare prezzi che consentano di recuperare nel più breve tempo possibile il capitale impiegato per lo sviluppo del prodotto. Il periodo di recupero dell’investimento iniziale è detto payback period: 𝐼 𝑃𝐵𝑃 = (𝑝 − 𝑐 )𝑞 La logica che sostiene questa politica è quella di cautelarsi contro il rischio che nuovi competitori possano entrare nel mercato, con la conseguente flessione dei prezzi, prima che l’intero importo dell’investimento iniziale dell’impresa incombente sia stato recuperato. Prezzi di penetrazione: logica opposta, risultano inferiori al prezzo di equilibrio allo scopo di facilitare la diffusione del consumo di un particolare prodotto salvo poi rialzare i prezzi per ritornare ad un livello ottimale, quando i consumi si stabilizzano. Politica utilizzata quando il prodotto è destinato a scalzarne un altro la cui abitudine al consumo è già radicata, e anche quando è molto elevata la proporzione dei costi fissi sui costi totali e quando vi sono rilevanti economie di scala. Un prezzo di penetrazione dovrebbe collocarsi fra i costi marginali ed i costi medi, al disotto dei quali si trova la politica dei prezzi predatori. Prezzi predatori: ha come obiettivo la restrizione del numero dei concorrenti e consiste nel praticare prezzi tali da eliminare o escludere i concorrenti, salvo sfruttare la posizione dominante che si sarebbe raggiunta. La ratio consiste nel ritenere che la rendita monopolistica che conseguirebbe all’eliminazione delle imprese predate sia superiore alle perdite sostenute nella fase di predazione per mantenere i prezzi al disotto dei costi di produzione. Secondo la regola di Areeda e Turner, la prova di politiche predatorie consisterebbe nell’osservare prezzi che si mantengono al disotto dei costi marginali variabili di produzione in maniera stabile. Prezzi limite: consistono nel fissare un prezzo e una quantità di produzione corrispondente in modo che la domanda residuale per le imprese sia uguale a zero. Ciò può verificarsi sia per i vantaggi assoluti di costo sia per effetto del postulato di Sylos. Prezzi discriminatori: pratica che si fonda sulla esistenza di diversi valori di elasticità nelle curve di domanda individuali o di gruppi di consumatori la cui somma costituisce la domanda del mercato. La discriminazione può essere temporale quando i prezzi praticati tendono a sottrarre la maggiore quota possibile della rendita del consumatore, praticando prezzi via via decrescenti al crescere del mercato, oppure spaziale e per categoria di clienti. àVendite connesse (bundling) e vendite trainate (tying) Spesso accade che una impresa subordini la vendita di una bene alla condizione per la quale un cliente acquisti contemporaneamente anche un altro prodotto o servizio, eventualmente complementare al primo (bundling puro: esempio è la pratica degli editori di abbinare alla vendita dei quotidiani una rivista collegata), in altri casi il venditore offre una alternativa tra acquistare separatamente singoli beni ed acquistarli insieme ad un prezzo scontato (bundling misto: esempio giornale più dvd, cliente può scegliere). I casi di vendite connesse sono spesso considerati una necessità di mercato piuttosto che una opzione di marketing. In tutti i casi di bundling i beni abbinati sono offerti in proporzioni fisse. Una tipologia differente è la pratica delle vendite trainate; acquistando il prodotto primario (trainante) il cliente si impegna ad acquistare dallo stesso venditore un secondo bene (trainato). L’impegno può avere natura contrattuale o tecnologica. Nelle vendite trainate la proporzione tra beni abbinati è generalmente variabile, in quanto legata alla scelta di consumo del cliente (esempio tipico è quello delle macchine fotocopiatrici). Le scelte di bundling e tying (proporzioni fisse e variabili) possono essere realizzate attraverso vincoli contrattuali, 65 oppure mediante l’integrazione tecnologica dei beni abbinati. Questa seconda soluzione costituisce una forma di connessione più forte, dato che vincola non solo le scelte dell’acquirente ma anche quelle del venditore. -) le motivazioni legate all’efficienza: in alcune circostanze l’offerta di beni o servizi in abbinamento è motivata dal contenimento dei costi o dal miglioramento della qualità offerta. Bundling e tying sales, secondo la letteratura economica, possono generare effetti socialmente desiderabili, anche significativi. Il risparmio di costo può riguardare anche il produttore o il venditore, quando le pratiche di bundling o tying permettono lo sfruttamento di economie di ampiezza di gamma nella fase di produzione o distribuzione. Studi empirici dimostrano che i risparmi possono essere sostanziali e i vantaggi sono direttamente trasferiti al consumatore, in termini di prezzi più bassi. Il venditore inoltre potrebbe anche avere un’altra ragione per imporre o incentivare l’acquisto di beni in blocco: preservare la reputazione dei propri prodotti. Le pratiche di bundling e tying possono costituire un efficace strumento di discriminazione ed avere effetti ambigui sia sull’efficienza che sul benessere aggregato. -) Bundling e discriminazione del mercato: offerto da Stigler (articolo del 1963) un importante contributo all’analisi delle vendite connesse come meccanismo di discriminazione del mercato. L’economista americano osservava che anche in assenza dei vantaggi di costo o di complementarità nel consumo, il bundling può separare i consumatori in gruppi omogenei, consentendo al venditore di estrarre una maggior porzione della loro rendita. La condizione necessaria affinché la discriminazione tra diverse tipologie di clientela sia efficace e profittevole è che le preferenze relative siano inverse fra differenti gruppi di clientela. È necessario cioè che le rispettive domande siano correlate negativamente e dunque che i consumatori con maggiore disponibilità all’acquisto di un prodotto siano meno disponibili all’acquisto di altri prodotti correlabili. La vendita in blocco consente al venditore di forzare ciascuna tipologia di clientela ad acquistare, insieme a quello preferito, anche i beni meno desiderati. -) Effetti e convenienza del bundling come pratica discriminatoria. Il modello di Adams e Yellen: analisi di Stigler appare incompleta su tre fronti: a. b. c. Assume pochi gruppi di consumatori ben identificati nelle loro preferenze Trascura i costi di produzione Non include il bundling misto nel set di possibili strategie commerciali del venditore. Adams e Yellen (1976) nel loro modello confermano le ipotesi che il venditore offra due soli beni e che ciascun acquirente attribuisca al consumo contemporaneo di entrambi un valore pari alla somma dei singoli valori soggettivi. La loro analisi dimostra che: • • Il bundling puro è preferibile alla vendita separata quando il beneficio di una maggiore estrazione della rendita dei consumatori attivati sopravanza l’effetto negativo delle minori vendite effettuabili nei singoli mercati e quello di indurre di indurre alcuni clienti ad acquistare beni valutati meno del loro costo (problemi dell’inclusione e dell’elusione). Ciò si verifica tanto più le valutazioni individuali per i singoli beni sono negativamente correlate e quanto minori sono i costi marginali di produzione e vendita degli stessi. Il bundling misto è preferibile a quello puro quando i costi di produzione sono elevati e\o quando le domande sono correlate negativamente in modo imperfetto. Il vantaggio è quello di consentire una alternativa, operando quale meccanismo di discriminazione indiretta tra diverse categorie di clienti. -) Le vendite tying come meccanismo di misurazione e discriminazione: le caratteristiche operative delle vendite trainate permettono di misurare implicitamente la intensità d’uso individuale del bene trainante e quindi di praticare prezzi complessivi differenziati in funzione del suo grado di utilizzo. Le pratiche tying di fatto replicano il meccanismo operativo delle tariffe a due stadi: modulando adeguatamente la componente fissa e la componente variabile è possibile discriminare tra consumatori in funzione della diversa intensità d’uso. L’effetto complessivo delle pratiche di tying sul benessere aggregato è positivo quando consentono di accrescere la domanda, stimolando l’acquisto di quanti altrimenti si sarebbero astenuti. Il bene trainante può essere venduto infatti ad un prezzo più basso, proprio allo scopo di invogliare l’acquisto dei clienti che ne fanno un uso meno frequente. -) Bundling e tying come strumenti di estensione delle posizioni dominanti. Il Smpt della scuola di Chicago: proprio a causa del possibile utilizzo come strategie di monopolizzazione, tali pratiche hanno spesso sollecitato l’interesse delle autorità antitrust internazionali, interessate a prevenire possibili esiti di indebolimento della concorrenza. Sul piano 66 dell’evoluzione storica, la diffidenza verso tali pratiche ha radici nella “teoria della leva”, popolari agli inizi del secolo scorso. La logica è relativamente semplice: tramite bundling o tying una impresa dominante in un mercato può estendere la dominanza ad altri mercati utilizzando come leva il potere di mercato già detenuto. La teoria della leva si risolve in una valutazione contraria verso qualsiasi forma di bundling o tying sales praticata da imprese dominanti. In realtà, tale teoria poggia su due condizioni essenziali, non sempre verificate nella prassi: a. b. Impresa che propone tali pratiche deve essere dominante e condizionare la vendita del bene per il quale è dominante a quella di un altro prodotto trainato; condizione tautologica, l’effetto leva presuppone di per sé una posizione dominante su cui far leva per realizzare finalità di esclusione. Quest’ultimo bene trainato non deve avere usi alternativi, se non marginali, a quello in combinazione con il prodotto trainante. A partire dai ’70 teoria della leva fortemente criticata dalla scuola di Chicago, nell’ambito di un processo di revisione della teoria del monopolio; tale critica è nota come “teorema del profitto monopolistico unico” (Smpt, single monopoly profit theorem). Secondo tale impostazione le pratiche di bundling e tying da parte di imprese in posizione dominante non si risolverebbero in alcuna duplicazione di profitti monopolistici, potendo anzi risultare come non profittevoli per le imprese che le adottano. Le conclusioni Smpt sono profondamente innovative. Se l’estensione del monopolio non determina profitti aggiuntivi, la scelta del bundling da parte del venditore sarebbe priva di logica, se la pratica non fosse tesa a realizzare i vantaggi di efficienza descritti in precedenza. La valutazione complessiva risulta pertanto ribaltata: vietare il bundling si risolverebbe in una riduzione di benessere, in contrasto con le finalità stesse della politica della concorrenza. Estendere la posizione dominante ad ambiti complementari tramite il bundling non consente di duplicare lo sfruttamento economico del potere di mercato. il venditore non troverebbe alcuna convenienza nell’estensione del monopolio. -) I contributi più recenti della teoria economica: la critica di Chicago ha fortemente influenzato l’elaborazione teorica successiva e la prassi antitrust degli ultimi anni. Alcuni contributi più recenti della teoria economica hanno messo in parziale discussioni le conclusioni del Smpt, tentando di dimostrare formalmente che una spiegazione di bundling e tying sales basata sugli effetti di esclusione non è necessariamente irrazionale, e dipende piuttosto dalle circostanze concrete. Nella posizione della scuola di Chicago è determinante l’ipotesi di perfetta concorrenza, con l’assenza di barriere all’ingresso nel mercato trainato o connesso. Contributi tecnici recenti però hanno individuato circostanze puntuali nelle quali il bundling ed il tying possono determinare realmente effetti anticoncorrenziali, innalzando artificiali barriere all’ingresso. Una prima spiegazione dei possibili effetti anticoncorrenziali è offerta da Whinston; quest’ultimo si concentra sull’effetto di deterrenza all’ingresso nel caso di beni con domanda indipendente: la vendita in bundling consente di scoraggiare l’ingresso di potenziali rivali in quanto implicitamente comporta che il monopolista del bene principale adotti politiche aggressive nel mercato connesso, potenzialmente concorrenziale. Il bundling sarebbe irrazionale se non avesse finalità di deterrenza e non mirasse a ridurre i prezzi e i profitti attesi dei potenziali concorrenti nel mercato connesso al di sotto del livello necessario all’entrata. Affinché il meccanismo di deterrenza funzioni è però necessario che l’impegno alla vendita congiunta sia credibile (quando il bundling è realizzato tramite l’integrazione fisica o tecnologica de beni connessi) e non reversibile. In caso contrario il bundling sarebbe privo di valore strategico. Analisi di Whinston estesa da contributi successivi. Nalebuff ha dimostrato che in alcuni casi il bundling può funzionare quale meccanismo di deterrenza all’ingresso indipendentemente dalla credibilità dell’impegno del venditore, e dalla irreversibilità della decisione stessa di vendita in blocco. In particolare, questo può capitare quando l’impresa fronteggi il rischio di ingresso non solo nel mercato connesso ma anche in quello principale. L’offerta in pacchetto fa sì che in ciascun mercato la domanda residuale sia ridotta ai soli consumatori con una più stretta preferenza per versioni concorrenti Dei due mercati. Questi due contributi descrivono le condizioni specifiche entro le quali la vendita in abbinamento consente di escludere concorrenti in mercati contigui a quello del bene principale, caratterizzati da una domanda indipendente. Diversa è l’ipotesi in cui i beni abbinati siano legati da una relazione di complementarità, nel qual caso le condizioni per l’esclusione sono più circoscritte. Choi e Stefanidis considerano un contesto dinamico nel quale l’ingresso di nuovi concorrenti è legato al successo delle iniziative di ricerca e sviluppo dei potenziali concorrenti. La strategia di bundling puro, secondo tale analisi, riduce l’incentivo ad investire, rendendo meno probabile lo sviluppo di soluzioni innovative, proteggendo il potere di mercato dell’impresa che la adotta. 67 Carlton e Wladman descrivono un meccanismo simile, nel quale l’abbinamento agisce come strumento di deterrenza all’ingresso nel mercato complementare, assicurando la protezione del monopolio nel mercato principale: una strategia che si potrebbe definire di “difesa perimetrale”: un’impresa che entri nel mercato complementare con un prodotto di qualità superiore può decidere successivamente di entrare anche nel mercato principale. Legando però la vendita dei due beni, l’incumbent accresce i costi di ingresso nel mercato principale ed in quello complementare, preservando la configurazione monopolistica del primo con modalità analoghe all’ultimo modello analizzato. I due modelli infatti rendono l’ingresso nel mercato principale strettamente dipendente dal contemporaneo ingresso in un mercato complementare e dunque assai più improbabile. -) Bundling e tying: la disciplina antitrust negli USA ed in Europa: le vendite trainate o connesse possono avere esiti anticompetitivi in pochi casi ben circoscritti agendo come meccanismo di esclusione di concorrenti potenziali o effettivi. Nella maggioranza dei casi queste tecniche perseguono vantaggi di efficienza (miglioramento qualità dell’offerta o riduzione dei costi). In altri casi le tecniche finalizzate a discriminare il mercato possono avere esiti positivi sul benessere aggregato, perché consentono l’accesso al mercato di consumatori che altrimenti esclusi. Tali pratiche sono tradizionalmente state oggetti di sospetto e ostilità da parte dell’antitrust. Solo recentemente, grazie alla revisione della scuola di Chicago, è stato avviato un processo di parziale riallineamento tra diritto antitrust e teoria economica. Negli Stati Uniti le due tecniche sono oggetto della Section 1 dello Sherman Act e della Section 3 del Clatyton Act. La giurisprudenza federale ha conosciuto una significativa evoluzione nel tempo, passando da rigide regole di condanna all’adesione di una rule of reason limitata ai soli mercati ad alto contenuto tecnologico. Tuttavia lo standard legale di riferimento (Jefferson Pairish 1984) da un lato aderisce al principio di illegalità per se della giurisprudenza più datata, dall’altro lo integra richiedendo che la illegalità venga dimostrata. Questa evoluzione riflette l’elaborazione teorica più recente ed il superamento della accettazione della teoria della leva. In particolare negli USA per poter dichiarare l’illegalità delle pratiche è necessario provare che: a. b. c. d. I beni legati siano realmente distinti, presentino cioè un’autonoma domanda di mercato Venditore possegga un apprezzabile potere di mercato Connessione risulti imposta all’acquirente Le condotte comportino una sostanziale restrizione degli scambi Nella giurisprudenza Jefferson Pairish non si richiede alcuna valutazione dei reali effetti anticompetitivi della condotta, più recentemente invece è stata riconosciuta l’importanza di considerare gli effetti efficientistici, adottando uno standard di rule of reason. Tale standard consente di indagare l’impatto effettivo sul benessere aggregato, valutando i possibili effetti anticompetitivi e bilanciando quest’ultimi con i benefici associati pro-concorrenziali o di efficienza. L’impostazione rule of reason rimane nei fatti ancora una ipotesi eccezionale, circoscritta. In Europa l’atteggiamento della Commissione e delle Corti si caratterizza per un maggior grado di ostilità, dovuto all’influenza dominante delle teorie più datate. Lo dimostra la scarsità di casi nei quali le condotte esaminate sono state ritenute legittime e non condannate. Le vendite connesse o trainate sono analizzate quali condotte unilaterali, trattate in particolare come tipiche forme di abuso. Nonostante ciò, in decisioni più recenti la Corte ha manifestato un atteggiamento di maggiore apertura, stabilendo anch’essa quattro condizioni per valutare una infrazione all’art- 82 del Trattato: a. b. c. d. Beni combinati realmente distinti Impresa detiene una posizione dominante Non è consentita alcuna alternativa all’acquisto abbinato La condotta esaminata restringe la concorrenza -) Price rebates, sconti – fedeltà: riduzioni di prezzo accordate a fronte dell’impegno del cliente di approvvigionarsi esclusivamente o quasi presso un’impresa in posizione dominante. Sul piano sostanziale permettono di realizzare gli stessi effetti di un accordo di esclusiva. Gli sconti fidelizzanti impediscono che i clienti si riforniscano anche da produttori concorrenti (finalità di esclusione analoghe al tying). Anch’esse sono pratiche contrastate dall’antitrust. Se nel breve periodo il cliente ottiene un vantaggio dalla riduzione dei prezzi, nel medio lungo è possibile un effetto di indebolimento del processo concorrenziale, conseguente alla monopolizzazione del mercato. Nel maggio 2009 la commissione europea ha sanzionato Intel con una multa di oltre un miliardo di euro per l’adozione 68 di pratiche commerciali anticompetitive finalizzate alla monopolizzazione del mercato. Sconti con i clienti produttori non scritti, ma basati su una sorta di tacita intesa. Intento palese di restringere la concorrenza, essendo finalizzata ad ostacolare l’accesso al mercato di altri produttori risultando priva di una giustificazione razionale alternativa. 69 Capitolo 14 Teoria dell’oligopolio I comportamenti collusivi Sotto il termine oligopoli si raccolgono forme competitive assai differenziate, tanto da richiedere lo svolgimento di analisi separate per i vari casi di oligopolio. Se si prendono in considerazione gli aspetti del comportamento delle imprese che appaiono in oligopolio, si può tentare di dare una definizione di tale forma di mercato che sottolinei gli aspetti comuni ai diversi segmenti in cui si articola la casistica. Le caratteristiche fondamentali e comuni delle forme di mercato oligopolistiche sono: 1. 2. 3. Scarsa numerosità delle imprese che operano in un particolare ambito concorrenziale: tale condizione non esclude che il numero assoluto delle imprese operanti possa essere elevato. Tale condizione va intesa nel senso che debbono essere poche le imprese che detengono un potere di mercato nell’ambito di settore, disponendo di un certo margine di discrezionalità nella formulazione delle proprie politiche. Un ambito concorrenziale si definisce oligopolistico se solo poche imprese si configurano quali leader, mentre la maggioranza delle unità aziendali opera in condizioni subordinate, subendo in maniera passiva le decisioni delle imprese leader in materia di prezzi e delle altre variabili discrezionali. Da tale caratteristica deriva che il prezzo dei prodotti non risulta più una risultante automatica dell’equilibrio fra produzione e consumo. I prezzi dei settori oligopolistici sono frutto di decisioni autonome delle singole imprese, ma tali decisioni non sono totalmente arbitrarie: le condizioni di domanda e delle altre variabili influenzano o determinano le decisioni delle singole imprese. I meccanismi impersonali del mercato sono sostituiti da singoli centri decisionali, perfettamente identificabili. Decisioni delle singole imprese non possono limitarsi alla conoscenza della domanda del mercato: le singole imprese, in oligopolio, devono tenere conto delle reazioni delle imprese rivali. La curva di domanda di ogni impresa dovrà tenere conto della elasticità di sottrazione, l’effetto cioè che una qualsiasi azione di prezzo o promozionale può avere come conseguenza di variazioni di quote di mercato. La curva di domanda delle singole imprese dipende quindi da ipotesi relative al comportamento delle altre imprese (curva di domanda immaginata). Il comportamento delle singole imprese oligopolistiche dipende non soltanto da elementi oggettivi ma anche dalle ipotesi da formulare circa l’elasticità di sottrazione e circa il comportamento delle altre imprese partecipanti al processo competitivo. Forme di mercato sono caratterizzate da un elevato grado di incertezza: non esistono posizioni spontanee di equilibrio competitivo. Tali caratteristiche sollevano tre gruppi di problematiche, che si concentrano in altrettanti filoni di ricerca ed analisi teorica: a. b. c. Primo, teorico, riguarda i problemi della formazione e del mantenimento dell’equilibrio oligopolistico. Secondo si apre nell’esplorazione della modalità e delle forme di comportamento collusivo fra gli oligopolisti. Terzo concerne il comportamento delle imprese oligopolistiche di fronte a variazioni dei costi e della domanda. àEquilibrio negli oligopoli. Formulazioni teoriche Le costruzioni teoriche possono essere ricondotte a due ipotesi fondamentali che descrivono il comportamento degli oligopolisti: a. Ipotesi di Cournot: definisce un comportamento indipendente degli oligopolisti. Posto in condizioni di incertezza circa le reazioni dei rivali, ciascun oligopolista tenderà a semplificare il problema assumendo che da parte dei rivali non vi sarà alcuna reazione in occasione di variazioni di prezzo decise dal singolo competitore. Ciascuna impresa tende a massimizzare il proprio profitto in modo indipendente dagli altri competitori. Il saggio di profitto derivante da tale comportamento, esprimibile come rapporto fra prezzo praticato ed il costo unitario di lungo periodo (PM = ( P – MC)/P), è diretta funzione del numero delle imprese rivali. Il saggio di profitto del settore diminuisce al crescere di n, variando da un massimo (profitto monopolistico) ad un minimo (quando le imprese sono molte numerose, settore che opera in condizioni di concorrenza). Una variante all’ipotesi di Cournot è costituita dal “postulato di Sylos”. Secondo quest’ultimo i competitori si comportano come se si attendessero dai rivali la reazione più sfavorevole, consistente nel propendere a 70 b. mantenere inalterata la propria quota di mercato nel caso di aumento della quantità offerta. In questo modo è possibile trovare un limite superiore ai prezzi praticabili dagli oligopolisti, ed un limite inferiore alla produzione complessiva offerta al mercato. Ipotesi di Chamberlain: comportamento opposto a quello previsto da Cournot. Le imprese che operano in un settore in numero limitato non possono non rendersi conto che le rispettive performance sono interdipendenti. Ne segue che le imprese fisseranno un prezzo monopolistico che massimizzi i profitti del settore, ripartendo poi fra loro le quote di mercato secondo tattiche collusive. àModalità e forme della collusione oligopolistica Comportamenti intesi a eliminare la caratteristica incertezza che contraddistingue tale forma di mercato e a impedire che la concorrenza tra le imprese faccia scendere prezzi e saggi di profitto monopolistico del settore, o peggio, produrre perdite per le imprese medesimo. Obiettivo delle tattiche collusive è il mantenimento del saggio di profitto al di sopra del livello “normale”. Sono varie le modalità con cui può in concreto verificarsi una tattica collusiva: a. b. Accordi formali ed informali: stipulazione di intese volte a limitare o impedire la competizione fra le imprese che sottoscrivono l’accordo. Accordi possono essere ad esempio relativi a formulazione di una politica comune di prezzi oppure alla suddivisione del mercato fra i competitori. Gli accordi sui prezzi rappresentano la forma più blanda di collusione, dato che la definizione di un prezzo comune di vendita non esclude che imprese possano competere fra loro, differenziando il prodotto oppure aumentando le proprie capacità produttive. Tali accordi possono o meno essere noti al pubblico. Le difficoltà obiettive che si incontrano nel mettere in atto politiche collusive relative alla fissazione del prezzo risiedono sia negli aspetti tecnici degli accordi sia in un problema economico di fondo. L’accordo sui prezzi porta a formulare infatti un prezzo monopolistico, o comunque un ricavo unitario superiore al costo unitario di produzione. Non appena avviene ciò però le singole imprese sono stimolate ad espandere la produzione per massimizzare i profitti, compromettendo la possibilità di mantenere il prezzo concordato. Può quindi essere necessario sottoporre a controllo anche altre variabili delle politiche aziendali, estendendo la regolamentazione ai volumi di produzione di ciascuna impresa e del settore nel suo complesso. Ciò può essere effettuato ricorrendo allo strumento del cartello, che può configurarsi come: 1) cartello obbligatorio: accordo inteso a limitare la produzione delle singole imprese, assegnando a ciascuna di esse una quota massima di produzione. Può essere più o meno integrato da un consorzio centralizzato di vendita, che monopolizza la distribuzione del settore. Es. sindacati di vendita formati nel settore dei fertilizzanti (Seifa in Italia). 2) cartello di offerta: si applica nei settori che producono su commessa, e consiste nell’interporre un organismo fra i committenti e le imprese, che provvede a raccogliere le ordinazioni e a distribuirle in proporzione alle quote di mercato storicamente detenute dalle varie aziende facenti parte del settore. L’obiettivo consiste nel bloccare le singole quote del mercato eliminando ogni incentivo alla riduzione dei prezzi. Si fa frequente ricorso a questi cartelli quando la produzione del settore sia interamente assorbita da un monopsonista. L’intento è quello di contrapporre una struttura unitaria al potere contrattuale del compratore. 3) cartello di razionalizzazione: forma più rigida, consiste nel coordinare i piani di produzione e le politiche di vendita delle diverse imprese del settore in modo integrato, come se si trattasse di un’unica azienda. Tale forma penalizza pesantemente le imprese meno efficienti, e richiede un forte grado di controllo delle imprese più dinamiche sulle altre. Price leadership: si verifica quando il gruppo d’imprese che costituisce l’offerta del settore attribuisce ad una singola impresa la funzione di stabilire i prezzi di vendita. Vi è una o più imprese che si comportano da price maker, le altre seguono le sue decisioni passivamente. Esistenza di una price leadership può dipendere alternativamente da: -) struttura del settore: in questo caso si parla di price leadership “con impresa dominante”; il settore è caratterizzato dalla esistenza di una impresa di vaste dimensioni e da un elevato numero di piccole imprese. Queste non hanno la possibilità di influenzare in alcuno modo il prezzo di mercato; l’impresa leader invece deve tenere conto non solo della domanda generale, ma anche delle quantità che le imprese minori 71 c. offriranno complessivamente al mercato come funzione del prezzo stabilito dall’impresa leader. Tale situazione oligopolistica conduce ad una posizione di equilibrio determinata. In settori così strutturati il comportamento collusivo della price leadership è verosimile ed efficace. Maggiori problemi relativi all’uso che l’impresa dominante fa del proprio potere di mercato (sfruttare rendita proveniente dalla posizione oppure abusare del potere di mercato). -) particolare storia del settore: si parla di price leadership “barometrica”; la struttura del settore si presenta meno definita, non essendo riscontrabili elementi che spieghino in maniera convincente il comportamento delle imprese, e in particolare la ragione per cui una impresa particolare assume la leadership nella formazione dei prezzi. Di regola, la spiegazione è da ricercarsi nella storia del settore. L’impresa leader può essere in passato stata dominante. Tale collusione dà luogo ad un sistema assai meno stabile del precedente. È sempre possibile che a seguito di un mutamento delle tecnologie o di un cambiamento nell’andamento della domanda, qualche impresa decida di rifiutare la leadership consolidata; se si verifica ciò in un settore che ha sperimentato la leadership barometrica, alla rottura segue l’instaurazione di una nuova leadership. Regole empiriche di decisione – d) punti focali: ultime due forme di collusione hanno origine nella applicazione generalizzata di schemi decisionali empirici uniformi. Nel caso di determinazione dei prezzi sulla base dei costi, il comportamento è sostanzialmente collusivo. È classico il caso delle gare d’appalto, in cui le offerte dei competitori mostrano prezzi equivalenti. Un simile fenomeno può non sottendere l’esistenza di un cartello di offerta, ma derivare dal fatto che tutte le imprese adottano la medesima metodologia. àOstacoli ai comportamenti collusivi Collusione ha obiettivo di mantenere il saggio di profitto del settore su livelli monopolistici. In concreto numero ostacoli si frappongono alla collusione, i quali possono derivare dalla legge o dalle caratteristiche dell’economia delle imprese che operano nel settore. In Europa, la disciplina antitrust è stabilita dalle norme degli artt. 85 (incompatibilità con il mercato comune degli accordi fra imprese suscettibili di limitare il commercio fra gli Stati membri) e 86 (abuso di posizioni dominanti) del trattato istitutivo del MEC. La disciplina della CEE pare più orientata al comportamento che non alla struttura del mercato. Per quanto riguarda il tipo di centralizzazione sanzionata, le rilevazioni CEE mostrano che la collusione più frequente riguarda gli accordi sui prezzi o sulle condizioni di vendita. In linea di massima la politica antitrust ha esclusivo riguardo a casi che presentino simultaneamente tali caratteristiche: a. b. c. Collusione ha manifestazione in un accordo o comportamento delle imprese Politiche restrittive devono interferire con il commercio fra stati membri Gli accordi devono avere effetti negativi sulla concorrenza Ne deriva che dagli interventi della CEE sono esclusi sia i comportamenti collusivi che hanno effetti limitati ad un unico ambito nazionale sia le collusioni che hanno come obiettivo il miglioramento delle tecniche produttive e\e della distribuzione, senza comportare indebolimento della concorrenza del settore. Le restrizioni legali alle politiche collusive sono piuttosto circoscritte nell’Europa continentale. Tuttavia le possibilità di colludere possono incontrare forti limitazioni che hanno origine nelle caratteristiche economiche del settore. Tipicamente gli ostacoli alla collusione oligopolistica sogliono essere messi in relazione ai seguenti fenomeni: a. b. c. Differenziabilità dei prodotti, ovvero esistenza di asimmetrie nelle curve di domanda particolari di ciascuna impresa: è chiaro che se il prodotto non è rigidamente standardizzabile, un accordo sui prezzi non è sufficiente per bloccare la competizione fra le imprese. Se i prodotti sono fortemente differenziati, può essere impossibile stabilire un accordo sui prezzi. Asimmetria nei costi di produzione delle varie imprese: se i costi di produzione sostenuti dalle varie imprese non sono al medesimo livello, i prezzi preferiti dalle singole imprese differiscono fra di loro. L’accordo sul prezzo è frutto di un compromesso fra interessi divergenti, e le singole imprese possono decidere di seguire una linea di azione autonoma, impedendo la collusione. Struttura dei costi di produzione caratterizzata da una elevata quota di costi fissi: tanto maggiore è la quota dei costi fissi sul totale di costo di produzione, tanto meno è probabile l’affermarsi di un comportamento collusivo. L’esperienza sembra smentire tutto ciò: fenomeni collusivi sono assai frequenti nei settori di base 72 dove i costi fissi sono estremamente elevati (siderurgia, minerali). In generale, gli accordi sui prezzi appaiono solidi quando la domanda assorbe una quota elevata delle capacità disponibili. 73 Capitolo 15 Le condotte non collusive. Teoria della curva di domanda ad angolo Ai fini dell’analisi del comportamento di imprese facenti parte di un oligopolio, la teoria della curva di domanda spezzata offre un modello assai preziose. Il modello non costituisce una teoria generale dell’oligopolio, né può avere la pretesa di esaurire la vastissima gamma di politiche attuabili dalle imprese oligopolistiche, ma piuttosto costituisce uno stimolante strumento concettuale. La teoria fu sviluppata nell’ambito della critica ai modelli di equilibrio parziale e generale dagli interventi di Staffa e Robinson. Obiettivo era la dimostrazione della testi che, in riferimento ad un sistema economico monopolizzato da grandi imprese, il movimento dei prezzi non riveste più il ruolo fondamentale teorizzato da Marshall e Walras (determinare equilibrio di breve periodo fra quantità domandate ed offerte e coordinare l’allocazione dei fattori fra i diversi settori produttori). L’equilibrio, al contrario, sarebbe assicurato dalle variazioni delle quantità di merci offerte dalle grandi imprese. Risulta evidente l’appartenenza della teoria della curva di domanda spezzata al tema più ampio relativo all’analisi del fenomeno dei prezzi amministrati. Tale tema era dedicato alla analisi delle leggi di formazione dei prezzi nei settori in cui la grande depressione produsse moderate o trascurabili variazioni dei prezzi, contrariamente alle predizioni della teoria economica. In numerosi settori industriali i prezzi non risultavano determinati dalla interazione fra compratori e venditori, ma venivano fissati “amministrativamente” dai venditori, in funzione del potere discrezionale detenuto dalle poche imprese operanti sul mercato. L’interesse del modello sviluppato originariamente da Sweezy va oltre la polemica del prezzo. La teoria in parola anticipa in buona misura la sequenza SCP, fornendo un modello predittivo ed esplicativo delle performance delle imprese in condizioni di variabilità della domanda e dei costi di produzione. L’ambito di applicazione della teoria della curva di domanda spezzata non può che fare riferimento ad un contesto di oligopolio omogeneo in cui le dimensioni delle singole imprese sono equidistribuite. Supponiamo di esaminare un settore costituito da un numero limitato di imprese aventi dimensioni circa uguali, che producono un bene omogeneo e non possono stabilire fra loro un accordo sistematico volto alla delimitazione delle QdM oppure alla formazione collettiva del prezzo (ipotesi di oligopolio omogeneo non collusivo). In queste condizioni il comportamento delle imprese in merito alla formazione dei prezzi è condizionato. Una componente fondamentale della curva di domanda che le singole imprese immaginano di avere di fronte a sé è costituita dalle diverse ipotesi circa il comportamento delle rivali, in occasione di una azione di aumento o diminuzione del prezzo. Le singole imprese, secondo tale teoria, sono portate ad immaginare di vere di fronte due curve di domanda, aventi differenti elasticità. La prima avrà elasticità più elevata, e rappresenta la curva di domanda del prodotto della singola impresa nel caso in cui intenda aumentare il prezzo, la seconda rappresenta il caso in cui l’impresa prospetti una diminuzione del prezzo. Nel primo caso (azione di aumento di prezzo) la singola impresa può ritenere che le altre imprese siano indotte a non modificare i rispettivi prezzi, e quindi all’aumentare del prezzo consegue una robusta diminuzione delle quote di mercato. Nel secondo caso invece (riduzione del prezzo) la singola impresa può ritenere che le altre imprese adeguerebbero rispettivamente i prezzi al nuovo livello. L’incremento della quota di mercato dell’impresa che ha assunto l’iniziativa di riduzione del prezzo sarebbe quindi molto modesto o addirittura nullo. Nei mercati oligopolistici i prezzi tenderanno ad essere piuttosto rigidi in presenza di variazioni della domanda, il che equivale a dire che le imprese oligopolistiche tenderanno ad amministrare l’offerta, facendo variare le quantità offerte proporzionalmente alle quantità domandate, con il risultato di mantenere stabiliti i prezzi. Il modello della curva di domanda spezzata può anche osservare gli effetti delle variazioni dei costi di produzione sui prezzi. Se le variazioni dei costi sono contenute nell’ambito della discontinuità della curva dei costi marginali, il prezzo al quale l’impresa massimizza il profitto rimane inalterato. Se gli aumenti dei costi di produzione fossero così rilevanti, allora l’impresa sarebbe indotta a modificare il prezzo per ristabilire l’eguaglianza fra costo e ricavo marginale. Le variazioni dei costi di produzione non comportano immediate variazioni dei prezzi; ciò equivale a dire che un aumento dei costi di produzione diretti ha l’effetto almeno nel breve periodo di ridurre il profitto delle imprese che non possono stabilire comportamenti collusivi fra loro. A tali conclusioni Sweezy pervenne con una metodologia deduttiva. A conclusioni simili giunsero gli economisti di Oxford Hall ed Hitch; procedendo con il metodo delle interviste, osservarono che la formazione del prezzo da parte delle aziende industriali ha come principale riferimento la copertura del costo medio. In questa ottica, le variazioni della domanda che si verificano successivamente alla 74 fissazione del prezzo non influiscono sui prezzi medesimi, e che quindi i prezzi tendono ad essere rigidi rispetto alle variazioni della domanda. Gli autori riconobbero però due importanti eccezioni al principio della rigidità dei prezzi: 1. 2. Quando la caduta della domanda è di notevole entità e durata Quando i costi di produzione di tutte le imprese si modificano simultaneamente in uguale proporzione. àCritiche alla teoria della domanda ad angolo. Sua effettiva applicabilità Teoria fu in un primo tempo considerata alla stregua di una teoria generale dell’oligopolio, grazie alla sua attitudine predittiva ed esplicativa circa il fenomeno della rigidità dei prezzi nei settori oligopolistici. Successivamente però la teoria in parola fu sottoposta ad una serie di ripensamenti critici. Tali critiche appaiono piuttosto frutto di una parziale incomprensione delle ipotesi sottese alla formulazione del modello. Un ampio esame critico della teoria della curva di domanda fu condotto da Stigler, con l’obiettivo di verificarne la consistenza teorica e la rispondenza alle dinamiche effettivamente registrate dai prezzi nei settori oligopolistici. Sotto il primo profilo Stigler decise di esaminare analiticamente i vari fattori da cui dovrebbe dipendere l’ampiezza della discontinuità della curva dei ricavi marginali, e quindi l’effettiva staticità dei prezzi praticati dalle singole imprese di fronte a variazioni della domanda e\o dei costi di produzione. Innanzi tutto bisognerebbe definirsi il grado di concentrazione assoluta del settore al quale potrebbe corrispondere un comportamento interdipendente del tipo di quello ipotizzato da Sweezy, Hall ed Hitch. Tale livello di concentrazione fu identificato in un numero di imprese compreso fra 5 e 10. Se il numero fosse minore, vi sarebbe una elevata probabilità che le imprese instaurino un comportamento collusivo, in questo caso nella curva di domanda immaginata dalla singola impresa non comparirebbe l’angolo ipotizzato da Sweezy, o comunque la variazione di elasticità sarebbe di scarso rilievo. Se invece il numero delle imprese fosse maggiore di dieci, la variazione del prezzo effettuata da una singola impresa potrebbe non essere avvertita dalle altre, e quindi non dare luogo ad azioni di ritorsione. Il comportamento interdipendente quindi è il presupposto della forma di mercato oligopolistica e se tale presupposto non si verifica, non appare corretto definire oligopolistica la particolare forma competitiva; se inoltre le imprese hanno modo di colludere fra di loro, viene a mancare una delle condizioni base implicite alla teoria della curva di domanda spezzata. Più in generale, la forma di mercato di “oligopolio omogeneo non collusivo” non si presta ad una definizione esclusivamente numerica. Tale forma può essere definita solamente in termini qualitativi: sussiste quando nel settore si riscontrano i caratteristici comportamenti fondati su interdipendenza ed incertezza. Un secondo ordine di osservazioni riguarda la concentrazione relativa del settore, ovvero la distribuzione dimensionale delle singole imprese. Se le dimensioni delle singole imprese non fossero omogenee, sarebbe verosimile che una fra queste assuma la funzione di price leader, ed in questo caso non vi sarà incertezza nel settore circa il comportamento delle singole imprese. Tuttavia la curva di domanda spezzata può trovare applicazione anche in settori che hanno una distribuzione non omogenea delle quote di mercato delle singole imprese, e conservare una notevole validità teorica ed operativa. Stigler inoltre puntualizzò che l’esistenza e l’entità dell’angolo dipendono da: 1. 2. Grado di omogeneità del prodotto Impossibilità di colludere Sotto il profilo della verifica della rispondenza delle predisposizioni teoriche alle dinamiche effettivamente registrate dei prezzi nei settori oligopolistici, Stigler trovò che in sette settori dell’industria americana gli aumenti di prezzo effettuati da una impresa sono generalmente seguiti da analoghi aumenti da parte delle altre imprese, mentre nel caso di diminuzioni del prezzo il comportamento delle imprese è assai meno unanime. L’autore ne conclude che il comportamento previsto da Sweezy non era da giudicarsi realistico. Le considerazioni di Stigler non appaiono del tutto accettabili, perché tratte da contesti caratterizzati da condizioni diverse da quelle assunte dalle ipotesi base del modello; nello specifico, tutti i settori esaminati mostravano fenomeni di collusione, dovuta all’esistenza di una impresa leader, oppure collegabile alla simultaneità delle variazioni dei costi di produzione. Analisi di Stigler NON INVALIDA la teoria della curva di domanda spezzata, ma dimostra che laddove le variazioni dei costi sono simultanee per tutte le imprese del settore oligopolistico ne segue un comportamento collusivo. Se tale conclusione viene accettata, ne deriva che se tutte le imprese di un determinato settore operano sui medesimi mercati di acquisizione 75 dei fattori, e non esistono significative differenze nelle strutture delle imprese, il comportamento delle imprese in parola tenderà ad assumere forme collusive. Altre critiche sono state formulate. Un primo problema, di carattere formale, è stato sollevato osservando che, se l’impresa si comporta in funzione della massimizzazione del profitto, essa tenderà a praticare il margine massimo di ricarico e quindi la curva dei costi marginali deve assumere la posizione che si colloca nella parte inferiore dell’intervallo di discontinuità della curva dei ricavi marginali. In tale ottica quindi, una diminuzione dei costi dovrebbe comportare una immediata diminuzione del prezzo; dal punto di vista logico-formale l’osservazione è fondata, ma non regge se vagliati alla luce dei criteri effettivi di formazione dei prezzi. Ulteriori critiche vengono mosse da coloro che osservano che la teoria della curva di domanda spezzata non spiega sufficientemente come un determinato prezzo si sia formato. Il modello non si prefiggeva di fornire lumi sui criteri di formazione dei prezzi nell’oligopolio omogeneo, essendo il prezzo di un dato istante il risultato di un processo competitivo che può avere assunto le forme più varie, ma ha piuttosto l’obiettivo di esplorare le leggi di variazione dei prezzi. Le riserve avanzate quindi derivano dall’aver preteso l’applicabilità della teoria della curva di domanda spezzata a fenomeni estranei alle ipotesi base. àEstensione al caso dei settori costituiti da imprese di diverse dimensioni La disponibilità di strumenti di calcolo in grado di simulare gli effetti delle variazioni di un numero elevato di variabili ha permesso la rimozione di alcune ipotesi semplificatrici che caratterizzano il modello di Sweezy, e di estendere quindi l’analisi del comportamento interdipendente degli oligopolisti a settori aventi vari gradi di concentrazione relativa. Versione aggiornata ed elaborata della teoria della curva di domanda ad angolo, desunta dal particolare modello di simulazione della domanda “particolare” delle imprese oligopolistiche dovuto a Momigliano. Esso prescinde da congetture a priori circa le reazioni degli avversari, facendo esclusivo riferimento ad elementi quantitativi: il comportamento delle imprese risulta deducibile non da ipotesi ma da elementi oggettivi che caratterizzano la struttura del mercato. Il modello di Momigliano è inteso a simulare gli effetti di una variazione di prezzo da parte di uno o più competitori, e quindi a determinare la curva di domanda particolare che ciascuna impresa può desumere da quella generale del mercato, tenuto conto di un elevato numero di possibili mosse effettuabili da parte delle aziende di competizione fra loro. Una applicazione semplificata del modello, riferita al caso di duopolio, prodotto omogeneo e nessuna sostituibilità con altri prodotti, consente di derivare, noti i coefficienti di elasticità, una serie di curve di domanda particolare. La curva di domanda particolare dell’impresa che fa la mossa di prezzo è costituita da una curva che presenta sistematicamente un angolo con concavità verso il basso se la quota di mercato iniziale è superiore al 50%, e con concavità verso l’alto se la quota di mercato iniziale è inferiore al 50%. Da tale constatazione se ne possono derivare le seguenti conclusioni: 1. 2. 3. L’effetto della riduzione del prezzo di vendita da parte di un competitore sarà tanto maggiore sul piano dell’incremento della sua quota di mercato quanto minore è la dimensione relativa dell’impresa. Nel caso di settori oligopolistici costituiti da imprese diverse dimensioni, quelle più grandi avranno una preferenza sistematica per la stabilità del prezzo di vendita. Al contrario, le imprese minori tenderanno a mettere in atto comportamenti aggressivi sul piano delle politiche commerciali, potendo beneficiare di una elevata elasticità di sottrazione. Se non esistono differenze nei costi di produzione delle singole imprese, la distribuzione disomogenea delle dimensioni aziendali in termine di quote relative di mercato può condurre ad una forma di mercato altamente instabile. La situazione tenderà ad evolversi verso una forma di mercato in cui le imprese hanno una dimensione equivalente. L’interesse del modello è particolarmente notevole sotto il profilo della relazione dinamica fra costi di produzione e prezzi. Nel tentativo di trarre deduzioni circa il comportamento delle imprese per ciò che attiene alla variabile prezzo, oltre alle considerazioni relative all’elasticità di sottrazione occorre tenere presente anche la variabile fondamentale rappresentata dai costi di produzione. Il comportamento previsto dalla teoria della curva di domanda spezzata appare realistico qualora le variazioni dei costi di produzione non siano simultanee per tutte le imprese e qualora le dimensioni delle singole imprese siano all’incirca equivalenti. L’esistenza di una impresa leader è sovente associata ad un’asimmetria dei costi di produzione delle diverse imprese. Se tale asimmetria non sussistesse, ci si troverebbe indubbiamente di fronte ad una struttura instabile. Se però esiste una impresa leader, e la sua posizione nei confronti delle rivali è stabile nel tempo, ciò significa che 76 l’impresa deve potere fruire di qualche vantaggio competitivo sulle altre imprese. In questo caso il prezzo preferito dalla impresa minore è superiore al prezzo praticato dalla imprsa leader. Le imprese minori pertanto sono più propense ad aumenti del prezzo che non ad azioni di allargamento della propria quota di mercato. In questa situazione dunque prevale la linea delle imprese leader, il cui comportamento è condizionato da una curva di domanda immaginata ad angolo, con concavità rivolta verso il basso. Se l’esistenza di una impresa leader è dovuta a ragioni tecnologiche che si riflettono in differenze assolute dei costi di produzione, le variazioni dei prezzi nel settore tenderanno ad avere luogo secondo la dinamica prevista dalla teoria della curva di domanda spezzata. Nel caso in cui non esistano differenze nei costi di produzione e si abbia una price leadership di carattere barometrico, possono verificarsi guerre di prezzi, come previsto dal modello di Momigliano e verificato largamente dall’esperienza di molti settori industriali (caso dell’industria del tabacco americana). àRealismo della curva di domanda ad angolo L’azione delle variabili che agiscono sulla politica dei prezzi delle imprese industriali e sulle loro performance, avviene in modo congiunto, così da rendere impossibile il tentativo di isolare il movimento dei costi, della domanda e della capacità produttiva, correlandone gli andamenti con le variazioni dei prezzi. Non si può non rilevare però come le analisi attualmente disponibili sembrino concordare con le predizioni della teoria della curva di domanda spezzata. Grazie ai lavori di Sylos Labini ed altri studiosi, si può dare per acquisito che la dinamica dei prezzi industriali tende ad assumere tali caratteristiche: a. b. c. In relazione al breve periodo si nota una scarsa elasticità dei prezzi rispetto alle variazioni dei costi diretti. Tale elasticità ha un valore nettamente inferiore all’unità sia in Italia che in USA. Il mark-up non è quindi mai costante, e diminuisce temporaneamente nelle fasi di aumento dei costi di produzione diretti. Nel lungo periodo l’elasticità dei prezzi rispetto alle variazioni dei costi tende ad essere sistematicamente uguale all’unità. I prezzi cioè risulterebbero determinati dai costi diretti più il mark-up costante, idoneo a coprire i costi generali e ad assicurare un profitto soddisfacente. In riferimento alla relazione prezzi-domanda, le variazioni della domanda non influenzano i prezzi e le diminuzioni di questa danno luogo ad una uguale diminuzione dell’offerta, cosicché i prezzi rimangono costanti. Tali caratteristiche forniscono indicazioni di carattere generale circa le performance aziendali relativamente alle variazioni di talune quantità base. 77 Capitolo 18 La domanda aggregata come fattore della produttività Sin dagli albori della scienza economica moderna era presente il fenomeno rappresentato dalla connessione fra domanda del mercato e produttività di una industria. Nel breve periodo, nel caso in cui vi siano capacità produttive non pienamente utilizzate, la crescita della produzione dà luogo ad una diminuzione dell’incidenza dei costi fissi per unità di prodotto che eventualmente si somma alla crescita della produttività. Nel lungo periodo ciò si verifica quando siano presenti fenomeni come economie di scala, curve di apprendimento, innovazioni tecniche dei processi produttivi che aumentano la produttività del capitale e\o del lavoro, ovvero diminuire l’incidenza del loro costo per unità di prodotto. Una formalizzazione statistica della relazione prodotto-produttività del lavoro è esposta nel modello conosciuto come “legge di Kaldor-Verdoorn”. Sulla base di tale legge è possibile ricavare prescrizioni sulla verosimiglianza dei parametri assunti nei processi di pianificazione, ma è soprattutto possibile indurre l’esistenza di relazioni dirette di lungo periodo fra la crescita della domanda e la crescita della produttività, relazioni che rappresentano uno fra i più importanti fattori del meccanismo dello sviluppo. La legge può essere rappresentata dall’equazione: 𝜆 = 𝑎 + 𝜂9 𝑞̇ Dove lambda è il saggio di variazione della produttività del lavoro, q la crescita dell’output e eta definisce il valore di elasticità, oppure coefficiente di Verdoorn. Esaminando serie storiche di lungo periodo si è trovata l’evidenza di una relazione abbastanza costante fra le variazioni della produttività del lavoro e del volume della produzione industriale, osservando in particolare che il valore medio del coefficiente di Verdoorn si trova in un intervallo tra 0,3 e 0,6 con un valore medio di 0,45: nel lungo periodo un aumento della produzione di circa il 10% corrisponde a un aumento della produttività del lavoro poco meno del 5%. Modello circolare basato sulla relazione di causalità diretta fra crescita e produttività, semplice schema teorico che permette di focalizzare immediatamente il circolo vizioso da un incremento o da una caduta della domanda. La formulazione originaria della legge è stata poi ampliata, rendendo lo schema più flessibile e più utile ai fini delle decisioni di politica economica e di pianificazione delle imprese. Kaldor ha infatti fornito una spiegazione del fenomeno osservato, mettendolo in relazione con: presenza di economie di scala e curve di apprendimento; rilevanza della specializzazione delle imprese e dell’interazione fra queste; presenza di progresso tecnico endogeno e incorporato nel capitale. Kaldor inoltre osservava che la relazione dinamica fra produttività e crescita riguarda prevalentemente il settore dell’industria manifatturiera, principale propulsore dello sviluppo economico, la cui capacità di crescita si riflette con effetti moltiplicativi sugli altri settori dell’economia. A questo punto si potrebbe obiettare che la struttura dei sistemi economici occidentale risulti sensibilmente variata rispetto a quella esaminata a suo tempo da Kaldor, per via del crescente peso del terziario, e che quindi la terziarizzazione rappresenta un elemento endogeno dello sviluppo. Se è vero che il minor peso dell’industria manifatturiera può in qualche modo diminuire la portata degli effetti del circolo virtuoso, si può sottolineare che questo atteggiamento di Verdoorn risulta accettabile sulla base delle verifiche empiriche e della ragionevole previsione che la relazione si mantenga stabile per lunghi intervalli di tempo. Ciò che è rilevante per il sistema nel suo complesso è il valore rappresentato dall’elasticità media del rapporto fra produttività e prodotto; meno lo è il valore dei singoli addendi da cui questa media in definitiva dipende. Nei sistemi aperti alla concorrenza internazionale un elemento della massima importanza per conferire realismo al modello è rappresentato dalla competitività della produzione di un particolare paese rispetto a quella dei suoi concorrenti, e delle sue variazioni relative. Le numerose verifiche empiriche della legge di Kaldor-Verdoorn mostrano l’esistenza di una relazione prodotto – produttività abbastanza costante, anche se in misura differente da paese a paese; tale risultato è prevedibile, perché il circolo virtuoso “domanda – produttività” non costituisce per certo l’unico meccanismo di sviluppo. Ai fini dello sviluppo assumono importanza decisiva in particolare il tasso di accumulazione ed il contesto istituzionale; il primo perché incorpora le innovazioni che influenzano la produttività del lavoro, il secondo in quanto riflette gran parte delle esternalità che condizionano che condizionano i processi produttivi. È evidente quindi che nel lungo periodo possono emergere discordanze anche notevoli fra i tassi di sviluppo del reddito e dell’occupazione nei diversi paesi, determinando differenze che non risultano spiegabili in base alle condizioni generali. 78 àProduttività, competitività e margini di profitto Lo schema esaminato ha un limite che è costituito dal considerare solo indirettamente i prezzi, considerando sostanzialmente sinonimi i termini produttività e competitività, i quali in un sistema aperto alla concorrenza internazionale non sono necessariamente coincidenti. Infatti pur registrando andamenti positivi della produttività fisica, un settore potrebbe perdere competitività in seguito ad una dinamica di costi unitari più accentuata di quanto accade ai propri concorrenti, oppure alla comparsa di concorrenti che sostengono costi di produzione meno elevati o che possono praticare prezzi più vantaggiosi per il mercato. Il circolo virtuoso domanda – produttività – domanda che può essere indotto dal modello di Kaldor-Verdoorn potrebbe interrompersi a causa della sottrazione di quote crescenti del mercato da parte di nuovi competitori, i quali fruiscano di costi unitari del lavoro inferiori o comunque di elementi che ne stimolano maggiormente l’incremento della competitività. Il modello dovrebbe perciò considerare in modo esplicito non solo le variazioni della quantità, ma anche il livello dei prezzi e dei costi di produzione -- > pq = wL + cq + MOL 79 Capitolo 19 Politica industriale in Italia. L’intervento pubblico. Scorcio storico (1945-1980) Sono ben conosciute le caratteristiche del processo di sviluppo italiano: fattori originari, come ritardato avvio del processo di industrializzazione e protezionismo doganale, e caratteristiche dello sviluppo (estensione area pubblica e dualismo fra Nord e Mezzogiorno). Struttura italiana caratterizzata da una particolare forma di dualismo: accanto ad un numero ristretto di grandi imprese convive una moltitudine di imprese di piccole dimensioni con caratteristiche ed esigenze in contrasto con le prime. La storia dello sviluppo industriale italiano è la storia di uno sviluppo incompiuto, nel senso che il fenomeno dell’industrializzazione ha riguardato una parte soltanto della società e del territorio. I rapporti fra governo e industria dal dopoguerra si sono versi nel quadro di una progressiva abolizione della protezione doganale, e di qui un ulteriore esigenza di sostenere l’offerta con trasferimenti ed altri sostegni di carattere finanziario. La debole struttura dell’industria italiana non era in grado di provvedere in via autonoma, sostituendo alle protezioni tariffarie protezioni oligopolistiche, che consolidassero la presenza italiana in determinate aree di mercato. Il filo conduttore della politica industriale italiana è costituito dalla continua oscillazione fra la necessità di fare riferimento ai tradizionali punti di forza dell’industria del nostro paese e decisione di avviare un nuovo modello di sviluppo. In questa alternanza le vicende congiunturali anno fatto quasi sempre prevalere la prima fra le istanze citate. L’Italia non ha mai vissuto le intense esperienze di pianificazione industriale sperimentate nell’ultima fase del conflitto mondiale da Germania ed Inghilterra, né la rigida programmazione inaugurata in Francia ed Olanda nel periodo post bellico. àDopoguerra e i primi studi sulla programmazione (1945-1947) Primi interventi sull’industria rispondono alla necessità di rifornimento di materie indispensabili per la ripresa dell’attività industriale, oltre a riferimenti alimentari. Il primo documento di cui si ha notizia è il “Piano di primo aiuto” del 1945, redatto dal Cir e dalla commissione alleata di controllo, modificato in seguito al recupero dei territori occupati. Esame delle potenzialità produttive dell’industria italiana e un quadro relativamente dettagliato dei fabbisogni di importazioni e di merci. L’obiettivo di tali studi non era quello del mutamento strutturale del sistema, ma quello di eliminare possibili strozzature allo sviluppo dell’industria. Tentativo che merita menzione è lo studio effettuato per conto del Consiglio economico nazionale della Democrazia cristiana da Saraceno. In esso si propone la pubblica amministrazione come elemento centrale della programmazione e della politica industriale (esplicita richiesta di creare una solida base di domanda interna per lo sviluppo industriale). La strada che verrà poi effettivamente imboccata sarà l’opposto: rapporto fra pubblica amministrazione ed industria verterà sui trasferimenti alle imprese, destinati a divenire col tempo sempre più generalizzati e massicci. àAmministrazione centrista di De Gasperi (1948 – 1953) Periodo che si inaugura con la stesura di un nuovo piano del Comitato interministeriale per la ricostruzione (Cir), reso necessario per l’utilizzazione dei fondi messi a disposizione dal piano Marshall. Obiettivo dominante è il riequilibrio dei conti con l’estero, e lo strumento principale è un meccanismo che consenta di attivare i settori esportatori (Fondo Imi-Erp, concessione di finanziamenti per consentire ad aziende industriali italiane l’acquisto di materie prime, macchinari, attrezzature, beni e servizi occorrenti alla ricostruzione e allo sviluppo dell’esportazione italiana). Chiara era quindi la scelta originaria della politica industriale italiana: da un lato, spinta verso economia aperta mediante sviluppo dei settori esportatori, dall’altro attivazione di meccanismi di trasferimento in modo da guidare lo sviluppo dei settori secondo gli obiettivi politico-economici prestabiliti. La politica settoriale che ispirava l’utilizzazione del Fondo emerge dal comportamento del Cir, che fissava alcuni criteri di priorità riguardanti determinati settori chiave dell’economia industriale italiana, e precisamente la siderurgia, fonti di energia, industria meccanica e chimica. In questo triennio fu condotto anche il primo tentativo di mettere a punto moderni strumenti di analisi per il governo dell’industria, con la costruzione della matrice Chenery e Clark; l’andamento effettivo dell’industria fu più brillante delle previsioni. A tale impostazione facevano contrasto le richieste della sinistra che chiedeva che il motore dello sviluppo non fosse costituito dalla domanda estera ma dai lavori pubblici. Su questa linea muoveva il “Piano del lavoro” proposto dalla CGIL nel 1949; tale programma anticipava alcuni temi tuttora al centro del dibattito politico-economico. Un ultimo tratto di politica industriale da rilevare in questo periodo è l’atteggiamento nei confronti della mobilità, 80 cioè degli interventi a sostegno delle imprese in crisi. Numerose imprese dell’area privata furono indotte alla chiusura dalla interruzione del flusso delle commesse e dall’incapacità di ricollocarsi nel campo delle produzioni civili. Diverso fu il caso dell’industria cantieristica; data le obiettive difficoltà di ricollocare la mano d’opera esuberante in altri settori, ci si trovò di fronte alla necessità di condurre un intervento di sostegno nel settore, in grave crisi per mancanza di commesse. A questo scopo venne istituito il Fondo industria meccanica, che doveva somministrare credito alle imprese impossibilitate a utilizzare le vie ordinarie; il Fondo poteva tuttavia anche intervenire acquistando partecipazioni, e per questa via si determinò rapidamente un allargamento dell’area pubblica nell’industria. Tale intervento inaugura un altro tratto caratteristico della politica pubblica per l’industria: sostegno di imprese in crisi mediante trasferimenti da parte dello Stato, nonostante nelle fasi iniziali tali trasferimenti furono modesti (sostegno alla meccanica in crisi e ai cantieri da parte di Iri e Efim parti a 20\25 miliardi di lire annui tra il 1946 ed il 1955. àLa politica industriale nello “schema Vanoni” Con il 1953 si può dire concluso il periodo della ricostruzione, e la politica industriale inizia ad essere influenzata dal radicale cambiamento degli obiettivi generali di politica economica. Si passa infatti al prevalere dell’obiettivo della piena occupazione, e dell’attenuazione degli squilibri territoriali fra Nord e Mezzogiorno. Le linee guida della politica economica risultano chiaramente definite nello “schema di sviluppo dell’occupazione e del reddito in Italia nel decennio 1955-1964”, meglio noto come Schema Vanoni. Tale documento identificava come obiettivi: • • • Uno sviluppo annuo del reddito nazionale del 5% Creazione di 4 milioni di posti di lavoro aggiuntivi Riduzione degli squilibri territoriali fra Nord e Sud Tenendo conto di una previsione di incremento della produttività del 3% annuo ed un tasso medio annuale di risparmio del 18% ne derivava che la compatibilità fra la creazione di 3,2 milioni di posti di lavoro e le formazioni previste di capitale si realizzava con un fabbisogno di capitale per addetto di 1,5 milioni di lire. Lo schema appariva particolarmente debole sotto il profilo della strumentazione. A questo scopo fu costituito un “comitato per lo sviluppo dell’occupazione e del reddito” presieduto da Saraceno, che produsse sei memorie, due delle quali avevano diretto rilievo per la politica industriale. Il primo fra gli studi citati riguarda l’energia elettrica, con l’obiettivo di determinare le occorrenze di carattere finanziario connesse allo sviluppo del settore. Un effettivo contributo dello Schema Vanoni sul piano della politica industriale si ebbe nel campo della siderurgia: Sviluppo del settore siderurgico, primo piano di settore predisposto in Italia. Il piano siderurgico si articola in una valutazione della domanda di acciaio proiettata al 1962, nella stima dell’andamento dell’offerta, distinguendo offerta proveniente dalla trasformazione di minerale da quella proveniente dal rottame, in una analisi dell’opportunità della costruzione di un grane stabilimento a ciclo integrale. La conclusione del programma settoriale è favorevole alla costruzione del nuovo centro e alla sua localizzazione nel Mezzogiorno. Il piano dette luogo al centro siderurgico di Taranto, primo ed unico esempio di realizzazione diretta di programmazione settoriale nel quadro dello Schema Vanoni. In realtà però non è agevole stabilire se la realizzazione del centro siderurgico di Taranto fosse il risultato di una azione programmatoria del governa oppure il governo; cioè se il programma siderurgico non sia stato altro che la sanzione formale di un programma aziendale già sviluppato in dettaglio da parte dell’Iri, a cui il programma settoriale aggiunse solamente il crisma dell’ufficialità. L’Iri infatti aveva già svolto in modo autonomo un impegnativo programma di riconversione; inoltre, alla ripresa dell’attività di programmazione, gli organi dello Stato furono accusati di svolgere un ruolo esclusivamente notarile nei confronti della volontà delle imprese, e di concedere quindi i pareri di conformità del Cipe solo sulla base delle richieste avanzate dalle imprese senza tentare di determinarne gli indirizzi. Di fatto quindi la programmazione industriale si trasferisce definitivamente in questo periodo all’interno delle imprese stesse. Ciò deriva in parte dalla oggettiva debolezza della programmazione nazionale, in parte dal fatto che il brillante andamento dell’industria, trascorsa la depressione del 1957-58, superava largamente i traguardi stabiliti dalla programmazione, per cui si faceva strada il principio della non ingerenza in meccanismi la cui efficienza superava le aspettative. Inoltre i personaggi più rappresentativi della politica industriale italiana ritenevano inapplicabili al nostro paese gli schemi di programmazione messi in atto all’estero. Le politiche di settore prendono dunque forma all’interno dei maggiori gruppi. La politica pubblica di governo dell’industria si vale piuttosto di strumenti orizzontali, come incentivi per industrializzazione del Mezzogiorno e trasferimenti a favore di particolari categorie di imprese. Fra tali trasferimenti lo strumento di maggiore rilievo 81 attivato nel periodo è la legge 623/1959, per il credito agevolato alle piccole e medie imprese, congiuntamente all’istituzione del Mediocredito Centrale. Tale legge nasce sulla scorta delle preoccupazioni suscitate dalla recessione del ’58, ma giunge in ritardo quando l’economia è ormai entrata nella fase di ripresa. La legge coglierà l’obiettivo di favorire l’allargamento della base industriale delle aree di industrializzazione tradizionale (Lombardia-Piemonte-Liguria) e nuove aree del Centro Nord, il cui sviluppo si fonda appunto sulle imprese di piccole e medie dimensioni. Ha inizio la tendenza alla moltiplicazione dei centri di governo dell’industria. Un giudizio negativo invece viene espresso in riferimento alla legge 1470/1961; tale legge apre la strada ad interventi assistenziali totalmente in contrasto delle regole della concorrenza che avevano ispirato la politica industriale, inducendo nel sistema elementi di rigidità che troveranno applicazione sempre più frequente negli anni successivi. àLa fine della rapida crescita. Il prevalere degli strumenti di breve periodo (1963-1968) Periodo di transazione dallo “Schema Vanoni” al “Programma economico nazionale, 1965-1969” conobbe un brusco mutamento del quadro economico e politico. Si riscontrò infatti una impennata inflazionistica dell’economia ed un netto peggioramento dei conti con l’estero, dovuti al forte aumento del costo del lavoro ed ai timori diffusi fra la borghesia imprenditoriale dalla nazionalizzazione dell’energia elettrica. La situazione determinò il doppio effetto della flessione dei margini di profitto e della comparsa di un consistente deficit nella bilancia commerciale. In questa prospettiva si producono rapidamente alcuni avvenimenti che segneranno in modo duraturo le linee di sviluppo dell’industria italiana negli anni successivi. La prima considerazione riguarda la contrapposizione di interessi che viene apparentemente a formarsi nell’ambito del sistema industriale. Nella lunga fase di sviluppo che precede la crisi del 1963-64 i fattori trainanti la crescita industriale sono sicuramente la domanda estera e la domanda di beni strumentali. In tale fase non esiste alcuna contraddizione fra settori ad alta intensità di lavoro e orientati all’esportazione e settori pesanti, ad alta intensità di capitale, meno competitivi all’estero ma con una base sufficiente per lo sviluppo interno. Il rialzo del costo del lavoro e l’avvio di un processo di inflazione interna sospinto dai costi determina una perdita di competitività all’estero che propone ai due emisferi dell’industria italiana strategie diverse. Per l’industria ad alta intensità di lavoro il problema centrale è il recupero della competitività, che apparentemente può essere raggiunto tramite una manovra restrittiva che elimini il fattore originario di squilibrio. Per l’industria pesante l’inflazione interna non rappresenta un pericolo immediato, ed anzi, nelle opinioni correnti favorirebbe un processo di alleggerimento dell’indebitamento finanziario. La seconda considerazione riguarda la strumentazione con la quale il governo si trovava nella fase in parola. Dal lato degli strumenti di medio periodo non vi era nulla. Gli unici strumetni erano dunque costituiti dalla politica monetaria e creditizia e dalla politica dei trasferimenti mediante le leggi di agevolazione finanziaria. Per quanto riguarda l’uso di strumenti strutturali, quale il sistema delle partecipazioni statali, si manifestano numerosi contrasti fra chi vorrebbe vedere le imprese pubbliche quale strumento in grado di supplire le deficienze dell’iniziativa privata e chi ad esse preferirebbe assegnare un ruolo autonomo, da definirsi all’interno dei gruppi medesimi. Nei fatti le imprese a partecipazione statale sono ancora largamente autosufficienti sotto il profilo finanziario, e dunque meno condizionabili dal potere politico di quanto in seguito accadrà. In tale periodo di transizione si intensificano le pressioni sul sistema delle partecipazioni statali per gli interventi di salvataggio delle imprese in crisi. Sugli orientamenti da assumere nell’uso degli strumenti congiunturali le autorità monetarie sembrarono oscillare per un breve periodo. Di fronte alle resistenze che le autorità monetarie internazionali avrebbero dimostrato all’ipotesi di una eventuale svalutazione della lira, non restava altra via praticabile se non quelle della politica deflativa, che ha inizio con la restrizione creditizia della seconda metà del 1963. È evidente che la manovra di stabilizzazione colpisce più violentemente i settori a più alta intensità di lavoro. Dall’esperienza maturata attorno alla crisi del ’63-’64 e alla successiva stabilizzazione hanno origine due ordini di riflessioni che accompagneranno la politica industriale italiana, e si manifesteranno in specifiche scelte al ripresentarsi di fenomeni di crisi (1971): a. La prima riflessione riguarda gli effetti direzionali della politica monetaria dell’industria. Si fa strada la tesi secondo cui gli effetti della politica monetaria sarebbero assai più avvertiti dalle imprese di dimensioni minori, in virtù della maggiore autonomia finanziaria di quelle maggiori. Sarebbe possibile utilizzare la politica monetaria in funzione di politica industriale, attuando una politica selettiva volta a favorire i settori più forti a danno delle imprese industriali destinate al declino. La strumentazione della strategia industriale si 82 b. volgeva dunque al breve periodo, proprio nella fase in cui per la prima volta vigeva un programma economico nazionale. La seconda riflessione riguarda la necessità di una ristrutturazione settoriale dell’industria italiana, per modificarne la composizione a beneficio di settori a più elevato contenuto tecnologico; anche come conseguenza della più spinta competizione internazionale seguita all’entrata in vigore del Trattato di Roma del 1960. Nell’industria italiana la differenziazione era relativa all’interno dei settori, in relazione a dimensioni delle imprese, livello delle tecnologie e qualità del management. Nasce quindi, come riflesso di taluni temi dominanti la cultura economica di allora e dei problemi posti dall’utilizzazione dei fondi messi a disposizione delle società ex elettriche dagli indennizzi, la bandiera della concentrazione. Essa si traduce, sul piano legislativo, nella legge 170\1965, che concedeva cospicue agevolazioni fiscali alle fusioni fra imprese, e sul piano della struttura industriale si traduce nella nascita di colossi nel campo di telecomunicazione e chimica (Sip, fusione tra Montecatini ed Edison). Appare evidente quindi, in relazione alle vicende di quel periodo, che la nazionalizzazione dell’energia elettrica e la riconversione dei gruppi ex elettrici rappresentarono la grande sfida perduta della strategia industriale italiana. Nel complesso, il PUBBLICO FECE MOLTO MEGLIO DEL PRIVATO: l’Iri tramite la Sip costruì una moderna rete di telecomunicazioni utilizzando gli indennizzi. Il tema della ricerca fu trascurato, e solo nel 1968 fu varato un provvedimento per la ricerca applicata, comunque non sufficiente a colmare il ritardo tecnologico dell’industria italiana, dovuto anche alle carenze della ricerca di base. Esso giungeva comunque troppo tardi, quando ormai si stava delineando una seconda e più grave crisi dell’industria italiana. Sul piano istituzionale, si registra nel periodo in esame una azione di riorganizzazione degli organi della programmazione economica. Il Cipe (Comitato interministeriale per la programmazione economica) sostituisce il vecchio Cir come organo di coordinamento dell’azione pubblica nell’economia. Al Cipe si affianca l’Ispe (Istituto studi per la programmazione economica) con il compito di procedere a indagini, ricerche e rilevazioni inerenti alla programmazione economica ai fini della preparazione dei documenti programmatici. àLa crisi dell’ ”autunno caldo (1969-1970) ed il fallimento della programmazione Come l’avvio del programma 1965-69 fu spiazzato dalla crisi recessiva, così l’avvio del nuovo ciclo di programma avvenne nelle condizioni peggiori. Si potrebbe sostenere che la strategia industriale italiana ha sempre fatto riferimento a “tre punti di forza”: a. b. c. Un costo del lavoro relativamente inferiore al livello medio degli altri paesi industrializzati Favorevole ragione di scambio fra manufatti industriali e materie prime, e fra materie prime e materie energetiche in particolare Andamento espansivo della domanda internazionale Tali punti di forza vengono a cadere e le preoccupazioni contingenti finiscono per prevalere sulle azioni di più ampio respiro. Sia il Rapporto preliminare al Programma economico nazionale 1971-1975, noto come “Progetto ‘80”, che i successivi documenti prodotti dal Ministero del Bilancio e dall’Ispe, mostravano una chiara coscienza della precarietà dei fattori di successo dell’industria italiana e identificavano un complesso di azioni orizzontali (riguardanti i fattori produttivi) e verticali (riguardanti specifici settori) da condursi nel quadro del programma, definite “Programma di promozione”: fra questi solamente uno vedrà la luce, il “Programma di promozione per l’industria chimica”. Alla fine del 1969 si avvia un ciclo analogo a quello del ’62-’64. Il costo del lavoro per unità di prodotto subisce un fortissimo aumento, e la manovra sui prezzi è bloccata dalla stabilità dei prezzi internazionali. Dunque, nuovamente, si determinano una caduta verticale dei profitti e l’allargamento del deficit commerciale. A differenza del ciclo precedente però la situazione sociale è più tesa, il che esclude la possibilità di una ristabilizzazione fondata su una indiscriminata manovra restrittiva; gli effetti della dinamica salariale nel ciclo 1970-72 influenzano in modo differenziato le performance dei settori. Di fronte alla nuova crisi la reazione istituzionale consiste nel varo di una nuova legge di sostegno al settore in maggiore difficoltà (“legge tessile” – 1101\1971 - ristrutturazione e riconversione imprese tessili) e nel tentativo di evitare una indiscriminata politica di salvataggi e di permanente allargamento della area pubblica nell’economia mediante l’istituzione della Gepi. Il maggiore limite della “Legge tessile” consisteva nella totale assenza di un riferimento strategico, cioè di criteri guida 83 che dessero un contenuto operativo ai termini ristrutturazione e riconversione. L’intervento dunque si risolse in una somma di trasferimenti dal settore pubblico alle imprese, trasferimenti forse opportuni per il sostegno di talune aziende, ma comunque difficilmente riconducibili alla logica della programmazione. La crisi peraltro non riguardava solamente l’industria tessile, ma si dimostrava acuta anche nei settori della chimica e della metallurgia. Le preoccupazioni dovute al persistere della crisi indussero il governo a proporre, ed il Parlamento ad emanare, una nuova legge di crisi, 464\1972, che estendeva le previdenze disposte dalla legge tessile agli altri settori industriali; le vicende singolari di tale legge forniscono una anticipazione delle difficoltà di conciliare una politica istituzionalizzata di trasferimenti all’industria con un rigoroso controllo sull’utilizzazione dei fondi, difficoltà contro le quali si scontrerà più tardi la più ponderata legge per il coordinamento della politica industriale del 1977. La legge 464\1972: • • Mira innanzitutto ad estendere i termini massimi di applicabilità della “cassa integrazione guadagni”, con l’evidente intento di alleggerire i conti economici delle imprese dal carico della mano d’opera in eccesso, aggirando anche il problema della mobilità, che a seguito della recessione costituiva il problema per eccellenza nei rapporti fra governo e industria. Prevedeva inoltre facilitazioni creditizie, sotto forma di contributi in conto interessi, e tributarie alle imprese che dessero corso a programmi di ristrutturazione e conversione dell’attività produttiva. Inizialmente lo stanziamento fu modesto, ma venne più volte rifinanziata fino a 813 miliardi complessivi. Tuttavia le procedure per l’istruzione, l’accoglimento delle domande e l’erogazione dei contributi furono rese così complesse che la legge decadde. L’esperienza della legge tessile insegna che i trasferimenti dello Stato alle imprese sotto forma di agevolazioni finanziarie rischiano di aggravare i problemi dei settori industriali, se la loro concessione ha luogo in assenza di un quadro di riferimento o di una strategia volta a pilotare la riorganizzazione del settore. Il grande sforzo di attuare una programmazione industriale concentrata, nell’ambito del Programma economico nazionale, fu condotto in riferimento all’industria chimica. Si diede la priorità all’industria chimica sia per la strategicità del settore sia proprio per la struttura del settore stesso: • • Elevatissima intensità di capitale rendeva efficace la principale arma della programmazione industriale: il parere di conformità del Cipe necessario per ottenere le agevolazioni finanziarie. Forte concentrazione del settore avrebbe reso più agevole la concertazione fra industria e governo. Il cosiddetto piano chimico si articola su due documenti. a. b. Dopo la delibera del Cipe, venne affidato all’Ispe il compito di svolgere gli studi necessari alla preparazione di un piano. Il “Rapporto preparatorio del programma di promozione per l’industria chimica”, redatto e sottoposto all’esame di autorità amministrative, sindacati e imprenditori nel 1971, sviluppava una analisi dell’industria chimica italiana ed esponeva alcune ipotesi e proposte per lo sviluppo della chimica primaria. Tale rapporto prevedeva una crescita tendenziale della produzione chimica nell’ordine del 10-11%. Il flusso di investimenti necessario era identificato in 4.500 miliardi di lire nel decennio, e l’effetto occupazionale in un saldo netto di 190.000 posti di lavoro aggiuntivi nel decennio. In base al rapporto preparatorio ed alle osservazioni raccolte, il Cipe predispose il “Progetto di promozione per l’industria chimica di base prima sezione”, a cui avrebbero dovuto seguire altre sezioni. Il piano chimico si risolse dunque in un piano che limitò il campo di indagine ai prodotti steam cracking della virgin naptha. Il progetto indicava i criteri strategici per la riorganizzazione e lo sviluppo del settore, la previsione di espansione delle capacità produttive ed i criteri per la valutazione dei programmi di investimenti. Il piano chimico si tradusse in un grave insuccesso. Per quanto il piano avvertisse chiaramente circa il rischio della creazione di una capacità produttiva eccedentaria, esso non riuscì a frenare la corsa delle imprese chimiche verso l’acquisizione di pareri di conformità, in un processo competitivo fondamentalmente basato sull’accrescimento della capacità produttiva. Il piano contribuiva ben poco a risolvere i problemi della chimica italiana: debolezza chimica secondaria, insufficiente efficienza nelle funzioni della commercializzazione, scarsità di ricerca e di innovazione. Ma la crisi della 84 chimica italiana fu piuttosto dovuta al ritardo con cui si diede avvio ai programmi di espansione delle aziende del settore; ritardo che fece si che queste ultime fossero colte dalla recessione e dalla inflazione mentre erano in corso programmi di investimento che si sarebbero alla fine rivelati troppo costosi e non strettamente indispensabili. Il fallimento della programmazione non risiede nel fallimento dell’ironia, ma piuttosto nella debolezza delle strutture amministrative, che nel periodo considerato non riuscirono a produrre sul terreno operativo altro se non lo sfortunato troncone di piano dedicato all’etilene. àLa prima crisi petrolifera (1973 – 1976) Alla lunga crisi attraversata dall’industria italiana aveva fatto riscontro una impasse dal lato governativo. La flessione dei margini di profitto prodotta dall’aumento del costo unitario del lavoro e della rigidità dei prezzi non aveva trovato risposta né in una manovra deflativa né in una inflativa. L’unico apparente effetto era stato una forte accelerazione dei processi di investimento labour saving da parte dell’industria, che dovevano essere finanziati con un massiccio ricorso all’indebolimento, vista la flessione dei margini di profitto. La crisi politica del 1972 aveva condotto alla fine dei governi di centro-sinistra; insieme alle delusioni prodotte dai tentativi di programmazione economica, ciò condusse al definitivo abbandono della politica di piano, all’inizio del 1973. L’azione di governo dell’industria volge quindi nuovamente agli strumenti di breve periodo, mentre si avvicina la crisi internazionale che seguirà al rialzo dei prezzi petroliferi e delle altre materie prime. • • • Potenziale inflazionistico accumulatosi tra il 1970-71 Seconda metà ’72 forti tensioni provenienti dal rialzo dei prezzi delle materie prime internazionali Entrata in vigore dell’Iva nel gennaio ’73 fornì occasione per un forte rialzo dei prezzi interni, che aumentò di oltre il 15%. Di fronte a tali fenomeni l’autorità monetaria decide di imboccare la via inflativa. Il 9 febbraio 1973 viene annunciata l’uscita della lira dal serpente monetario, il che di fatto si tradurrà in una svalutazione della nostra moneta di oltre il 14% fra gennaio e luglio. Dal punto di vista industriale la manovra viene accolta con evidente favore dai settori a più alta intensità di capitale, che nell’inflazione vedono il mezzo per ricondurre l’indebitamento a livelli fisiologici. Ma tutto ciò si rivelò un errore di valutazione: la necessità di controllare la svalutazione della lira indurrà le autorità monetarie a determinare un forte rialzo dei tassi di interesse. L’esplosione inflazionistica fa sorgere diffuse preoccupazioni, a cui si tenta di dare una risposta con provvedimenti di controllo dei prezzi. Il filo che connette i provvedimenti di svalutazione della lira con il controllo dei prezzi interni sembrerebbe quello di permettere alle imprese un recupero dei margini sulle vendite all’esportazioni, mantenendo bloccati i margini interni. Dopo aver prodotto risultati deludenti, il controllo dei prezzi viene abbandonato nel luglio 1974. L’aumento del prezzo delle materie prime iniziato nel 1972 faceva venir meno il secondo punto, tradizionale riferimento della strategia industriale italiana: la favorevole ragione di scambio fra le nostre esportazioni di manufatti e le importazioni. Tuttavia i tratti caratteristici della crisi non appaiono immediatamente in modo chiaro; il rialzo dei prezzi internazionali dà l’avvio ad un ciclo di scorte per cui le imprese possono migliorare nettamente i loro margini, i quali raddoppiano nel corso del 1973. Nel ’74 rimangono costanti, mentre il volume delle vendite registra un aumento record del 44%, in massima misura imputabile ai prezzi. Di contro però gli oneri finanziari raddoppiano nel corso dell’anno, comportando una flessione dei margini netti, e mettendo in evidenza gli effetti del perverso meccanismo inflazione-tassi di interesse. Puntualmente, nel 1975 si registra anche la flessione della domanda, ultimo elemento mancante per toccare la crisi. La manovra di controllo dell’economia nel breve periodo che tenta di reagire alla recessione mediante una politica monetaria permissiva si traduce in un grave insuccesso. All’inizio del 1976 la lira subisce una nuova forte svalutazione e i tassi di interesse sono ricondotti a livelli altissimi, mentre i margini lordi dell’industria cadono al di sotto del 2% del fatturato. La spirale inflazione-svalutazione del cambio ha colpito di più i settori ad alta intensità di capitale rispetto ai settori ad alta intensità di lavoro. La svalutazione del cambio ha nel complesso consentito di recuperare i differenziali del costo e del lavoro italiano rispetto all’andamento degli analoghi costi all’estero, mentre l’enorme aumento degli oneri finanziari non poteva essere recuperato con aumenti dei prezzi, la cui entità avrebbe posto fuori mercato le imprese che operano in concorrenza internazionale. Gli effetti della crisi tendono a scaricarsi in modo più sensibile sulle imprese di più grandi dimensioni, che risultano assai più indebitate. Alle considerazioni interne vanno aggiunti elementi derivanti dal mutato quadro di competizione internazionale, che indebolisce la competitività italiana in alcuni settori di base e di altri settori tradizionali. 85 La flessione dei margini colpisce soprattutto i settori della chimica, gomma, carta, alimentare e tessile. Analogamente vi è un ridimensionamento dei medesimi settori, a cui si aggiungerà poi la crisi della siderurgia. La crisi del 1975 mostra tre elementi di sintesi che focalizzano l’attenzione delle autorità di governo dell’economia: 1. 2. Crisi finanziaria delle imprese, che si manifesta nell’aumento del peso degli oneri finanziari sul fatturato: aspetto all’origine di una proposta del governatore Carli, mirante, nella forma, ad una grandiosa operazione di consolidamento dei debiti a breve accumulati dall’industria, nella sostanza, ad un radicale mutamento della struttura dell’industria italiana, che ne avrebbe avvicinato il modello organizzativo a quello tedesco. La proposta mirava ad un coordinamento nelle politiche delle imprese grazie ad un maggior coinvolgimento del sistema bancario, come dimostrava appunto l’esperienza tedesca; la formulazione della proposta però apparve troppo radicale, suscitando una forte resistenza. Caduta degli investimenti; 3. Problemi connessi alla mobilità del lavoro: due aspetti all’origine di una proposta governativa dedicata al “coordinamento della politica industriale e la ristrutturazione del settore”. La proposta prevedeva istituzione di un Fondo per la ristrutturazione, la riconversione e lo sviluppo industriale, dotato di 2.500 miliardi di lire, la cui amministrazione sarebbe spettata ad un organo interministeriale di nuova costituzione: il Cipi; a tale organo, comitato interministeriale per la politica industriale, si demandava il compito di mettere a punto i lineamenti di una strategia industriale, nel quadro di un piano a medio termine. La proposta inoltre delineava alcuni interventi per favorire la mobilità del lavoro nelle imprese. La reazione dei partiti non governativi fu negativa, al punto che il progetto “Moro- La Malfa” dell’agosto 1975 fu una delle non trascurabili fonti della crisi del governo bipartito e della fine anticipata della legislatura. Gli ultimi atti della legislatura sul piano industriale sono costituiti dal varo della legge 183\1976, “Disciplina dell’intervento straordinario nel Mezzogiorno per il quinquennio 76-80. Questa si poneva come obiettivo quello di riordinare il credito agevolato all’industria, misura necessaria e urgente il cui compimento avverrà nella legislatura successiva. Da ultimo il governo predispose uno strumento inteso ad assicurare un maggior coordinamento dello sviluppo industriale, subordinando all’autorizzazione del Cipe l’effettuazione di investimenti agevolati per importi superiori a 500 milioni di lire, e di qualsiasi investimento di importo superiore a 10 miliardi di lire. àLa politica dei piani di settore La gestione dell’economia di breve periodo non aveva risolto i problemi di fondo dell’industria, che invece risultavano aggravati. Strategia volta a recuperare la competitività industriale per mezzo della svalutazione del cambio aveva accelerato la dinamica della crisi finanziaria dell’industria pesante. Inoltre si era resa necessaria una moltiplicazione degli interventi di sostegno mediante trasferimenti dallo Stato alle imprese. I trasferimenti avevano l’effetto di attenuare la capacità dell’area di mercato di resistere alla imposizione dei vincoli e alle richieste volte a portare il sistema al livello delle aspirazioni. La caotica disciplina che regolava i trasferimenti dava luogo a distorsioni che sono state al centro di una polemica pubblicistica non da poco. Inoltre, la copertura attuata dallo Stato ad una serie di oneri impropri che a vario titolo gravavano sulle imprese aveva in parte concorso a rendere ingovernabile la spesa pubblica ed a falsare i meccanismi di funzionamento del mercato del credito. Il riordino dei meccanismi del credito agevolato ha inizio con il d.P.R 902\1976, istitutivo di un fondo nazionale per il credito agevolato al settore industriale, recante disposizioni volte ad armonizzare i criteri per la corresponsione delle agevolazioni. Per quanto il provvedimento fosse necessario, esso si prestava in modo indiretto alla formulazione di indirizzi di sviluppo industriale. Piuttosto il provvedimento era in grado di bloccare talune iniziative, ma non di promuovere altre giudicate coerenti agli obiettivi dell’azione di governo dell’industria. La successiva delibera Cipe di attuazione infatti sospendeva la concessione di contributi ad investimenti espansivi attuati in settori nei quali si giudicava eccedentaria la capacità produttiva. La diffusa preoccupazione che il fondo fosse utilizzato per interventi di salvataggio di grandi gruppi in crisi dettò una norma che non escludeva alle agevolazioni le imprese di grandi dimensioni. L’intento si scontra con alcuni problemi posti dalla concreta attuazione della programmazione industriale. Il dialogo diretto fra governo e industria per determinare comportamenti imprenditoriali coerenti alle scelte della PA in materia industriale, ha prevalentemente riferimento alle grandi imprese. L’esclusione di queste dalle agevolazioni privava la parte governativa del tradizionale strumento di pressione sulle imprese maggiori. Il dilemma relativo alla valutazione comparata dei rischi e dei benefici associati alla ammissibilità delle grandi imprese alle agevolazioni finanziaria e alla 86 loro esclusione, si è risolto con un provvedimento che riammette le imprese maggiori agli incentivi finanziari. La seconda tappa del processo di adeguamento della istituzione di riassetto dell’industria ebbe inizio con la presentazione di un nuovo progetto di legge, che in parte riprendeva i contenuti del progetto Moro-La Malfa), nell’ottobre 1976. Tale progetto prevedeva: a. b. c. d. e. Istituzione del Cipi (Comitato interministeriale per il coordinamento della politica industriale), al quale spettavano: elaborazione di direttive per organizzazione e sviluppo del sistema industriale e individuazione dei settori per i quali si ritiene necessario uno specifico quadro programmatico di interventi. Stanziamento di cospicui fondi di finanziamento per investimenti di ristrutturazione e riconversione in coerenza con gli indirizzi strategici elaborati dal Cipi. Rifinanziamento del fondo di ricerca Imi. Criteri per favorire la mobilità della mano d’opera. Definizione delle aree alle quali limitare gli interventi di salvataggio della Gepi. Il disegno di legge, più volte modificato, diede luogo alla legge 675/1977, intitolata “Provvedimenti per il coordinamento della politica industriale, la ristrutturazione, la riconversione e lo sviluppo del settore”. La successiva delibera del Cipi identificò le aree di intervento in sette grandi settori ed in tre linee orizzontali, per le quali il Ministero dell’Industria avrebbe dovuto predisporre “programmi finalizzati”. Fu rapida la elaborazione di quest’ultimi, ma non altrettanto rapide furono le discussioni fra le parti sociali. Nei fatti tale legge risulta in più parti ambigua circa la definizione di indirizzi e metodologie. Essa rappresenta: • • In parte una legge di riordino del credito agevolato che colma le lacune della legge 183\1976 In parte una legge di riforma che introduce nuovamente i metodi della programmazione nel governo dell’industria. Questi tuttavia non sono chiaramente definiti. L’esigenza di salvaguardare la legge da utilizzazioni improprie avevano portato innanzitutto ad introdurre una norma (emendamento Andreatta-Grassini) relativa ad un massimale di indebitamento, oltre il quale le imprese non avrebbero potuto fare ricorso alle agevolazioni, e, in secondo luogo, a stabilire la finanziabilità esclusivamente per nuovi investimenti. La legge 675\1977 ha certamente deluso chi si aspettava un intervento taumaturgico capace di risolvere i problemi dell’industria. L’incredibile ritardo intercorso fra formulazione originaria e operatività del progetto ha anche impedito il raggiungimento degli obiettivi contingenti alla base della proposta, relegando la legge alla cronaca dei molti tentativi incompiuti di programmazione, nonostante la metodologia originale, ricca di rimandi microeconomici, offre strumenti utili. àPiani di settore e strategia industriale Il tratto più originale della legge per il coordinamento della politica industriale nei confronti dei precedenti interventi sull’industria era costituito dal passaggio del regime degli incentivi finanziari dal principio della automaticità al principio della discrezionalità. Mentre nella legislazione industriale precedente si prevedeva una sorta di automatismo, per il quale un’impresa che si trovasse in date circostanze maturava una sorta di diritto a ricevere l’agevolazione prevista dalla legge, nel caso della legge 675\1977 si prevedeva che la validità dell’iniziativa da agevolare fosse vagliata dal Cipi, alla luce degli indirizzi delineati dai programmi finalizzati di settore. Veniva quindi introdotta una formalizzazione dei rapporti fra governo e industria già sperimentata in Francia e GB. I programmi settoriali predisposti dal Ministero dell’Industria coprivano una aliquota rilevante del settore industriale, con oltre 3 milioni di addetti, e riflettevano la presenza di caratteri strutturali e problematici dei settori sottostanti affatto eterogenei. Il contenuto dei programmi può essere scisso in due momenti principali, che recepiscono le direttive formulate del Cipi: 1. 2. Fase analitico-conoscitiva: volta ad identificare le caratteristiche strutturali dei settori, le uniformità di comportamento ed i fattori esplicativi di questi ultimi; i fattori che influenzano la performance dei settori e le aree problematiche comuni di ciascun settore. Sotto questo profilo i piani di settore forniscono elementi di indubbia utilità non solo per scelte di carattere settoriale, ma anche per offrire all’esecutivo e al Parlamento indispensabili basi di conoscenza dei meccanismi di funzionamento e delle problematiche dell’industria. I piani dunque servono a colmare il gap informativo fra governo ed industria. Fase politico-propositiva: volta alla soluzione di specifici problemi dell’industria, a fornire quindi criteri operativi per le decisioni del Cipi. 87 Scorrendo tali piani il profilo dell’industria italiana si fa più nitido. È possibile dunque distinguere nelle aree di crisi che hanno origine di crisi di sbocchi, e che quindi richiedono di un migliore coordinamento dello sviluppo dell’offerta da realizzarsi a livello nazionale e comunitario. Nel complesso, l’immagine dell’industria italiana che emergeva da tale anili è quella di un sistema industriale che ha avuto uno sviluppo diffusivo, fondato prevalentemente sull’allargamento delle gamme qualitative dei prodotti offerti, e assai meno sulla specializzazione in produzioni qualificate. L’ulteriore sviluppo dell’industria italiana quindi deve avvenire superando la tradizionale debolezza tecnologica, ma anche mediante un miglioramento dei metodi di commercializzazione. Se è vero però che l’elevato frazionamento della struttura dell’offerta industriale costituisce un serio limite all’adozione di tecniche di commercializzazione che caratterizzano gli oligopoli differenziati, non è meno vero che l’elasticità e la flessibilità proprie delle unità aziendali di minori dimensioni hanno rappresentato uno dei più notevoli punti di forza dell’industria italiana nella competizione internazionale. Per questo motivo i programmi di settore accordavano una netta preferenza a sperimentazioni di carattere associativo, sulla cui efficienza si può avanzare qualche dubbio. Sotto i profilo delle prospettive occupazionali l’industria italiana ha raggiunto la fase della maturità. Dal punto di vista delle prospettive di riequilibrio della distribuzione territoriale dell’apparato produttivo, i programmi di settore evidenziano quanto poco ci si possa attendere in questo campo di carattere settoriale. I programmi di settore hanno anche suscitato qualche atteggiamento ostile che ha indotto alcune parti a reclamare la liquidazione dell’esperimento e il passaggio ad altre forme di programmazione. Tale atteggiamento, giustificato sì dai limiti metodologi della programmazione, è però molto rischioso. Invece che inseguire permanentemente lo strumento ottimale di definizione dei rapporti fra governo e industria, sarebbe convenuto fermarsi su uno strumento ed introdurre progressivamente le modifiche e gli aggiustamenti suggeriti da esperienza e esigenze funzionali. L’esperienza quindi condotta nel nostro paese in questa fase mette in evidenza gravi limiti che si incontrano nella messa a punto di programmi di settore riferiti ad una parte soltanto del sistema industriale. La performance di un settore si spiega solo parzialmente con fattori interni al settore stesso, e l’analisi quindi in questo modo esclude buona parte dei problemi rilevanti. Vi è quindi l’esigenza di estendere l’analisi all’intero sistema industriale, per cogliere le economie esterne di conoscenza che si possono ricavare da un complesso di studi che non trascuri importanti segmenti della realtà e della problematica industriale. D’altra parte però i programmi di settore forniscono il quadro di riferimento per le decisioni strategiche potendone costituire uno strumento di attuazione. I programmi di settore, superato lo stadio conoscitivo inziale, debbono fondarsi sulla collaborazione fra governo, imprenditori e sindacati, mediante periodiche discussioni e revisioni dei programmi. Il coinvolgimento delle tre parti non si limita agli aspetti conoscitivi, ma si dovrebbe estendere anche all’aspetto decisionale, in modo che le parti in causa siano pienamente informate dei differenti profili di problemi, rendendosi responsabili degli atti da compiere e delle decisioni prese. Inoltre, i programmi non possono prescindere dall’esistenza di un quadro di interventi a livello nazionale che definisca le linee di riferimento, e che stabilisca una politica dei fattori produttivi. Uno dei maggiori problemi con i quali i programmi di settore hanno dovuto confrontarsi è quello della crisi dei grandi gruppi; in relazione a tale problema si stanno mettendo a punto ulteriori strumenti di intervento: la legge per il risanamento finanziario delle imprese, che permette l’intervento diretto del sistema bancario, filtrato dai consorzi nelle imprese industriali, ed il provvedimento di riforma delle procedure concorsuali per i grandi gruppi. La brusca fine della legislatura impedì il completamento del disegno di riforma di intervento sull’industria. Durante questo periodo la fisionomia dell’industria italiana ha mostrato importanti cambiamenti: consolidamento di nuove aree di industrializzazione e rafforzamento del ruolo delle imprese di media dimensione. Rivitalizzazione dell’industria prodottasi mentre la faticosa opera di riforma conduceva ad una virtuale paralisi dei tradizionali strumenti di intervento dello Stato, conferma l’ipotesi di chi ritiene non applicabili al contesto italiano le esperienze di programmazione vissute in altri paesi europei. La riscoperta del mercato e dei comportamenti che lo Stato deve seguire per assicurarne il funzionamento ha esercitato una notevole influenza nella estensione dell’ultimo documento da richiamare: il testo del “Piano triennale 1979-81” definiva i problemi della politica industriale italiana in due categorie fondamentali di problemi: il risanamento delle aree di perdita e lo sviluppo della base produttiva. In entrambi i casi la filosofia del piano appariva più orientata al mercato di quanto non fosse stato dato rilevare in alcuni dei documenti succedutisi dallo Schema Vanoni in poi. àLe svalutazioni competitive negli anni della transizione verso la regolazione dei mercati e la privatizzazione (19791990) 88 Gli anni ’80 hanno segnato l’inizio della fine delle politiche di piano, con i correlati interventi a pioggia di incentivi e benefici finanziari, pur mantenendosi qualche forma di interventi agevolativi per la nascita e il consolidamento delle piccole-medie imprese, per le regioni sottosviluppate e quelle che necessitano di processi di riconversione. Le cause di questa svolta si riconoscono in tre categorie principali: 1. 2. 3. Constatazione della inadeguatezza dei risultati conseguiti rispetto a quelli attesi. Decennio fece registrare crisi di alcune industrie sulle quali lo sviluppo pianificato faceva affidamento, e la contemporanea affermazione di industrie costituite da piccole e medie imprese, come la moda e l’arredamento, trascurate dalla programmazione. Crisi delle grandi imprese, soprattutto pubbliche, faceva venire meno lo stimolo a coordinare piani strategici di queste ultime con i piani di carattere nazionale, come avveniva in passato. A livello teorico, la rivoluzione della scuola di Chicago ed il relativo indirizzo free trade dei governi Reagan e Thatcher, la rivoluzione dei trasporti e della telecomunicazione, e gli accordi Gatt, resero del tutto obsolete le idee alla base della programmazione. A ciò fece da corona il “Libro Bianco (1985)”, promossa dall’allora presidente della commissione europea che decretò l’aprirsi di una nuova fase della politica industriale, nella quale le dottrine e la prassi concernenti proprietà pubblica, protezioni e incentivi vennero sostituite dalla filosofia del mercato e delle regole. Nonostante l’abolizione del Cipi e del Cip e della moltitudine di Comitati interministeriali tarderà fino al 1993, essi furono strumenti del tutto desueti per tutto il corso degli anni ’80. Mentre si faceva strada la visione delle funzioni regolatrici, non interventiste, del governo nei confronti dei mercati, lo stesso Cipe sopravvisse trasformandosi in un organismo decorativo, dopo l’incorporazione del Ministero del Bilancio in quello del Tesoro. Negli anni della transizione fra i tentativi frustrati del dirigismo e gli anni’90 l’illusorio tentativo di mantenere e di recuperare competitività all’industria italiana fu nella sostanza affidato alla sottovalutazione del cambio della lira rispetto alle altre principali valute del nostro interscambio commerciale. Si veniva così a creare un effetto protezionistico generalizzato perché la sottovalutazione favoriva le esportazioni e sfavoriva le importazioni. Gli elevatissimi tassi di interesse, elevati per non lasciare spazio a inflazione e svalutazione, rendevano proibitivi gli investimenti di rinnovo delle capacità produttive, creando le condizioni per le catastrofiche vicende monetarie dell’inizio degli anni’90, quando la lira svaluto di oltre il 50% e nel settembre 92 l’Italia si trovò sulla soglia del default finanziario. 89 Capitolo 20 La crisi della produttività e della crescita (1995-2010) Italia e i suoi risultati economici hanno sempre rappresentato un caso enigmatico per gli economisti; purtroppo negli anni recenti l’Italia non ha rappresentato, come in passato, un caso di economia in rapida crescita, ma bensì un caso di un’economia a crescita zero: • • Invecchiamento della popolazione: gravi problemi in termini di produttività e welfare. Età media più alta d’Europa, numero della popolazione diminuirebbe se non vi fosse l’immigrazione. Elevato indebitamento del settore pubblico Esistono tendenzialmente tre scuole principali di pensiero economico contemporaneo: a. Scuola che focalizza l’incertezza, la domanda effettiva, la domanda aggregata ed il meccanismo del moltiplicatore-acceleratore (J.M.Keynes, Cambridge). b. La scuola neomonetarista che si concentra sull’operatività dei mercati (von Hayek, London School of Economics; Friedman, scuola di Chicago). c. “Supply side economics” che dà il maggiore rilievo alla qualità dell’offerta (Mundell, Laffer). àProduttività e ristagno La crisi italiana esiste a prescindere dalla crisi più generale che ha investito il sistema globale a seguito dell’esplosione della bolla della finanza creativa. Il PIL, principale indicatore dei risultati economici, segnala una anomalia che dura già da tempo: economia italiana è stata stagnante per diversi anni, con una crescita del PIL nell’ultimo quinquennio prima della crisi che era inferiore alla metà della media. Gli andamenti negli anni della crisi del 2008 sostanzialmente confermano queste caratteristiche, dato che la flessione italiana è stata sempre superiore alla media europea, la quale è stata superiore a quella degli USA e oltre il doppio di quella mondiale. Questo dato si è tradotto in una rilevante flessione del reddito pro capite nei confronti degli USA e nei confronti delle altre potenze industriali europee. Il reddito pro capite italiano, facendo pari a 100 il dato dell’UE a 27, risulta pari a 102, ed è in diminuzione, essendo superato da Regno Unito e dalla Spagna. In questa circostanza il traino esercitato dai consumi (“C”) sulla crescita della domanda (Consumi, Investimenti, Spesa pubblica e Esportazioni costituiscono la domanda aggregata keynesiana) sulla produttività, nel nostro sistema, è risultato decisamente inferiore rispetto alla dinamica dei principali concorrenti per effetto della crescita rallentata del reddito e dei consumi. La produttività (misurata come Clup, Costo del lavoro per unità di prodotto) va ancora peggio, dato che all’effetto della produttività stagnante si è sommata una dinamica dei costi del lavoro più accentuata rispetto a quella dei paesi concorrenti. Nel periodo 1996-2007 il Clup italiano è cresciuto in ragione dell’1,5% medio annuo: mentre per i nostri concorrenti più diretti, Francia e Germania, il Clup è diminuito dell’1& annuo. Con una perdita di competitività pari al 31% dal lato dei costi in confronto ai due nostri principali concorrenti sul mercato globale, la sopravvivenza sul mercato è diventata molto difficile. I dati più recenti del 2008-2009 riflettono la pesante flessione della produzione dovuta alla crisi che ha portato ad un aumento del Clup ben superiore al 4%: quel che è certo è che non hanno portato ad un miglioramento di competitività. Sono lontani ormai i tempi, 1999, in cui i rapporti dell’Ocse indicavano per l’Italia un vantaggio competitivo in termini di Clup pari a quello degli USA e superiore del 60% alla Francia e alla Germania: tale vantaggio si è ridotto di oltre due terzi. Per tutto il periodo che va dal secondo dopoguerra in poi le esportazioni “X” hanno trainato la crescita dell’economia italiana. Attualmente esse rappresentano circa il 25% del PIL, che controbilancia le importazioni di materie prime e di prodotti energetici. Tuttavia però la “quota di mercato” delle esportazioni italiane sul commercio mondiale in termini di quantità è stata progressivamente erosa dalla competizione dei paesi emergenti, mentre l’incremento dei prezzi unitari non è stato in grado di compensare le variazioni negative dei quantitativi esportati. Le esportazioni del nostro paese sono scese dal 4,6% del ’96 al 3,6% del 2006. L’anno di crisi del 2009 ha registrato una caduta delle esportazioni italiane pari al 21,5% rispetto al 2008. Non si può non menzionare il fatto che l’Italia è scesa all’ultimo posto nella classifica della produttività pubblicata dall’Ocse. La tendenza della produttività italiana a ristagnare e a perdere terreno non solo nei confronti delle economie in rapida crescita ma anche dei competitori tradizionali rappresenta ormai un fenomeno duraturo. Tuttavia la “maglia nera” della classifica Ocse costituisce un fatto anche psicologicamente traumatico. 90 àLe analisi post keynesiane Le relazioni sussistenti fra andamento della produttività e sviluppo rappresentano il principale oggetto di studio di tutte le scuole dell’economia contemporanea. La prima fra queste, che ha origine dall’opera prima di Keynes (The General Theory of Employment, Interest and Money, 1936), considera che la domanda privata o pubblica, coperta o meno da entrate corrispondenti, traina l’offerta attraverso il meccanismo del moltiplicatore-acceleratore, e stabilisce quindi una chiara relazione di segno positivo fra domanda, produttività e sviluppo. Il modello post-keynesiano Kaldor-Verdoorn delle relazioni circolari fra domanda aggregata (sistema economico nel suo insieme), domanda effettiva (domanda che si rivolge alle singole industrie) e produttività può farci capire tale meccanismo. Il termine “circolare” sta a significare che una variabile, la produttività, influenza l’altra, la domanda, e viceversa, mentre il progresso tecnologico è paragonabile ed è una variabile esogena. La sintesi di queste relazioni può essere così espressa: “un incremento della domanda determina un incremento della produttività e\o dei salari e\o dell’occupazione, che determinano un incremento della domanda e viceversa, soggetta ad un vincolo di competitività o di profitto, al netto delle variazioni determinate dall’innovazione”. Il senso delle relazioni è che, assumendo che le altre variabili non cambino, gli incrementi di produttività si traducono in incrementi del PIL, per effetti di incrementi della domanda interna (via salari, occupazioni e\o investimenti) o estera, per effetto del miglioramento della competitività, aumenti che a loro volta determinano incrementi di produttività. I fenomeni economici sono ciclici e non lineari: né i circoli virtuosi (variabili sono in aumento) né i circoli viziosi (variabili in diminuzione) possono durare all’infinito. Il “Sistema Italia” offre un caso perfetto per illustrare tale teoria. Fra il 1995 ed il 2000, l’economia italiana cresceva ad un tasso normale (media annuale del 3% annuo). All’alba del nuovo secolo ogni cosa è cambiata, il circolo ha smesso di essere virtuoso ed è diventato vizioso, ed i risultati sono quelli descritti. La situazione italiana quindi è coerente al modello post keynesiano, ma il constatare che il circolo vizioso ha improvvisamente preso il posto di quello virtuoso non permette di capire perché ciò è avvenuto. Secondo il “principio della domanda effettiva” della teoria keynesiana questi fatti potrebbero riflettere una scarsa fiducia nel futuro da parte degli imprenditori a partire dal 1995. Tuttavia la domanda rimane la stessa di quella relativa al fenomeno della flessione delle nascite. Tutto ciò non può essere accaduto in conseguenza di cause generali, come la recessione o l’attacco terroristico alle Torri Gemelle oppure la recente “bolla immobiliare”, perché le ripercussioni di questi eventi hanno riguardato tutta l’economia mondiale e non soltanto un paese, e soprattutto un fenomeno di tale rilevanza non può essere spiegato da variazione dei salari, disoccupazione o profitti. Non ha particolari responsabilità neanche l’introduzione dell’Euro (2002); è stata una buona moneta che ha sostituito una moneta cattiva, che conteneva ormai un virus inflazionistico. Le abitudini inflazionistiche che si erano radicate con l’uso della vecchia lira hanno continuato ancora un po’ anche con l’euro e l’inflazione italiana è stata superiore ai livelli degli altri paesi dell’euro nelle prime fasi dell’adozione. -) Il ruolo del “capitale umano”. Nuovi sviluppi sul modello post keynesiano di Solow: profilo riguardante il ruolo dell’innovazione e del capitale umano come determinante dello sviluppo economico. Robert Solow è conosciuto più che altro per il modello di crescita economica che porta il suo nome, paradigma della sintesi post keynesiana. Il modello permette di separare le determinanti della crescita dell’output in variazioni incrementali di input, mentre l’incremento del prodotto che non risulta spiegato dall’incremento dei due input (K ed L) viene attribuito al progresso tecnologico. Con tale modello Solow arrivò alla conclusione per la quale 4\5 della crescita marginale del prodotto era da attribuirsi al progresso tecnologico. A partire dalla pubblicazione del modello, 1950, si sono evoluti modelli sempre più sofisticati di cui il più importante è rappresentato dal contributo di Mankiw, Romer e Weil. I tre economisti americano dimostrarono che, se si include il capitale umano nel concetto di capitale, allora la capacità esplicativa del modello di Solow risulta enormemente potenziata. Da questa osservazione deriva la conclusione che l’elemento rappresentato dalla formazione del personale (capitale umano) nel determinare la crescita della produttività riveste un ruolo paragonabile se non persino superiore a quello dell’innovazione tout court, o di quella di processo e di prodotto. Il rovescio della medaglia della celebrata struttura flessibile dell’industria italiana basata sulle piccole-medio imprese, consiste proprio nella esiguità delle risorse che tali sistemi di imprese possono destinare alla qualificazione del fattore costituito dal capitale umano e alla ricerca, che rappresentano pur sempre in gran parte una esternalità per l’economia delle imprese. -) La visione neomonetarista della scuola di Chicago: prende in considerazione la competitività dei mercati; in tale prospettiva ciò che determina buoni risultati economici è la concorrenzialità. Ogni ostacolo alla concorrenza 91 (monopoli, aiuti, regolamentazioni) determina effetti diversi da quelli dichiarati e risultati peggiori di quelli che si avrebbero avuto in loro assenza. Secondo Friedman il governo e la spesa pubblica dovrebbero essere neutrali rispetto alla concorrenza fra i soggetti economici, limitandosi a garantire la stabilità, finanziando o producendo i beni pubblici che il mercato non può produrre da sé, come l’educazione, giustizia e infrastrutture. Il neomonetarismo deriva i suoi studi dalla teoria quantitativa della moneta di Fisher. Nonostante le raccomandazioni di politica economica non siano opposte alle idee di derivazione keynesiana, il bersaglio dei neomonetaristi è costituito piuttosto dalla economia bastarda, creata dalla commistione fra pubblico e privata che ostacola la concorrenzialità dei mercati. Prevalere della scuola neomonetarista ha condotto alla deregolamentazione alle privatizzazione degli anni ’80. Grande prominenza al ruolo delle forza spontanee del mercato, imprese e management su tutte, dato che il loro successo svolge un ruolo darwiniano nella allocazione dei fattori produttivi, creando spazio per nuove imprese più efficienti con l’eliminazione dei soggetti che non usano bene le risorse (morte dell’elettronica di consumo negli USA e nascita della Silicon Valley, esempio dei grandi successi ottenuti dall’applicazione di questi modelli). La disciplina dei mercati e della concorrenza fa parte delle competenze dell’UE, e costituisce, assieme alle politiche che attuano tale disciplina, la giustificazione ed il fondamento dell’allargamento dei mercati (globalizzazione, delocalizzazione); tale allargamento ha determinato il ciclo di crescita eccezionalmente lungo che ha preceduto la crisi che ha avuto inizio nel 2007-2008. L’allargamento del mercato spiega i consolidati successi di Cina e Germania, ma non spiega il declino di produttività e crescita in Italia: per un grande paese esportatore, la rimozione degli ostacoli al commercio internazionale dovrebbe dare vantaggi ben superiori agli svantaggi determinati dalla maggiore concorrenza sul mercato interno dal lato delle importazioni. Il venire meno del sostegno offerto dalle svalutazioni competitive alle industrie esportatrici e a quelle che subiscono la concorrenza delle importazioni può aver ridotto la profittabilità delle attività esposte alla concorrenza, e reso relativamente più attrattive quelle protette. -) Supply side economics: aspetto relativo alla “dimensione” della presenza pubblica in economia (si parla di Small o di Big government). La moderna “economia dell’offerta” ha rappresentato la reazione agli anni bui della stagflazione, dovuta al dilagare della spesa pubblica, e si fonda sulla assunzione per la quale la spesa pubblica produce risultati decrescenti, cioè esattamente l’opposto di quanto accade nel settore privato dove i rendimenti sono crescenti (“The State is the problem, not the solution”). Questa visione ha avuto successo in America ed in misura minore Europa. Anche nella patria di Lady Thatcher, la spesa pubblica ha continuato ad aumentare e non è mai diminuita. Per questo motivo il differenziale di crescita fra America ed Europa può essere spiegato dalla dimensione della spesa pubblica, il quale però non può spiegare il differenziale fra Italia ed il resto d’Europa, nonostante la spesa pubblica italiana avesse sostanzialmente analoga composizione e dimensione, forse diversa efficienza, rispetto agli altri paesi europei. Concludendo, per spiegare la crisi della produttività e della crescita in Italia, gli strumenti dell’analisi economica consentono di formulare solamente ipotesi. àInfrastrutture e Sviluppo economico Rileggendo gli scritti di Marshall, padre fondatore della supply side economics, possiamo avvicinarci alla soluzione di una parte di questo enigma. Per spiegare il fenomeno delle “economie esterne”, l’autore inglese sosteneva che il fattore dominante dell’epoca (principles of economics, 1890) non fosse lo sviluppo dell’industria manifatturiera, ma di quella dei trasporti. Aggiungendo a questa constatazione la sigla Ict, si renderebbe immediatamente chiaro quanto la spesa pubblica per le infrastrutture sia determinante per la produttività e lo sviluppo. Inoltre in Europa, con l’affermarsi del modello di economia sociale di mercato, il settore pubblico dell’economia è cresciuto considerevolmente anche nella spesa sociale e la quantità della spesa pubblica fa della qualità della spesa stessa un problema prioritario dell’economia. La malattia italiana ha origine dalla flessione della produttività reale a partire dal 1996, e rappresenta l’esplodere conclamato di un male i cui sintomi sono rimasti in incubazione per un lungo periodo di tempo. Diminuzione del tasso di crescita della produttività reale ricorda l’improvvisa perdita di pressione nella cabina di un aereo in volo. Considerando che già si stava volando basso, dato che da tempo ormai la crescita della produttività aveva rallentato, la nostra quota di volo è ulteriormente scesa alla metà di quella europea, che a sua volta è la metà di quella mondiale. àLa palude legislativa e il macigno sulle spalle Spiegazione potrebbe essere trovata in tre dati impressionanti: massa enorme delle leggi in vigore che continua a crescere, debito pubblico e pressione fiscale. Studio della Banca d’Italia del 2007, leggi vigenti in Italia erano più di 21mila, contro le quasi 10mila in Francia e le circa 4mila in Germania. Tale diluvio legislativo si trasforma in un pantano che appesantisce i movimenti, la cui massa 92 invece di consolidarsi continua ad espandersi per ragioni che sono difficili da spiegare. Forse si tratta di un difetto di modernità nel paese che è stato la culla del diritto, ma tutto ciò ha creato un brodo di coltura perfetto per la burocrazia, la legislatura ed i Tar. Il debito pubblico è il macigno che grava sulle spalle del paziente italiano. Si è appesantito a dismisura come conseguenza della crisi sociale degli anni ’70 e dei suoi strascichi. Il debito italiano è il più alto d’Europa dopo quello greco, e l’Italia è sorvegliata speciale da parte dei mercati finanziari, pronti a sanzionare gli anelli deboli della catena dei paesi euro (Pigs). Nonostante la discesa dei tassi di interesse internazionali, l’Italia non ha potuto approfittare della corsa generale apertasi nel dare sostegni pubblici alle economie, perché è consapevole di avere l’attenzione dei mercati finanziari puntata addosso e non può permettersi di allargare ulteriormente lo spread dei tassi di interesse sul debito pubblico. Il differenziale dei tassi di interesse sui titoli decennali del Tesoro in raffronto a quelli tedeschi risultava aumentato, all’acme della crisi finanziaria del gennaio 2009, da 45 a 150 basis points, per poi scendere a 80 nel febbraio 2010, visto il comportamento più virtuoso della politica fiscale italiana rispetto a quelle degli altri Pigs, per poi risalire a 150 dopo la crisi della Grecia (maggio 2010). I vincoli del mercato hanno imposto di fare “di meno e dopo” di quanto fatto dai nostri concorrenti. Sono trascorsi quindici anni da quando la produttività reale italiana ha cominciato a perdere quota, e nello stesso periodo la paralisi delle infrastrutture ha condotto al caos. Gli investimenti in infrastrutture sono stati cancellati o sono proseguiti al rallentatore, generando così costi aggiuntivi per rispondere alla sensibilità ambientale cresciuta in tutto il mondo sviluppato. Considerati come fattori ostacolanti la costruzione di nuove grandi autostrade l’orografia italiana e le preoccupazioni per la difesa ambientale, la modernizzazione delle interconnessioni dei trasporti su rotaia ha la massima importanza. Quanto alle altre infrastrutture da cui dipende lo sviluppo ed il benessere (educazione, ricerca, salute e giustizia), il fatto che in Italia esistano oltre 120 sedi universitaria, e che neppure una figuri fra le prime cento nelle classifiche internazionali getta un’ombra inquietante sul futuro del nostro paese. àIl peso fiscale L’elevata pressione fiscale è l’ovvia conseguenza della vastità della spesa pubblica e dell’elevatezza del debito. Il sovrappeso del debito pubblico italiano è un problema che risale agli anni ’80. Dopo la firma del trattato di Maastricht e per tutto il decennio successivo l’Italia si è trovata in compagnia del Belgio a condividere il primato europeo nella speciale classifica dei paesi relativamente più indebitati. Entrambi i paesi hanno dovuto subire le imposizioni del “patto di stabilità”, aumentando fortemente la pressione fiscale. Se nel caso del Belgio la manovra di correzione ha avuto successo, perché l’aumento fiscale è stato accompagnato da una risoluta azione di freno alla crescita della spesa, nel caso dell’Italia l’inasprimento fiscale non è stato accompagnato da una contestuale azione di contenimento della crescita della spesa, e ciò ha avuto l’effetto ridurre soltanto marginalmente il peso dell’indebitamento pubblico sul Pil. Il succedersi di dodici formazioni governative nel periodo 1992-2009 è un indice significativo dell’instabilità politica che si è tradotto in un compromesso molto pericoloso se protratto nel tempo: accentuare pressione fiscale senza domare la crescita della spesa. La pressione fiscale in Italia ha superato anche quella della Francia e del Belgio, divenendo la più elevata fra i paesi censiti dall’Ocse. Con il sopravvenire della crisi del 2008 le cose sono andate ancor più peggiorando, perché volendo mantenere la spesa in disavanzo sotto controllo, la pressione fiscale tenda ad aumentare inerzialmente in presenza di flessioni del reddito. La struttura del prelievo inoltre è fortemente concentrata sui redditi del lavoro dipendente e delle imprese con un prelievo di fiscalità complessiva che supera il 75% degli utili lordi. Qui si intravedono chiaramente i criteri di una supply side economics applicati al rovescio, dove la crescita della spesa pubblica avviene a spese degli investimenti e dei consumi privati, penalizzando i settori a più elevata produttività. àDalle riforme degli anni ’90 al quindicennio perduto. La nuova terapia La malattia dell’Italia si è resa conclamata e più acuta per conseguenza della grande recessione, a partire dalla seconda metà del 2008, accentuando il twin deficit nei conti dell’estero e nel disavanzo. Essa ha origine da cause molto complesse ed eterogenee. Non esistono soluzioni semplici per problemi complessi, ma innanzitutto non ci si deve nascondere che la recessione colpisca l’Italia più gravemente di quanto accada per i nostri alleati-competitors. L’Italia è entrata in condizioni relativamente peggiori rispetto agli altri grandi paesi sviluppati perché il sistema risultava già in forte decelerazione e cogliendo il sistema delle imprese nel bel mezzo di una fase di ristrutturazione, necessaria per recuperare le perdite di competitività. Nelle prime fasi della crisi le condizioni della nostra finanza pubblica hanno fatto sì che la preoccupazione di non compromettere lo standing creditizio del paese sul mercato internazionale avesse il sopravvento sulla necessità di 93 condurre politiche fiscali anticicliche di sostegno alla domanda e alla competitività. Prima fase, esclusivamente difensiva, ha rappresentato una scelta obbligata ed ha avuto successo grazie al concorso di tre ordini di circostanze: 1. 2. 3. Altri paesi si sono trovati nella posizione di costituire gli anelli più deboli della catena dell’euro. Il sistema bancario italiano è risultato meno compromesso nelle attività di speculazione immobiliare e di intermediazione. Grazie alle politiche monetarie espansive della Fed e della Bce il livello dei tassi di internazionali è sceso. Quando i tassi però ricominceranno a salire per effetto della ripresa internazionale, o dell’inflazione, il disavanzo pubblico italiano diverrà esplosivo. Occorre quindi utilizzare questo breve intervallo per introdurre le riforme e le correzioni strutturali che attendono da così lungo tempo. Può essere istruttivo il confronto con il precedente della crisi 1974-1975. I gravi errori di politica economica che si compirono allora in Italia, costituiti dall’adozione di un sistema di indicizzazione dei salari, dall’impegno dell’Istituto di emissioni di sottoscrivere in maniera illimitata e incondizionata i titoli del Tesoro, prolungavano l’instabilità oltre il decennio. Oggi gli errori non potrebbero essere ripetuti; il campo degli strumenti della politica economica si è molto ristretto, specificatamente a: 1. 2. 3. 4. Spesa pubblica ed infrastrutture: richiede che la severa cura a cui la stabilizzazione della moneta ha sottoposto il settore privato sia ora estesa al settore della spesa pubblica. Pensioni, sanità, PA contengono ampi margini di arretratezza e inefficienza la cui riduzione potrebbe tradursi in rilevanti alleggerimenti della pressione fiscale. Debito e patrimonio pubblico: politica delle privatizzazioni, dopo un avvio promettente, è poi proseguita stancamente. Concorrenzialità dei mercati: malgrado le norme e gli istituti introdotti e malgrado il generoso impegno di coloro che vi hanno dedicato attività, forniscono una parte della spiegazione del più singolare fra i paradossi della sindrome del “paziente italiano”: mentre i costi unitari del lavoro sono aumentati di più di quanto sia avvenuto per i nostri principali concorrenti, il potere d’acquisto per le nostre famiglie risulta comparativamente diminuito. Il “che fare” di fronte all’allungamento della durata della vita media: crescita del numero dei pensionati rispetto ai lavoratori attivi. Il fenomeno per cui la crescita dei salari si traduce in una corrispondente crescita della domanda effettiva perde la sua efficacia a livello aggregato se la quota dei lavoratori attivi sul totale della popolazione attiva diminuisce. Senza una profonda revisione del sistema pensionistico il prolungarsi della vita media degli individui si trasforma da principale indicatore del benessere in un fattore che pregiudica la base stessa da cui ha origine il benessere. 94 Capitolo 21 Le nuove tendenze delle politiche industriali. La regolazione dei mercati e le autorithies. Linea ispiratrice delle nuove politiche industriali può essere espressa dal principio della promozione e della tutela di condizioni di concorrenzialità dei mercati, che si realizza eliminando le posizioni monopolistiche e prevenendo comportamenti restrittivi della concorrenza praticati dalle imprese incombenti. Il fondamento di tale principio risiede nella constatazione secondo cui la concorrenza è il migliore sistema possibile non solo nella prospettiva dei consumatori ma anche in quella di efficienza, competitività e innovazione. Si è quindi determinato un capovolgimento delle politiche che si ispiravano alla protezione dei produttori. àLa tutela della concorrenza Azione delle Autorità preposte alla tutela della concorrenza trova la giustificazione economica principale nella inefficienza allocativa del monopolio. In regime di monopolio infatti l’output fissato dal monopolista è inferiore a quello ottimale, e di conseguenza anche il prezzo è più elevato del livello ottimale. Si può quindi parlare di costo sociale del monopolio. Condizioni di inefficienza allocativa si caratterizzano anche in caso di oligopolio, che costituisce una forma di mercato più diffusa, nonostante però non esista una misura precisa di quanto e quando un oligopolio molto concentrato è effettivamente dannoso per la concorrenza del mercato. Accanto al costo sociale del monopolio, secondo alcuni recenti sviluppi, appare rilevante includere anche i costi relativi alla creazione e al mantenimento di posizioni monopolistiche; tra questi rilevano: a. b. c. d. Comportamenti dei monopolisti rivolti a scoraggiare entrata di nuove imprese: Esistenza di extraprofitti richiama l’entrata di nuove imprese. Il monopolista potrà adottare diverse strategie di deterrenza dell’entrata, come l’applicazione di prezzi più bassi di quelli che portano alla massimizzazione dei profitti di breve periodo. Queste strategie da un lato comportano una riduzione dei costi sociali del monopolio, dall’altro però hanno effetti negativi il cui risultato netto va valutato nel lungo periodo, relativamente alla durata del monopolio. Comportamenti dei monopolisti nei settori delle public utilities volti a estendere abusivamente la propria posizione dominante in segmenti di mercato contigui liberalizzati Costo opportunità legato agli investimenti che altri operatori farebbero senza monopolio: tendenzialmente si ritiene che i nuovi entranti investano molto di più di un monopolista se il mercato viene aperto alla concorrenza. Minore progresso tecnologico del monopolio: gli incentivi ad innovare sono più forti nelle industrie concorrenziali, mentre il monopolio ritarda il progresso e causa perdite di benessere. Alle innovazioni infatti sono associati generalmente diminuzioni di costi e aumento dei profitti, importanti per una impresa concorrenziale, non per un monopolista che già gode di extraprofitti. Le normative per la tutela della concorrenza sono diffuse in quasi tutti i paesi industrializzati e sono caratterizzate da una struttura comune, nonostante alcune difficoltà legate al contesto economico: a. b. c. Norme in materia di posizione dominante o di monopolio Norme in materia di intese e forme di comportamento coordinato Norme in materia di concentrazione A queste si associa la creazione di un organismo tecnico di applicazione della politica della concorrenza. Generalmente tali norme si applicano a tutti i settori della economia, ma ciascuno Stato può individuare settori nei quali la normativa non viene del tutto applicata o trovare alcune limitazioni. Allo stesso modo possono essere previste esenzioni relative ai comportamenti vietati che vengono autorizzati in ragione degli effetti positivi che ne possono derivare in termini di benessere collettivi. -) La normativa antitrust negli Stati Uniti. USA hanno preceduto tutti gli stati industrializzati nell’emanare lo Sherman Act nel 1890. La prima sezione vieta i cartelli espliciti, mentre la seconda sezione stabilisce che “ogni persona che monopolizzerà” verrà ritenuta colpevole di un reato grave. Nonostante la seconda sezione formuli esplicitamente un divieto di monopolio generale, nella prassi le Autorità ne hanno fornito una interpretazione diversa, che ha portato a sanzionare solo alcuni comportamenti 95 monopolistici capaci di generare inefficienza. Per porre rimedio all’ambiguità della formulazione e risolvere dubbi interpretativi, furono approvate successivamente due ulteriori normative: • • Clayton Act, che mira principalmente a combattere quattro prassi specifiche (discriminazione dei prezzi, utilizzo di vendite abbinate di beni, monopoli locali che determinano riduzione della concorrenza e fusioni che limitano la concorrenza). In materia di fusioni, l’ultima revisione delle linee guida governative prescrive l’utilizzo dell’indice HH per valutare se sono restrittive della concorrenza. Calcolati i valori dell’indice (moltiplicato per mille) nel mercato rilevante e la sua variazione a seguito dell’operazione di concentrazione. Crea il Department of Justice. Federal Trade Commision Act, ha creato una nuova agenzia Governativa, la Ftc, che oltre a svolgere attività non connesse all’antitrust, vigila sull’applicazione delle leggi antitrust e giudica le controversie. Rientra tra le responsabilità della Ftc la protezione del consumatore e la prevenzione della pubblicità ingannevole. Ftc e Department of Justice sono gli organismi responsabili della applicazione delle leggi antitrust. Un provvedimento della Ftc può portare a un provvedimento che impone l’abbandono di certe pratiche; un provvedimento del DoJ può concludersi con un provvedimento con finalità analoghe. Il DoJ può anche intentare una causa penale. Il modello statunitense vede dunque coinvolti organi amministrativi e giudiziari nell’attività antitrust. I giudici interpretano e fanno rispettare la legge, mentre il DoJ e l’Ftc vigilano perché non si determinino comportamenti anticompetitivi, insieme con i privati cittadini. -) La normativa antitrust in Europa. Il trattato dell’UE, artt. 81 a 89, fornisce il quadro normativo della politica europea di concorrenza. Ulteriori norme sono contenute in Regolamenti del Consiglio e della Commissione. Politica europea comprende cinque ambiti principali: a. b. Divieto di accordi restrittivi della concorrenza: art. 81 si applica alle imprese che possono pregiudicare il commercio tra Stati membri e che impediscono o falsano la concorrenza. Vi rientrano gli accordi orizzontali, che prevedono fissazione congiunta dei prezzi di vendita o rivendita, la spartizione dei mercati e la limitazione della produzione. Sono vietate anche le limitazioni alla concessione di sconti, fissazione di margini per la rivendita ecc. intese di questo tipo finiscono per produrre prezzi più elevati e quantità inferiori a quelle desiderate dai consumatori. Possono risultare restrittivi della concorrenza anche gli accordi verticali, come ad esempio accordi di esclusiva tra produttore e distributore di un bene. Divieto non si applica nel caso in cui gli accordi restrittivi contribuiscano a incoraggiare la concorrenza, e cioè: migliorano la produzione o distribuzione oppure promuovono il progresso, fanno beneficiare i consumatori di una congrua parte, sono necessarie per conseguire i benefici. Per i casi ricorrenti in cui tali condizioni possono essere sempre dimostrate, la Commissione ha adottato i cd regolamenti di esenzione per categoria, che fissano le condizioni da rispettare per determinate categorie di accordi. Tali regolamenti accordano alle imprese una più ampia libertà di scelta quanto all’organizzazione della propria attività economica e allo stesso tempo individuano con chiarezza alcune pratiche apertamente restrittive della concorrenza, pertanto vietate. Divieto di abusi di posizione dominante: art. 82; gli abusi possono consistere in: - imposizione diretta o indiretta di prezzi di acquisto o di vendita o di altre condizioni contrattuali particolarmente gravose; - limitazione della produzione, dei mercati e dello sviluppo tecnologico, con pregiudizio per i consumatori (rifiuto a produrre un bene finale o intermedio); - applicazione nei rapporti commerciali con altri contraenti di condizioni contrattuali oggettivamente diverse per prestazioni equivalenti; - subordinazione della conclusione dei contratti all’accettazione dei contraenti di prestazioni supplementari che non abbiano alcuna connessione con l’oggetto dei contratti stessi. Le concentrazioni sono disciplinate da un apposito Regolamento, che ha introdotto a livello comunitario una disciplina sul controllo preventivo di tutte le operazioni di concentrazione nelle quali il fatturato delle imprese interessate superi determinate soglie. In questi casi, prima di effettuare l’operazione, occorre che le imprese na diano informazione alla Commissione, che può vietare l’operazione se la concentrazione ostacoli significativamente una concorrenza effettiva nel mercato comune o in una parte essenziale di esso. Al di sotto delle soglie comunitarie, le concentrazioni vengono esaminate dalle Autorità nazionali garanti della concorrenza degli Stati membri. 96 c. d. e. Divieto delle concentrazioni che creano e rafforzano una posizione dominante (Regolamento sulle concentrazioni) La liberalizzazione dei settori in regime di monopolio (art. 86): divieto rivolto agli stati membri di introdurre o mantenere in vigore in vigore misure contrarie alla concorrenza, che può essere rimossi se si dimostri che l’applicazione delle norme concorrenziali è di ostacolo alla specifica missione loro affidata, sia in termini giuridici che di fatto. Divieto degli aiuti di Stato (art. 87 e 88): specifiche clausole contenute nella normativa europea dirette a disciplinare l’azione dello stato in campo economico tramite l’uso di risorse pubbliche per promuovere determinate attività economiche o proteggere le industrie nazionali, pubbliche o private che siano. La concessione di denaro pubblico costituisce un aiuto di Stato. Gli aiuti possono falsare la concorrenza leale ed effettiva tra imprese e danneggiare l’economia, e per questo la loro elargizione è controllata dalla Commissione. Sono consentiti quelli conformi all’interesse comune dell’UE (favorire sviluppo delle regioni svantaggiate, promozione PMI, ricerca e sviluppo, protezione ambiente ecc.). Queste norme tracciano i limiti delle politiche industriali tradizionali, che corrispondono in gran parte a misure di sostegno ai produttori, subordinandone l’ammissibilità alla verifica delle condizioni di compatibilità con le finalità sottostanti alla creazione dell’UE e con la politica della concorrenza. Commissione europea è l’istituto al quale è affidata l’attuazione della normativa a tutela della concorrenza a livello comunitario. -) La normativa antitrust in Italia e l’Agcm. Disciplina antitrust in Italia approvata con la legge 287\1990, che ha istituito l’Autorità garante per la concorrenza ed il mercato. Normativa che ricalca quella europea. Articolo 2 vieta le intese che hanno obiettivo o effetto di restringere la concorrenza e che comportano quindi una consistente restrizione della concorrenza all’interno del mercato o in una sua parte rilevante. Sono considerate intese non solo gli accordi formali tra operatori economici, ma tutte le attività economiche in cui è possibile individuare il concorso volontario di più operatori. Articolo 4 disciplina le deroghe al divieto di intesa, casistica corrispondente a quella europea delle condizioni cumulative da soddisfare. La legge italiana non vieta la posizione dominante, ma pone dei vincoli ai possibili comportamenti di un’impresa che si trova in questa situazione. Per quanto riguarda invece le operazioni di concentrazione, la legge richiede che tutte quelle il cui fatturato realizzato nel territorio italiano superi determinate soglie, siano comunicate all’Autorità, mentre sono esentate le fusioni e acquisizioni che riguardano imprese con fatturati di modesta entità. Nel caso dei monopoli legali e delle imprese pubbliche, la legge fa propri i principi comunitari, prevedendo che la disciplina antitrust possa trovare delle limitazioni, ma solo per tutto quanto strettamente connesso all’adempimento degli specifici compiti affidati alle imprese che erogano servizi di interesse economico generale o che operano in regimi di monopolio legale. L’Agcm ha potere investigativo e decisionale sui casi di violazione della concorrenza legati a intese e cartelli tra imprese, abusi di posizione dominante, operazioni di concentrazione. Recentemente ha acquisito anche competenze in materia di pubblicità ingannevole e comparativa e di conflitti di interesse. Inoltre, l’Autorità effettua pareri e segnalazioni circa leggi vigenti o in via di formazione che possano introdurre restrizioni alla concorrenza. In base a tale poteri, svolge anche un ruolo di promozione della concorrenza, fornendo suggerimenti e indicazioni su come leggi e regolazioni settoriali possano essere orientate in un senso pro concorrenziale. Autorità, che pubblica le proprie decisioni sul proprio Bollettino settimanale, è un organo collegiale. Un presidente, quattro Componenti, nominati da Camera e Senato. Sono presenti in Italia altre istituzioni che hanno analogo ruolo in settori specifici, come la Banca di Italia e l’Isvap. -) Obiettivi delle politiche per la concorrenza. Obiettivo generale è promozione dell’efficienza, quale quella che si realizza in concorrenza perfetta. Non essendo questa però facilmente realizzabile, l’azione antitrust si attesta su obiettivi di second best, quali diffusione del potere di mercato (intesa come libertà di accesso al mercato) e difesa della libertà economica dei partecipanti al mercato (difesa del funzionamento del meccanismo concorrenziale). Mirando tali politiche all’efficienza allocativa, non possono esservi gruppi o categoria sociali in partenza favorite, se non i consumatori. D’altra parte la difesa delle piccole imprese dallo strapotere dei grandi gruppi è all’origine dello Sherman Act, e numero decisioni americane sono state influenzate dalla finalità di garantire alle piccole imprese più efficienti di utilizzare appieno i vantaggi derivanti dalle loro superiori capacità produttive ed organizzative. Stesso atteggiamento, attenuato, si ritrova nelle politiche 97 europee. In generale, tutte le normative evolvono in funzione dell’ambiente economico e istituzionale di riferimento; quella antitrust ad esempio risente della struttura dell’industria cui si applica, al suo grado di concentrazione, integrazione e struttura proprietaria. Lo sviluppo della normativa antitrust è stato anche connotato da un sempre maggior peso della teoria economica; “cicli interpretativi” delle normative legati al susseguirsi di paradigmi teorici tra loro alternativi. -) Differenza fra normativa statunitense ed europea. Maggiori difformità si sono evidenziate in passato nell’ambito del controllo sulle operazioni di fusione e acquisizione. Tra gli anni ’30 e ’70 il paradigma SCP ebbe una forte influenza sulla normativa antitrust americana. L’atteggiamento degli organi e l’applicazione dei tribunali era legata agli effetti dei comportamenti d’impresa sulla struttura di mercato e sulle condizioni di accesso ad esso. A partire dagli anni ’70 invece si afferma il pensiero della scuola di Chicago, più attento all’efficienza. Più attenzione agli aspetti organizzativi del mercato e comportamenti dell’impresa considerati in relazione agli effetti che essi producono. àLa regolazione economica Fondamento economico della regolazione trova giustificazione nell’esistenza dei fallimenti di mercato, tra cui si ricomprende il monopolio naturale. Le fonti e le forme che possono assumere i fallimenti di mercato sono molteplici. Nell’ambito della regolazione economica possono essere considerate solo alcune forme: a. b. c. d. Monopolio naturale: (vedi cap. 7 e 12) si realizza quando la domanda del mercato di un bene può essere soddisfatta da parte di una singola impresa ad un costo più basso di quello che si avrebbe se a produrre il bene fossero due imprese o qualsiasi altra combinazione di esse. Poiché il monopolio genera vari tipi di inefficienza statica e dinamica, deve essere regolato. Ciò può avvenire adottando diversi modelli di fissazione del prezzo (cap. 22). Esternalità: presenza di situazioni in cui gli operatori sul mercato, nel prendere le proprie decisioni, sono indotti a trascurare le ricadute degli effetti negativi o positivi di tali decisioni su terzi (esempi classici di esternalità positive: prevenzione di fenomeni di inquinamento ambientale, stabilità dei mercati finanziari). Interdipendenza che altera il funzionamento del mercato, impedendo al prezzo del bene di sintetizzare tutte le informazioni rilevanti per la conclusione dello scambio. In presenza di esternalità negative, il prezzo non riflette il costo sociale del comportamento di domanda ed offerta, e quindi si avrà, rispettivamente, un consumo ed una produzione superiore all’ottimo; in caso di esternalità positive, si avrà consumo o produzione inferiore all’ottimo. La regolazione interviene per rendere espliciti i costi sociali di tali decisioni penalizzando\incentivando le attività che generano esternalità negative\positive. Asimmetrie informative: l’informazione sui prodotti o servizi lungi dall’essere perfetta, potendo essere insufficiente o incompleta perché costosa, falsa o complessa. Quando la reciproca esperienza si rivela insufficiente a eliminare tali asimmetrie, l’intervento pubblico può essere orientato ad imporre standard qualitativi minimi o a subordinare l’esercizio di una attività produttiva a controlli e autorizzazioni. In alcune circostanze il mercato può non garantire la fornitura di un servizio secondo le modalità ritenute socialmente desiderabili; ciò si verifica nei servizi di pubblica utilità (poste, telecomunicazioni e ferrovie), caratterizzati da una domanda non uniformemente distribuita sul territorio e di tipo stagionale o ciclica. Obblighi di servizio imposti anche a servizi non essenziali, come le farmacie, i taxi e le edicole, dove si traducono nell’imposizione di regole relative agli orari di erogazione o ai turni. Universalità del servizio: da un punto di vista economico, i servizi essenziali rientrano nella categoria dei beni di merito, il cui consumo è ritenuto un bene, sulla base di considerazioni sociali o politiche, ma comunque extraeconomiche. Oggetto della regolazione è riconducibile a tecniche di fissazione dei livelli dei prezzi e dei loro meccanismi di adeguamento, e della fissazione dei livelli di qualità. -) Il problema della fissazione dei livelli di prezzo (optimal pricing). Problema si pone nei termini di definire una remunerazione equa per l’impresa che garantisca la massimizzazione del benessere collettivo. Per illustrare come avviene la fissazione ottimale delle tariffe nel caso di un monopolio naturale in base a criteri marginalisti e nell’ipotesi di informazione perfetto è opportuno ricorrere ad un grafico. Se il monopolista viene sovvenzionato utilizzando il gettito fiscale raccolto in maniera efficiente, la collettività gode di un maggior benessere se il prezzo è pari al costo marginale ed in presenza di un sussidio. Efficienza data dal porre prezzo 98 uguale al costo marginale e dal sovvenzionare il monopolista. Tale modello però si basa su ipotesi poco realistiche: - i regolatori non conoscono i costi medi del settore - i governi riescono raramente ad effettuare il prelievo in maniera efficiente - le imposte più comunemente usate creano un divario fra prezzo e costo marginale. I sussidi quindi di solito comportano un costo in termini di risorse reali. Inoltre, la necessità di trasferimenti dal regolatore all’impresa regolata può portare al fenomeno della cattura del regolatore, per il quale le imprese investono risorse per influenzare le decisioni del regolatore in modo da massimizzare i sussidi da ricevere. Di solito quindi sono più comuni regolazioni second best, che pongono il prezzo pari al prezzo medio e non al prezzo marginale. Altre soluzioni proposte per evitare gli inconveniente legati al prezzo politico e a quello pubblico, e per minimizzare le perdite di efficienza, sono riconducibili a due modelli di fissazione dei prezzi nel caso di imprese monopolistiche monoprodotto e multi- prodotto. • • In caso di impresa mono-prodotto, si descrivono i modelli di discriminazione dei prezzi: consente la fissazione di prezzi diversi in funzione della diversa elasticità al prezzo di ciascun consumatore o gruppo di consumatori. Ciò è possibile se il monopolista è capace di identificare tali elasticità e di separare i consumatori. La produzione del monopolista in questo modo può avvenire in maniera efficiente senza necessità di erogare servizi. Soluzione che però danneggia i consumatori che si vedono estratta tutta la loro rendita. Compatibili con le normative antitrust sono ad esempio quelle basate non sulla elasticità di prezzo per prestazioni equivalenti, ma che differenziano i prezzi in funzione dei livelli e dei periodi di consumo. In caso di impresa multi-prodotto, si descrivono i modelli à la Ramsey (tariffe non lineari e tariffe di picco): in questo caso si pone anche il problema dell’imputazione dei costi comuni, rendendo l’analisi della regolamentazione molto più complessa. I prezzi vengono differenziati in base alla teoria di Ramsey, secondo la quale un’impresa in monopolio dovrebbe aumentare i prezzi al di sopra dei costi marginali in modo inversamente proporzionale all’elasticità della domanda rispetto ai prezzi. In caso di applicazione di tal regola, i prezzi sono più alti nei mercati a domanda meno elastica e viceversa, realizzandosi quindi una discriminazione. I prezzi ottimali quindi sono quelli di monopolio ridotti proporzionalmente in modo tale che i ricavi totali siano esattamente uguali ai costi totali. Il caso più noto di prezzo non lineare è quello delle tariffe binomie, utilizzate nei settori della telefonia e del gas. Tariffa binomia caratterizzata da una quota fissa, e da un prezzo unitario, pari al costo marginale, per ogni unità acquistate. Tramite la quota fissa tutti i consumatori partecipano in parti uguali alla copertura dei costi fissi, garantendo in questo modo l’equilibrio finanziario dell’impresa. In caso però di non identità dei consumatori, si generano problemi di equità. Se invece la domanda è soggetta a rilevanti fluttuazioni periodiche, giornaliere o annuali, è possibili fissare prezzi per i diversi periodi (peak o off peak), più alti per la fornitura dei servizi nei periodi di picco e più bassi nei periodi fuori picco. Necessario perché i beni non sono immagazzinabili e le imprese devono mantenere una capacità produttiva dimensionata per le fasi di picco, anche se nei periodi fuori picco rimane inutilizzata. Nella pratica della regolazione, entrano spesso considerazioni sociali e distributive, oltre che economiche, che portano alla definizione di un sistema di sussidi incrociati fra servizi forniti dall’impresa a diversi gruppi di consumatori. Se ci sono sussidi incrociati, alcuni utenti pagan un prezzo inferiore al costo marginale, e la differenza viene pagata da altri che pagheranno un prezzo superiore. La teoria classica di regolamentazione si basa sull’ipotesi cruciale di informazione perfetta: regolatore è in grado di osservare la funzione di costo del monopolista privato. La moderna teoria ha posto invece sempre più in evidenza casi in cui il regolatore, in condizioni di informazione asimmetrica, sia costretto a ricorrere a formule che mimano il comportamento dei mercai. Le decisioni del regolatore avvengono inoltre in condizioni di incertezza, mentre la teoria classica non considera gli aspetti dinamici delle strategie di prezzo. -) Il controllo della dinamica dei prezzi e i sistemi di incentivazione. Dopo aver determinato il livello ottimale delle tariffe, bisogna calcolare che l’intervento del regolatore influenza le strategie di variazione dei prezzi delle imprese. Essendo l’amministrazione dei prezzi finalizzata a mitigare potere di mercato ed a ridurre i fallimenti del mercato, l’evoluzione dinamica delle economie e delle imprese potrebbe riproporre gli stessi presupposti di intervento regolatorio in forme diverse. Ci si propone di proporre modelli di regolazione ottimale che tengano conto in modo esplicito dell’esistenza delle asimmetrie informative. In questo modo 99 si definiscono meccanismi incentivanti per indurre l’impresa a raggiungere gli obiettivi che il regolatore stesso si propone. Gli schemi di regolazione incentivante più diffusi, associati ad esperienze internazionali, sono: • Il metodo di regolazione del saggio di rendimento del capitale (ROR): esperienza di regolazione statunitense. Consiste nella fissazione del regolatore di un tasso di rendimento massimo sul capitale investito che l’impresa dovrà rispettare. Tale vincolo è così definibile: 𝑟= • 𝑝𝑟𝑜𝑓𝑖𝑡𝑡𝑜 ≤𝑋% 𝑐𝑎𝑝𝑖𝑡𝑎𝑙𝑒 𝑖𝑛𝑣𝑒𝑠𝑡𝑖𝑡𝑜 Il vincolo deve spingere l’impresa a fissare tariffe che rispettino quel vincolo sui profitti, consentendo remunerazione equa del capitale, in linea con i rendimenti che altre imprese simili ottengono nei mercati. Se il saggio eccede questo valore, il regolatore impone una riduzione delle tariffe. Il tasso di rendimento massimo ed i prezzi sono tenuti fissi per tutto il periodo regolatorio, che va dai 3 ai 7 anni. Tale meccanismo ha alcuni effetti distorcenti (Averch e Johnson), dovuti all’esistenza di asimmetrie informative a sfavore del regolatore. Nel caso di un’impresa operante in monopolio che produce un solo servizio, la fissazione di un dato vincolo, porterà l’impresa ad aumentare il capitale investito, realizzando investimenti non necessari, per poter ottenere un maggior volume di affari senza che il regolatore le imponga una riduzione tariffaria. In questo modo l’impresa sceglie una combinazione produttiva non efficiente per il livello di produzione individuato. Gli effetti dell’intervento regolatorio quindi sono analoghi a quelli di un cambiamento del rapporto fra i prezzi relativi dei fattori. Si ha una inefficienza produttiva, dato che l’impresa impiega una quantità eccessiva di capitale, ed una inefficienza allocativa, dato che la produzione avviene a costi più elevati. Se l’impresa abbassa i costi, il prezzo fissato ex post dal regolatore sarà più basso, in modo da lasciare all’impresa lo stesso tasso di rendimento. Il metodo del vincolo alle variazioni annuali dei prezzi (Price cap): esperienza europea e italiana. Applicazione di un tetto alla crescita dei prezzi dei servizi prodotti da un’impresa, vincolandola nel tempo alla variazione di un indice dei prezzi di un paniere di beni e di una grandezza X che riflette l’efficienza produttiva à ΔP = RPI – X, dove RPI è l’indice dei prezzi al consumo. Questo corrisponde in genere al tasso di inflazione negativo registrato al tempo t zero, oppure al tasso di inflazione programmato. La X può assumere diversi valori percentuali a seconda delle valutazioni del regolatore. Il price cap può essere applicato tramite vari modelli operativi, con alcune caratteristiche in comune. Innanzitutto il vincolo induce l’impresa a comportarsi in maniera più efficiente, riducendo i costi, ed il problema della asimmetria è meno stringente rispetto a quanto accade nel ROR. Il valore X infatti è fissato in base a valutazioni prospettiche sulla capacità dell’impresa di conseguire efficienze nella produzione. Rispetto al ROR, il price cap ha maggiori vantaggi per i consumatori. Con il riadeguamento degli indici, i consumatori possono beneficiare delle riduzioni di costo conseguite dall’impresa. Metodo associato ad una relativa semplicità applicativa, nei bassi costi amministrativi e nelle sue capacità di incentivare l’efficienza e di migliorare il benessere sociale. La regolazione dei prezzi riguarda anche i prezzi intermedi; questi sono rilevanti in tutti i servizi nei quali esista una infrastruttura a rete il cui utilizzo da parte di operatori terzi avviene sulla base di tariffe o prezzi regolati (es. gasdotti, linee ferroviarie, aeroporti). A tal proposito si parla di essential facility, definibile come una infrastruttura che: a. b. c. d. Costituisce un asset Non duplicabile Nell disponibilità di un’impresa in posizione dominante Non presenta ragioni tecniche per negare l’accesso ad esso (condivisibilità). In presenza di una essential facility occorre regolamentarne l’accesso per favorire la concorrenza nelle altri fasi della produzione, stabilendo regole e prezzi equi, non discriminatori e con riguardo solamente ai prezzi efficienti. Chi possiede una essential facility gode di una posizione dominante. Il regolatore riduce lo spazio di discrezionalità delle 100 imprese, imponendo ex ante precise e vincolanti regole di accesso alla infrastrutture essenziali. Se le imprese non rispettano i criteri sopra indicati, si configura un abuso di posizione dominante. -) La regolazione della qualità: aspetti qualitativi assumono sempre più importanza nella dinamica competitiva ed hanno implicazioni di benessere sociale. L’utente è l’elemento più debole in quanto meno informato rispetto agli altri agenti e privo di alternative economiche. Proprio per questo sono state introdotte le Autorities, che devono regolamentare il settore e trasferire ai consumatori almeno parte dei guadagni di produttività che può produrre un sistema liberalizzato. Si distinguono standard qualitativi vincolanti per le imprese regolate in standard di qualità generali e specifici. Per vincolare le imprese, possono essere introdotti diversi strumenti incentivanti e penalizzanti. Alcuni di questi ad esempio possono prevedere indennizzi automatici di rimborso agli utenti, altri una modifica del meccanismo di regolazione dei prezzi. Ad esempio, la tecnica del price cap può essere modificata per introdurre una regolazione degli aspetti qualitativi del servizio offerto, simultanea del prezzo e della quantità. à I costi della regolazione e la teoria della cattura Costi relativi all’attività di regolazione valutabili secondo una duplice prospettiva: • • Considerare costi di funzionamento che una struttura di regolazione richiede ed i costi amministrativi che l’attività impone alle imprese regolate (costi di transizione). Tener conto della possibile inefficacia e distorsività che lo stesso intervento regolatorio può introdurre (costi di regolazione). Con riguardo ai costi di funzionamento, l’attività di regolazione e monitoraggio ha un costo. Le imprese che devono conformarsi alle nuove regole sosterranno costi. Tali costi hanno comunque una dimensione inferiore ai costi di regolazione, i quali hanno una natura sia statica che dinamica. Il caso più rilevante di regulation failure è quello trattato nella cd “teoria della cattura”, in base alla quale il regolatore tende a condividere e tutelare nel tempo gli interessi delle imprese regolate e ad esserne catturato. In caso di cattura, il regolatore può sovrastimare i costi del servizio, fissando un prezzo troppo alto che riduce il benessere dei consumatori e aumenta i sovraprofitti delle imprese. Possono esservi errori che portano a fissare prezzi troppo bassi, che infliggono perdite alle imprese regolate, danneggiando i livelli qualitativi o la continuità del servizio. In entrambi i casi crescerà la reazione dell’opinione pubblica che contrasterà gli eccessivi profitti o il deterioramento del profitto, con conseguente perdita di reputazione del regolatore. àLa concorrenza per il mercato Soluzione alternativa è quella volta a far emergere attraverso un meccanismo d’asta la concorrenza per il mercato. Idea proposta da Demsetz, che vedeva nel meccanismo d’asta una modalità per far prevalere in quei mercati dove non è possibile raggiungere la concorrenza – come i monopoli naturali – l’operatore più efficiente. Ciò richiede esistenza di un numero di concorrenti adeguato tra i quali non sussistano asimmetrie informative e tale da impedire comportamenti collusivi. Concorrenza per il mercato NON RISOLVE i problemi della regolazione, ma può essere uno strumento complementare all’attività di regolazione, non alternativo. L’asta può essere il primo momento dell’attività di regolazione, in cui si assegna ad un privato la concessione ad operare su un certo mercato. àLa “qualità” del regolatore Grande attenzione al disegno istituzionale delle Autorità che presiedono alla regolazione economica. Secondo Baldwin e Cave le principali caratteristiche “desiderabili” di un regolatore sono: 1. 2. 3. 4. Competenza: regolatore deve considerare opzioni alternative e prendere decisioni che compongono gli interessi di più parti, sulla base di informazioni spesso incomplete. Efficacia: attività deve corrispondere a quella specificata nel mandato assegnatoli nel mandato legislativo. Non sconfinare dai compiti e predisporre strumenti adeguati a conseguire gli obiettivi assegnati. Efficienza: impiegare risorse in maniera efficiente. Indipendenza: dagli interessi dell’industria regolata e da quelli dell’impresa regolata, dai suoi clienti, concorrenti e fornitori; indipendenza relativa dai poteri dello Stato. Requisito suggerisce una sua collocazione al di fuori di strutture ministeriali, per soddisfare il requisito di efficacia ed efficienza. L’attività di regolazione non è del tutto assimilabile ad una attività di applicazione di norme e procedure prestabilite, ma richiede la fissazione di nuove regole e procedure a situazioni in continua evoluzione. Si tratta di promuovere la concorrenza nei settori caratterizzati da condizioni di monopolio 101 5. 6. naturale. Vi sono altri tre motivi che concorrono a ritenere preferibile la soluzione istituzionale che colloca il regolatore al di fuori dell’amministrazione ministeriale: a) un regolatore politico deve infatti essere rieletto, e ciò lo porta ad assegnare un peso elevato all’obiettivo del mantenimento dei livelli occupazionali, e di fissare prezzi bassi per gli utenti rappresentati dai gruppi di pressione più influenti. Inoltre il regolatore politico può essere sensibile a tematiche che esulano dall’economia del settore, come la volontà di contenere il tasso di inflazione. b) i servii pubblici richiedono cicli di investimento estremamente lunghi e periodi di pianificazione corrispondenti; l’orizzonte temporale di un controllo politico è assai più breve, coincidendo con la lunghezza del mandato elettorale. Se la funzione di regolazione fosse affidata al potere esecutivo il regolatore definirebbe il meccanismo regolatorio riferendosi ad un orizzonte temporale molto più breve di quello dell’agente. c) se le imprese sono private, la creazione di un’Autorità indipendente è più adatta a minimizzare i rischi di comportamenti di tipo politico legati al ciclo elettorale. Accountability: attività deve godere indirettamente di una forma di legittimazione democratica e deve essere sindacabile e controllabile da qualche altro potere dello Stato. Uno strumento tipico di dialogo con altre istituzioni è la presentazione alle Camere di una Relazione annuale sull’attività svolta e sullo stato dei servizi. Altre forme sono le audizioni conoscitive; accanto a questi strumenti le procedure e le tecniche di regolazione permettono di dare una soluzione al problema della legittimazione democratica. Sotto il profilo della sindacabilità, gli atti delle Autorità devono essere sottoposti a un giudizio esterno nelle fasi di formazione, applicazione ed effetto. Nelle fasi ex ante di formazione, sono previste forme di consultazione pubblica. Tra le forme ex post si può citare il controllo da parte di organi amministrativi di controllo interni ed esterni, Collegio dei revisori e Corte dei Conto, e la sindacabilità giurisdizionale presso la giustizia amministrativa, Tar e Consiglio di Stato. Trasparenza, equità ed accessibilità delle procedure adottate: decisioni devono essere frutto di una pari considerazione di tutti gli interessi in gioco. Criterio che trova limiti nei requisiti di indipendenza e competenza, ma che fornisce una base per la sua accountability. àLe autorità di regolazione nell’ordinamento italiano Principi dell’attività di regolazione disciplinati nella legge 481\1995, che istituisce l’Autorità per l’energia elettrica ed il gas e l’Autorità per le garanzie nelle telecomunicazioni. La legge nasce in un contesto di ripensamento del ruolo dell’operatore pubblico nell’economia italiana; prendendo atto dell’inefficacia di interventi fondati sul ricorso alla gestione diretta da parte dello stato, si attribuì ad Autorità indipendenti dal potere politico i compiti della regolazione, le cui finalità sono: a. b. c. d. e. Garantire promozione concorrenza ed efficacia nel settore Garantire adeguati livelli di qualità nei servizi Assicurare fruibilità e diffusione dei servizi in modo omogeneo sul territorio Definire sistema tariffario certo, trasparente e basato su criteri predefiniti Promuovere la tutela degli interessi di utenti e consumatori. Le Autorità operano in piena autonomia e con indipendenza di giudizio, e godono anche di autonomia organizzativa, definendo i propri regolamenti. Per entrambe, i componenti sono scelti fra persone dotate di alta e riconosciuta professionalità e competenza nel settore. àAutorità di garanzia e di regolazione Esistono differenze nelle giustificazioni economiche, negli strumenti e negli obiettivi delle politiche della concorrenza e della regolazione. Le autorità di garanzia o tutela sono preposte alla tutela di funzioni di diritti costituzionalmente rilevanti, come libera concorrenza e funzionamento corretto del mercato, e svolgono funzioni prevalentemente giudiziarie, che si sostanziano nell’applicazione delle regole in base a criteri di imparzialità. Sul piano strettamente economico, all’Agcm compete il compito di vigilare sul rispetto delle regole, mentre le Autorità di regolazione intervengono solo laddove vi siano fallimenti di mercato, svolgendo un’attività normativa che definisce ex ante ed ex post regole. L’Agcm, oltre a svolgere attività di segnalazione e formulazione di pareri, ultimamente si è vista assegnare poteri di intervento, per prevenire la formazione e\o il mantenimento di posizioni dominanti nel settore delle comunicazioni, dell’energia elettrice e della televisione a pagamento. 102 Le autorità di regolazione invece accentuano sempre più la loro funzione di monitoraggio sull’andamento del settore e sul rispetto dei vincoli di regolazione. 103 Capitolo 22 La proprietà pubblica e privata delle imprese. Le privatizzazioni. Nell’epoca seguita alla prima rivoluzione industriale nei paesi dell’Europa occidentale venne usata la proprietà statale come soluzione al problema costituito dalla presenza di monopoli naturali. Così si definiscono i settori di attività economica, cioè quei settori per i quali vale la condizione di sub-additività, ovvero una funzione dei costi di produzione che presenta un minimo in corrispondenza dell’esistenza di una sola impresa. Negli Stati Uniti, al contrario, si preferì la regolamentazione e la concessione a privati per lo sviluppo delle grandi industrie di servizi. In seguito alla grande depressione, che provocò una crisi di sfiducia nei meccanismi dell’economia di mercato, la proprietà statale delle imprese non fu più considerata uno strumento per correggere le market failures nei casi di monopolio naturale ma assunse anche un carattere valoriale che vedeva nella nazionalizzazione dell’industria uno strumento per sostenere l’occupazione e per correggere le disuguaglianze distributive causate dal capitalismo. L’idea che le nazionalizzazioni fossero uno strumento per una maggiore equità distributiva si rafforzò dopo la seconda guerra mondiale e la proprietà pubblica si estese nei settori dell’industria pesante e del sistema bancario. à Privatizzazioni in Italia Nonostante nel corso degli anni ’70 l’Italia era il paese occidentale con maggiore estensione della mano pubblica sulla proprietà delle imprese, il processo attraverso cui il fenomeno si era realizzato non aveva mai avuto un carattere ideologico o politico. La statalizzazione dell’economia italiana non derivava dai principi del socialismo ma aveva origine in caratteristiche storiche e culturali che caratterizzarono la prima fase dell’industrializzazione italiana. Per le prime Claudio Napoleoni e Sylos Labini individuarono il ritardo con cui l’industrializzazione si avviò in Italia, nel fatto che le tecnologie richiedevano capitali ingentissimi difficilmente reperibili solo con il ricorso a privati cittadini. Tra le seconde vi è l’antica diffidenza del carattere nazionale degli italiani verso il libero mercato e l’impiego dei capitali in investimenti a rischio. Scarsità di capitale di rischio, dipendenza dalle banche e dalle sovvenzioni statali furono le caratteristiche originali del processo di industrializzazione italiano. La soluzione fu trovata nel sistema della banca universale, la quale raccoglie depositi dai risparmiatori e li converte in investimenti a lungo termine nelle attività produttive. L’intreccio tra banche e controllo delle imprese fece si che, dopo la grande depressione, l’insolvenza delle imprese minacciò il tracollo dell’intero sistema bancario. Il governo intervenne con la costituzione dell’IRI e finì con il ritrovarsi proprietario non solo delle banche nazionali “salvate” ma anche di gran parte delle imprese italiane di cui le banche costituivano i principali azionisti. Queste vicende conferirono alla dirigenza delle imprese pubbliche una forte autonomia dando vita ad una esperienza di corporate management. La formula delle partecipazioni statali infatti realizzava la separazione tra proprietà e controllo, non per l’assenteismo della proprietà ma per il fatto che il principale azionista ( lo stato) si asteneva dall’interferire con il management. Il successo delle partecipazioni statali in Italia si fondava su due aspetti: • professionalità del management: in origine il management non proveniva dalla burocrazia ma dal settore privato e questo carattere veniva preservato con il meccanismo della cooptazione, escludendo interferenze politiche nella scelta dei dirigenti; • autonomia finanziaria: l’equilibrio finanziario si basava su discreti margini di profitto, tassi d’interesse bassi e raccolta d’ingenti capitali con lo strumento obbligazionario e l’intermediazione dei grandi istituti mobiliari del tempo. Questo equilibrio si danneggiò tra gli anni ’60-’70 per l’erosione dei margini di profitto (determinata da una redistribuzione del reddito più favorevole ai salari) e per il rialzo dei tassi d’interesse. La situazione non migliorò fino alla nomina di Guido Carli come ministro del tesoro. Diventato poi governatore della Banca D’Italia fu un fautore della stabilità monetaria, secondo cui l’inflazione, oltre ad essere un danno per l’economia nel suo complesso, costituisce un’imposta regressiva che colpisce le categorie più deboli. È proprio con Carli che 104 prende avvio il progetto di privatizzazioni italiano nel 1990; egli infatti istituì una commissione con l’incarico di predisporre un piano per avviare l’azione politica economica delle privatizzazioni. Idea giuda del piano: superare l’ostacolo più facile per ottenere consenso e, anche in forza di quello, procedere per affrontare quelli più difficili. Quindi fu indicato come strumento preliminare la trasformazione in SPA delle imprese pubbliche che avevano già caratteristiche adatte al collocamento di azioni al pubblico. Per le altre imprese in cui vi era un’eccessiva diversificazione delle partecipazioni (come IRI) era preferibile la formula dello spin-off, cioè la vendita separata delle capogruppo settoriali, indirizzo seguito dal successivo governo Amato. Oltre ad identificare lo strumento, il piano di privatizzazioni indicava sei obbiettivi: 1. 2. 3. 4. 5. 6. Risanamento del bilancio e del debito pubblico mediante proventi delle vendite di azioni Allargare il mercato azionario nazionale Favorire l’afflusso di capitali dall’estero Introdurre maggiore concorrenza nell’economia di mercato Eliminare l’influenza dell’azionista occulto, cioè del sistema dei partiti sulla gestione delle imprese Creare consenso politico I primi quattro obiettivi sono stati conseguiti in misura non trascurabile cosa che non è avvenuta per gli ultimi due. Una parte rilevante di ciò che furono l’IRI e l’EFIM si trova ancora sotto il controllo pubblico, così come l’Eni e l’Enel. Nelle privatizzazioni del settore bancario pubblico un ruolo rilevante è stato svolto dalle fondazioni derivanti dagli scorpori dettati dalla legge Amato. Tuttavia la governace delle fondazioni è in parte controllata indirettamente da partiti politici. Per quanto riguarda le aziende municipalizzate le pochissime cessioni realizzate avendo riguardato quote di minoranza non sono classificabili come privatizzazioni. Poiché questa prima fase non è stata completamente realizzata, risultava impossibile raggiungere gli obiettivi della seconda fase, cioè estendere le privatizzazioni agli altri servizi pubblici. 105 Capitolo 23 Il protezionismo. Con il termine di protezionismo economico intendiamo qualunque forma di intervento statale, come i dazi e il contingentamento delle importazioni, le sovvenzioni alle imprese e così via, che hanno l’effetto di determinare un sistema di prezzi nel mercato interno diverso da quello che si formerebbe in loro assenza in un regime concorrenziale, e il cui obbiettivo consisterebbe nel favorire produttori nazionali rispetto a quelli esteri, migliorando la bilancia commerciale e il livello di occupazione. RAGIONI A SOSTEGNO DELLE POLITICHE PROTEZIONISTICHE: - Il protezionismo preserva l’occupazione nell’industria nazionale Il protezionismo impedisce che un’intera industria nazionale venga eliminata: in caso contrario si creerebbe una dipendenza dai fornitori esteri Il protezionismo costituisce un contrappeso alle politiche di aiuti più o meno occulte di cui beneficiano i concorrenti stranieri: tariffe doganali, quote alle importazioni e aiuti alle imprese rappresentano strumenti insostituibili nei negoziati del commercio internazionale Il protezionismo sarebbe necessario nelle fasi iniziali (infant industries) dello sviluppo di un settore esposto alla concorrenza internazionale. RAGIONI CONTRO IL PROTEZIONISMO: Tra le ragioni per cui i sistemi basati sull’economia di mercato producono risultati migliori di ogni altro sistema, Smith indicava in particolare il legame fra specializzazione, produttività del lavoro e estensione del mercato. Ne consegue che ogni restrizione artificiale degli scambi opera a danno della specializzazione e quindi della produttività del lavoro. Le misure protezionistiche conferiscono vantaggi ai produttori nazionali a spese dei consumatori. L’analisi di Smith verrà ripresa da Ricardo con la “teoria dei vantaggi economici comparati”, in cui si ipotizza un rapporto bilaterale tra due paesi che producono due sole merci: anche se la produttività di un paese fosse stata superiore a quella del secondo paese per entrambi i prodotti, la soluzione ottimale sarebbe stata quella di produrre solo la merce per cui la sua produttività risultasse più elevata. Si tratta di una tesi anti-intuitiva e spesso mal compresa. Ma semplici calcoli matematici permettono di dimostrare che la soluzione della specializzazione ricardiana porta ad un volume di produzione più elevato, il quale potrebbe essere poi ripartito attraverso lo scambio. L’ultimo grande economista della tradizione inglese, Keynes, affrontò il problema del mercantilismo sotto il profilo del legame tra protezionismo e livelli occupazionali nella sua opera “teoria generale dell’occupazione, dell’interesse e della moneta”: vi è una correlazione inversa tar surplus della bilancia commerciale e livello dei tassi di interesse, che può sussistere solo in un regime monetario basato sulla convertibilità della moneta in metalli preziosi. à politiche predatorie Le politiche protezionistiche costano al soggetto che le pratica assai più di quanto rendano alla comunità nel suo complesso. L’effetto reale del protezionismo consiste invece nell’avvantaggiare un gruppo d’interesse, ponendone il costo a carico della collettività. Tuttavia l’utilizzo degli strumenti protezionistici rappresentano il male minore quando esso costituisce una ritorsione a comportamenti protezionistici messi in atto da altri paesi, oppure alla palese violazione delle regole della fair competition. Ci si riferisce alle politiche predatorie che consistono tipicamente nel praticare prezzi inferiori al costo variabile (marginale) alo scopo di eliminare uno o più competitori, salvo poi, una volta conseguita una posizione dominante, sfruttarla con l’imposizione di prezzi monopolistici. 106