Home

 

COMPLESSITÀ, RISOLUZIONE DEI PROBLEMI E SOCIETÀ SOSTENIBILI

di Joseph A. Tainter, 1996
traduzione di Carpanix

 


Quadro d’insieme
Introduzione
Lo sviluppo della complessità socio-economica
Il collasso dell’Impero Romano
Popolazione, risorse e industrializzazione
Scienza e risoluzione dei problemi
Implicazioni degli esempi
Risoluzione dei problemi, energia e sostenibilità
Conclusioni
Ringraziamenti
Note
Riferimenti


Quadro d’insieme

La conoscenza storica è essenziale per le applicazioni pratiche di economia ecologica. I sistemi di risoluzione dei problemi, nel lungo periodo, sviluppano sempre maggiore complessità e sempre maggiori costi. Col tempo, tali sistemi o richiedono sempre maggiori sussidi energetici, o collassano. Ritorni sempre minori in risposta alla risoluzione dei problemi complessi hanno limitato la capacità delle prime società di rispondere in modo sostenibile alle sfide e determineranno le risposte attuali al cambiamento globale. Per affrontare questo dilemma, dobbiamo capire tanto il ruolo dell’energia nel sostenere la risoluzione dei problemi, quanto la nostra posizione storica in sistemi di crescente complessità.

 

Introduzione

Nella nostra ricerca per capire la sostenibilità ci siamo impegnati a comprendere fattori quali le trasformazioni energetiche, i limiti biofisici, e il deterioramento ambientale, così come le caratteristiche umane che spingono la produzione e il consumo, e i presupposti dell’economia neoclassica. Col crescere delle nostre conoscenze della materia, emergono le applicazioni pratiche dell’economica ecologica. Eppure, tra questi passi avanti, manca qualcosa. Ogni problema umano non è altro che un momento di reazione a eventi e processi precedenti. Gli schemi storici si sviluppano in generazioni o anche in secoli. Raramente l’esperienza di una vita rivela appieno l’origine di un evento o di un processo. I livelli di impiego nella produzione delle risorse naturali, per esempio, possono rispondere a un ciclo di investimenti di capitali con una durata di decenni (Watt 1992). I fattori che portano le società al collasso richiedono secoli per svilupparsi (Tainter 1988). Per progettare le politiche per il presente e per il futuro, dobbiamo comprendere i processi sociali ed economici su ogni scala temporale, e comprendere dove ci troviamo nel percorso storico. La conoscenza storica è essenziale per la sostenibilità (Tainter 1995a). Nessun programma inteso a incrementare la sostenibilità può essere considerato un programma concreto se non comprende questa conoscenza fondamentale.

In quest’era di cambiamenti ambientali globali ci troviamo di fronte quella che può essere la più grande sfida dell’umanità. L’insieme delle trasformazioni etichettate come cambiamento globale fa sembrare un nonnulla ogni esperienza precedente, sia per quanto riguarda la sua rapidità, sia per quanto riguarda la scala geografica delle sue conseguenze, sia per quanto riguarda la quantità di persone che ne saranno interessate (Norgaard 1994). Già molte volte, le popolazioni umane del passato si sono trovate di fronte a sfide straordinarie, e la differenza tra i loro problemi e i nostri consiste solo nelle proporzioni. Ci si potrebbe aspettare che in una società razionale, portata alla risoluzione dei problemi, si cerchi bramosamente di capire le passate esperienze storiche. In realtà, il nostro tipo di educazione e la nostra impazienza nei confronti dell’innovazione ci hanno resi avversi alla conoscenza storica (Tainter 1995a). Nella loro ignoranza, i dirigenti tendono a cercare le cause degli eventi solo nel passato recente (Watt 1992). Come risultato, pur avendo una maggiore opportunità di capire le ragioni a lungo termine dei nostri problemi rispetto alle genti di qualsiasi epoca precedente, in gran parte la ignoriamo. Non solo non sappiamo qual è il nostro posto nella storia, ma la maggior parte dei cittadini e dei dirigenti non sono neppure consapevoli del fatto che dovremmo saperlo.

Un limite ricorrente incontrato dalle società del passato è stata la complessità nella risoluzione dei problemi. Si tratta di un limite che di solito non viene riconosciuto nell’analisi economica contemporanea. Per i trascorsi 12.000 anni, le società umane sono sembrate divenire inesorabilmente sempre più complesse. Nella maggior parte dei casi, ciò è si è rivelato un successo: la complessità comporta vantaggi, e una delle ragioni del nostro successo come specie è stata la nostra capacità di accrescere rapidamente la complessità del nostro comportamento (Tainter 1992, 1995b). Eppure la complessità può anche rivelarsi dannosa in termini di sostenibilità. Dal momento che il nostro approccio alla risoluzione dei problemi è consistito nello sviluppare la più complessa società e la più complessa economia dell’intera storia umana, è importante capire come se la sono cavata le società precedenti quando hanno intrapreso strategie analoghe. In questo capitolo, discuterò i fattori che hanno portato al collasso le società precedenti, l’economia della complessità nella risoluzione dei problemi e alcune implicazioni dei percorsi storici per i nostri sforzi odierni nella risoluzione dei problemi stessa. La discussione indica che parte della nostra risposta al cambiamento globale deve essere la comprensione a lungo termine dei sistemi di risoluzione dei problemi.

 

Lo sviluppo della complessità socio-economica

La complessità è un concetto chiave di questo saggio. In uno studio precedente l’ho definita così:

«La complessità viene solitamente intesa come qualcosa che si riferisce a elementi quali le dimensioni di una società, il numero e la differenziazione delle sue parti, la varietà dei ruoli sociali specializzati che comprende, il numero delle distinte personalità sociali presenti, e la varietà dei meccanismi per organizzare tutto ciò in un complesso coerente e funzionale. Aumentare una qualsiasi di queste dimensioni, incrementa la complessità di una società. Le società di cacciatori-raccoglitori (assunte come esempio per indicare un contrasto rispetto alla complessità) non contengono più di poche dozzine di personalità sociali distinte, mentre i censimenti europei moderni riconoscono da 10.000 a 20.000 ruoli occupazionali distinti, e le società industriali possono comprendere complessivamente oltre 1.000.000 di tipi differenti di personalità sociali (McGuire 1983; Tainter 1988)». [1]

Come semplice esempio delle differenze nella complessità, Julian Steward ha messo in evidenza il contrasto delle genti native dell’America Nord-Occidentale, tra le quali i primi etnologi documentarono da 3.000 a 6.000 elementi culturali, e l’esercito statunitense, che nella II Guerra Mondiale sbarcò oltre 500.000 tipi di manufatti a Casablanca (Steward 1955). La complessità è quantificabile.

Per oltre il 99% della storia dell’umanità, abbiamo vissuto come raccoglitori o coltivatori a bassa densità, in comunità egualitarie di non più di alcune dozzine di persone (Carneiro 1978). Leslie White ha evidenziato che tale sistema culturale, basato principalmente sul lavoro umano, può generare solo 1/20 di cavallo vapore pro-capite all’anno circa (White 1949, 1959). Da questa base di società indifferenziate che richiedevano piccole quantità di energia, lo sviluppo di sistemi culturali complessi era, a priori, improbabile. Il punto di vista convenzionale è stato che le società umane hanno una tendenza latente verso una maggiore complessità. Si presuppose che la complessità sia una cosa desiderabile e che sia la conseguenza logica di un eccesso di cibo, di tempo libero e di creatività umana. Sebbene questo scenario sia popolare, non è adatto a spiegare l’evoluzione della complessità. Nel mondo della complessità culturale, per usare un’espressione colloquiale, non si mangia gratis. Le società complesse sono più costose da mantenere di quelle semplici e richiedono livelli di sostentamento pro-capite maggiori. Una società più complessa ha più sottogruppi e ruoli sociali, più reti tra gruppi e individui, più controllo orizzontale e verticale, un maggiore flusso di informazioni, una maggiore centralizzazione delle informazioni, più specializzazione e maggiore interdipendenza delle parti. Accrescere una qualsiasi di queste dimensioni richiede energia biologica, meccanica o chimica. Nei giorni precedenti all’introduzione dei combustibili fossili, accrescere la complessità di una società significava di solito che la maggioranza della sua popolazione doveva lavorare più duramente (Tainter 1988, 1992, 1994a, 1995a, 1995b).

Molti aspetti del comportamento umano sembrano opporsi alla complessità (Tainter 1995b). La cosiddetta “complessità della vita moderna” è una lamentela ricorrente nei discorsi popolari. Parte dello scontento dell’opinione pubblica nei confronti dei governi nasce dal fatto che questi aggiungono complessità alla vita della gente. Nelle scienze, il principio del Rasoio di Occam continua ad essere apprezzato poiché afferma che la semplicità in una spiegazione è preferibile alla complessità.

La complessità è sempre stata inibita dai carichi di tempo ed energia che impone, e dalla opposizione alla complessità (senza dubbio legata ai costi). Per questo, spiegare come mai le società umane sono divenute sempre più complesse rappresenta una sfida più di quanto comunemente si creda. La ragione per la quale la complessità aumenta è che, per la maggior parte del tempo, essa funziona. La complessità è una strategia di risoluzione dei problemi che emerge in condizioni di necessità impellenti o di benefici evidenti. Per l’intero corso della storia, le tensioni e le sfide che hanno dovuto affrontare le popolazioni umane, sono spesso state risolte incrementando la complessità. Per quanto in questa sede non sia possibile una trattazione completa, questa tendenza è evidente in campi quali:

  1. La raccolta e l’agricoltura (Boserup 1965; Clark e Haswell 1966-1 Asch et al. 1972; Wilkinson 1973; Cohen 1977; Minnis 1995; Nelson 1995);
  2. La tecnologia (Wilkinson 1973; Nelson 1995);
  3. La competizione, la guerra e la corsa agli armamenti (Parker 1988; Tainter 1992);
  4. Il controllo e la specializzazione sociopolitica (Olson 1982; Tainter 1988);
  5. La ricerca e lo sviluppo (Price 1963; Rescher 1978, 1980; Rostow 1980; Tainter 1988, 1995a).

In ciascuna di queste aree, la complessità cresce per mezzo di maggiore differenziazione, specializzazione e integrazione.

Lo sviluppo della complessità è quindi un processo economico: la complessità riduce i costi e apporta benefici. È un investimento, e restituisce profitti variabili. La complessità può apportare benefici o danni. Il suo potenziale distruttivo è evidente nei casi storici nei quali le accresciute spese per la complessità socioeconomica hanno determinato profitti sempre minori e, alla fine e in alcuni casi, profitti negativi (Tainter 1988, 1994b). Questo risultato emerge da un normale processo economico: le soluzioni semplici e non costose vengono adottate prima di quelle più complesse e costose. Così, col crescere della popolazione umana, la caccia e la raccolta hanno lasciato spazio a una agricoltura sempre più intensiva e ad una produzione alimentare industrializzata che consuma più energia di quanta ne produca (Clark e Haswell 1966; Cohen 1977; Hall et al. 1992). Allo stesso modo, la produzione di minerali e di energia si sposta dalle riserve più facilmente accessibili e sfruttabili con poca spesa a quelle che sono più costose da trovare, estrarre, lavorare e distribuire. L’organizzazione socioeconomica si è evoluta da una reciprocità egalitaria, a una dirigenza a breve termine dai ruoli generici, a complesse gerarchie con sempre maggiore specializzazione.

Il grafico della Figura 4.1 è basato su questi argomenti. Quando una società diviene più complessa, espande gli investimenti in cose quali la produzione delle risorse, l’elaborazione delle informazioni, l’amministrazione e la difesa. La curva del rapporto tra i costi e i benefici di queste spese può dapprima evolvere favorevolmente, quando vengono adottate le soluzioni più semplici, generiche e non costose (una fase non evidenziata nel grafico). Non appena la società incontra nuovi problemi e le soluzioni poco costose non sono più sufficienti, la sua evoluzione procede in una direzione che comporta maggiori investimenti. Alla fine, una società in crescita raggiunge un punto nel quale ulteriori investimenti nella complessità comportano sì maggiori profitti, ma in misura sempre più marginale e in graduale riduzione. Giunti ad un punto quale il punto B1, C1 di questo grafico, una società è entrata in una fase nella quale inizia ad essere vulnerabile nei confronti del collasso. [2]

 

Figura 4.1. Profitti in calo derivanti dalla accresciuta complessità (secondo Tainter 1988).

 

A questo punto, due cose rendono una società soggetta al collasso.

Primo: nuove emergenze premono su un popolo che sta investendo in una strategia che apporta sempre meno profitti. Man mano che tale società viene economicamente indebolita, ha meno riserve alle quali ricorrere per affrontare gravi avversità. Una crisi alla quale essa sarebbe potuta sopravvivere ai suoi inizi, diviene ora insormontabile.

Secondo, i profitti sempre minori rendono la complessità meno attraente e moltiplicano la disaffezione. Man mano che le tasse e gli altri costi crescono e i benefici a livello locale calano, sempre più gente viene attratta dall’idea di essere indipendente. La società si “decompone” poiché la gente persegue i propri bisogni immediati piuttosto che i traguardi a lungo termine dei propri dirigenti. [3]

Man mano che una società di questo genere procede lungo la curva dei profitti marginali fino a superare i punti B2, C2, attraversa una serie di punti, quale B1, C3, nei quali i costi sono sempre maggiori, mentre i benefici sono già scesi ad un livello già disponibile con un minor livello di complessità. Questo è il regno dei profitti negativi che derivano dall’investimento nella complessità. Una società, a questo punto, scoprirebbe che, in caso di tracollo, i profitti derivanti dagli investimenti nella complessità crescerebbero notevolmente. Una società che si trovi in queste condizioni è estremamente vulnerabile nei confronti del collasso.

Questo ragionamento, sviluppato e verificato per spiegare come mai le società collassano (Tainter 1988), è valido anche per analizzare le tendenze economiche storiche della risoluzione dei problemi. La storia della complessità culturale è la storia della soluzione dei problemi da parte degli uomini. In molti settori di investimento, quali la produzione di risorse, la tecnologia, la competizione, l’organizzazione politica e la ricerca, la complessità viene accresciuta da una continua necessità di risolvere dei problemi. Con l’esaurirsi delle soluzioni semplici, la soluzione dei problemi volge inesorabilmente verso maggiore complessità, costi più elevati e profitti minori. Questo non conduce necessariamente al collasso, ma è importante capire in quali condizioni potrebbe. Per illustrare queste condizioni, è utile analizzare tre esempi di complessità e onerosità crescenti nella soluzione dei problemi: il collasso dell’Impero Romano, lo sviluppo dell’industrializzazione e le tendenze della scienza contemporanea.

 

Il collasso dell’Impero Romano

Un risultato della diminuzione dei profitti dovuta alla complessità viene illustrato dal collasso dell’Impero Romano d’Occidente. Come società basata sull’energia solare dall’elevata tassazione, l’Impero aveva poche riserve fiscali. Quando si trovarono di fronte alle crisi militari, gli imperatori romani dovettero spesso reagire svalutando la moneta d’argento (figura 4.2) e cercando di trovare nuovi fondi. Nel terzo secolo d.C. le continue crisi costrinsero gli imperatori a raddoppiare le dimensioni dell’esercito e ad incrementare tanto le dimensioni quanto la complessità degli apparati di governo. Per pagare tutto questo, vennero prodotte grandi quantità di moneta priva di valore, i prodotti furono requisiti ai contadini e il livello di tassazione venne reso ancor più oppressivo (fino a due terzi del raccolto netto dopo il pagamento dell’affitto). L’inflazione devastò l’economia. I territori e la popolazione furono censiti e tassati in tutto l’impero. Le comunità erano ritenute responsabili nel loro complesso per ogni eventuale evasione fiscale. Mentre i contadini diventavano sempre più affamati o vendevano i propri figli come schiavi, si costruivano massicce fortificazioni, le dimensioni dell’apparato burocratico raddoppiavano, l’amministrazione provinciale veniva resa più complessa, si pagavano forti sussidi in oro alle tribù germaniche e si fondavano nuove città e corti imperiali. Con il crescere delle tasse, le terre marginali vennero abbandonate e la popolazione calò. I contadini non erano più in grado di mantenere famiglie numerose. Per evitare gli obblighi civili oppressivi, i ricchi fuggirono dalle città per fondare proprietà rurali autosufficienti. Alla fine, per sfuggire alla tassazione, i contadini accettarono volontariamente un rapporto feudale con questi proprietari terrieri. Poche famiglie ricche finirono per possedere gran parte della terra nell’Impero d’Occidente, e furono in grado di sfidare il governo imperiale. L’Impero si ritrovò a doversi mantenere consumando le proprie risorse di capitali: i terreni produttivi e la popolazione contadina (Jones 1964, 1974; Wickham 1984; Tainter 1988, 1994b). L’Impero Romano fornisce il più documentato esempio della storia di come aumentare la complessità per risolvere i problemi porta a maggiori costi, minori profitti, disaffezione della popolazione produttiva, debolezza economica e collasso. Alla fine, l’Impero Romano non sarebbe più stato in grado di risolvere i problemi derivanti dalla sua stessa esistenza.

 

Figura 4.2. Svalutazione della moneta romana d’argento dall’anno 0 al 269 d.C. (secondo Tainter 1994b, con modifiche). Il grafico mostra i grammi d’argento per denarius (la principale moneta d’argento) dall’anno 0 al 237 d.C. e per mezzo denarius dal 238 d.C. al 269 d.C. (quando il denarius fu sostituito con una moneta più grande equivalente a due denarii).

 

Popolazione, risorse e industrializzazione

Il destino dell’Impero Romano non è il destino inevitabile delle società complesse. È utile discutere un caso storico che è finito diversamente. In uno dei più interessanti lavori di storia dell’economia, Richard Wilkinson (1973) mostrò come, nell’Inghilterra tardo medievale e post-medievale, la crescita della popolazione e la deforestazione stimolarono lo sviluppo economico e furono almeno parzialmente responsabili della Rivoluzione Industriale. Grandi aumenti della popolazione, verso il 1300, il 1600 e sul finire del XVIII secolo, condussero a una intensificazione dell’agricoltura e dell’industria. Man mano che le foreste venivano tagliate per fornire terreno agricolo e combustibili per una popolazione sempre più numerosa, le esigenze di riscaldamento, cottura e fabbricazione dell’Inghilterra non poterono più essere soddisfatte bruciando legna. Il carbone divenne sempre più importante, sebbene venisse adottato con riluttanza. Rispetto alla legna, il carbone era più costoso da ricavare e da distribuire, e meno diffuso. Richiedeva un nuovo, costoso sistema di distribuzione. Quando il carbone divenne importante per l’economia, i depositi più accessibili furono esauriti. Si dovettero mandare i minatori sempre più in profondità, fino al punto in cui l’acqua sotterranea divenne un problema. Alla fine, venne sviluppato e usato il motore a vapore per pompare l’acqua fuori dalle miniere. Con lo sviluppo dell’economia basata sul carbone, divennero disponibili un sistema di distribuzione e il motore a vapore, due degli elementi tecnici più importanti della Rivoluzione Industriale. L’industrializzazione, quel grande generatore di benessere economico, proveniva in parte dai passi messi in atto per contrastare le conseguenze dell’impoverimento delle risorse, presumibilmente una causa di povertà e collasso. Eppure si trattava di un sistema di incremento della complessità che non avrebbe richiesto molto per mostrare ritorni in calo in alcuni settori. Si tornerà su questo punto più avanti.

 

Scienza e risoluzione dei problemi

La scienza attuale costituisce il più grande esercizio di soluzione dei problemi mai messo in atto dall’Umanità. La scienza è un aspetto istituzionale della società, e la ricerca è un’attività che ci piace pensare porti a grandi ritorni. Eppure come le conoscenze generali vengono determinate presto nella storia di una disciplina, così il lavoro che resta da fare è via via sempre più specializzato. Questi tipi di problemi tendono a essere sempre più costosi e difficili da risolvere e, in media, la conoscenza avanza solo a piccoli passi (Rescher 1978, 1980; Tainter 1988). Aumentare gli investimenti nella ricerca comporta ritorni marginali e in calo.

Alcuni importanti studiosi si sono espressi in proposito. Walter Rostow ha sostenuto che la produttività marginale dapprima sorge, quindi declina in singoli campi (1980). Il grande fisico Max Planck, in una affermazione che Nicholas Rescher definisce Principio di Planck dello Sforzo Crescente, ha osservato che «…con ogni avanzamento [nelle scienze] la difficoltà del compito cresce» (Rescher 1980). Man mano che le domande più semplici trovano una risposta, la scienza si rivolge inevitabilmente verso aree di ricerca più complesse e verso organizzazioni più grandi e costose (Rescher 1980). Rescher suggerisce che «col progredire della scienza in uno qualsiasi dei suoi rami di specializzazione, c’è una crescita significativa nel costo complessivo delle scoperte scientifiche di un dato livello di significatività intrinseca…» (1978). La crescita esponenziale delle dimensioni e della costosità della scienza è necessaria semplicemente per mantenere una velocità di avanzamento costante (Rescher 1980). Derek de Solla Price notò che già nel 1963 la scienza stava crescendo più velocemente tanto della popolazione quanto dell’economia, e che di tutti gli scienziati mai vissuti, l’80-90% erano ancora vivi nel momento in cui scriveva (Price 1963). Nello stesso periodo, quello stesso tema portò Dael Wolfle a pubblicare una ricerca su Science, intitolata “Quanta ricerca per un dollaro?” (Wolfle 1960).

Gli scienziati raramente pensano al rapporto tra costi e benefici per quanto riguarda gli investimenti nelle loro ricerche. Eppure, se ci occupiamo in un qualche modo della produttività del nostro investimento nella scienza, ad esempio prendendo in considerazione i nuovi brevetti (figura 4.3), la produttività di alcuni tipi di ricerca mostra un declino. L’assegnazione dei brevetti è un indicatore controverso tra coloro che studiano la materia (Machlup 1962; Schmookler 1966; Griliches 1984), e non fornisce in sé un’idea del ritorno economico in relazione agli investimenti. La medicina è un campo della scienza applicata nel quale i ritorni degli investimenti possono essere determinati con maggiore prontezza. Nel corso del periodo di 52 anni mostrato nella Figura 4.4, tra il 1930 e il 1952, la produttività del sistema sanitario statunitense nei termini del miglioramento della speranza di vita è scesa di quasi il 60%.

La produttività in calo del sistema sanitario statunitense illustra chiaramente lo sviluppo storico di un campo di risoluzione dei problemi. Rescher (1980) osserva: «una volta che tutte le scoperte ad un certo livello della tecnologia investigativa sono state realizzate, ci si deve spostare ad un livello più costoso…» Nelle scienze naturali, siamo coinvolti in una corsa agli armamenti tecnologica: ad ogni vittoria sulla natura, la difficoltà di compiere il passo successivo aumenta.

La produttività in declino della medicina è dovuta al fatto che i rimedi meno costosi per le malattie sono stati raggiunti per primi (la ricerca di base che condusse alla penicillina costò non più di 20.000 dollari), così che trovare quelli che rimangono è più difficile e costoso (Rescher 1978). E man mano che si ottiene ognuno di questi rimedi sempre più costosi, l’incremento della speranza di vita media diviene minore.

 

Figura 4.3. Domande di brevetto in relazione ai finanziamenti per la ricerca, 1942-1958 (dati da Machlup 1962)

 

Figura 4.4. Produttività del sistema sanitario statunitense, 1930-1982 (dati da Worthington 1975; U.S. Bureau of Census 1983). Indice di produttività = (speranza di vita)/(investimenti nazionali nella salute come percentuale del PIL).

 

Implicazioni degli esempi

L’Impero Romano, l’industrializzazione e la scienza sono importanti non solo per i loro meriti, ma anche perché esemplificano: (1) come la soluzione dei problemi si evolve lungo un percorso di crescente complessità, maggiori costi e ritorni marginali e in declino (Tainter 1988), e (2) alcuni diversi risultati del processo. Nella prossima sezione, discuterò cosa implicano questi schemi per i nostri sforzi nell’affrontare i problemi contemporanei.

 

Risoluzione dei problemi, energia e sostenibilità

Questa discussione storica fornisce una prospettiva su ciò che significa essere concreti e sostenibili. Alcuni anni fa, ho descritto un paio di dozzine di società che sono collassate (Tainter 1988). In nessun caso risulta evidente né solo probabile che anche una sola di queste società sia collassata poiché i suoi membri o dirigenti non hanno preso provvedimenti concreti per risolverne i problemi (Tainter 1988). L’esperienza dell’Impero Romano è, ancora una volta, istruttiva. La maggior parte dei provvedimenti che il governo Romano prese per reagire alle crisi – quali svalutare la moneta, innalzare le tasse, ampliare l’esercito e coscrivere il lavoro – furono soluzioni pratiche per problemi immediati. Sarebbe stato impensabile non adottare tali misure. Nell’insieme, però, questi provvedimenti pratici resero l’impero sempre più debole, man mano che le riserve di capitale (i terreni agricoli e i contadini) venivano impoverite per mezzo della tassazione e della coscrizione. Con l’andar del tempo, l’escogitare soluzioni pratiche portò l’Impero Romano a ritorni sempre minori e, alla fine, negativi, nei confronti della complessità. L’implicazione è che incentrare un sistema di risoluzione dei problemi, quale l’economia ecologica, su applicazioni pratiche, non ne accresce automaticamente valore per la società, né incrementa la sostenibilità. Lo sviluppo storico di sistemi di risoluzione dei problemi deve essere compreso e tenuto in considerazione.

La maggior parte di coloro che studiano i problemi contemporanei sarebbero certamente d’accordo sul fatto che risolvere problemi ambientali ed economici richiede tanto conoscenze quanto formazione. Una parte importante della nostra risposta ai problemi attuali è consistita nell’accrescere il nostro livello di ricerca nelle materie ambientali, compreso il cambiamento globale. Col crescere della nostra conoscenza e con l’emergere di soluzioni pratiche, i governi implementeranno quelle soluzioni e le burocrazie le faranno rispettare. Saranno sviluppate nuove tecnologie. Ognuno di questi provvedimenti sembrerà costituire una soluzione pratica per un qualche problema specifico. Eppure, nell’insieme, questi provvedimenti pratici porteranno probabilmente ad un incremento della complessità, a maggiori costi, e a una minore risposta ai tentativi di risoluzione dei problemi. Richard Norgaard ha sintetizzato bene il problema: «Assicurare la sostenibilità estendendo le azioni attuali… richiederà, incrementati di molti ordini di grandezza, una maggiore acquisizione di dati, interpretazione, pianificazione, scelte politiche e controllo burocratico» (Norgaard 1994).

Donella Meadows e i suoi colleghi hanno fornito esempi eccellenti delle implicazioni economiche della risoluzione dei problemi contemporanea. Incrementare la produzione alimentare mondiale del 34% nel periodo 1951-1966, per esempio, richiese una crescita degli investimenti del 63% nei trattori, nel fertilizzanti azotati del 146% e nei pesticidi del 300%. Eliminare interamente gli scarichi organici degli impianti di lavorazione dello zucchero costa cento volte di più che eliminarne il 30%. Ridurre di 9,6 volte il biossido di zolfo nell’aria delle città statunitensi, o ridurre il particolato di 3,1 volte, accresce il costo del controllo dell’inquinamento di 520 volte (Meadows et al. 1972). La risoluzione di ogni problema ambientale si troverà di fronte a difficoltà di questo tipo.

Anche la regolazione burocratica in sé genera ulteriore complessità e ulteriori costi. Quando vengono imposte delle regole e imposte delle tasse, coloro che vengono regolamentati o tassati vanno in cerca di scappatoie, mentre i legislatori si sforzano di impedirlo. Si sviluppa così una spirale di scoperta di scappatoie e di eliminazione delle stesse che porta ad una continua crescita della complessità (Olson 1982). Di questi tempi, in cui il costo del governo manca di supporto politico, tale strategia è insostenibile. Viene spesso suggerito che i comportamenti ambientalmente virtuosi dovrebbero essere ottenuti per mezzo di incentivazioni fiscali, piuttosto che per mezzo di regolamentazioni. Mentre questo tipo di approccio ha alcuni vantaggi, non affronta il problema della complessità, né può ridurre quanto si crede i costi complessivi di regolamentazione. Quei costi possono solo essere spostati sulle autorità fiscali, e sulla società nel suo complesso.

Non è che la ricerca, la formazione, la regolamentazione e le nuove tecnologie non possano potenzialmente alleviare i nostri problemi. Con investimenti sufficienti, probabilmente ne sono in grado. La difficoltà consiste nel fatto che questi investimenti sono costosi, e richiedono una parte sempre crescente del prodotto nazionale lordo di ogni Stato. Con ritorni sempre minori derivanti dalle strategie di risoluzione dei problemi, affrontare la questione ambientale in modo convenzionale significa che sempre maggiori risorse dovranno essere destinate alla scienza, all’ingegneria e al governo. In assenza di una forte crescita economica questo richiederebbe un declino almeno un temporaneo degli standard di vita, poiché alla gente rimarrebbe meno da spendere per il cibo, per la casa, per l’abbigliamento, per le cure mediche, per i trasporti e per i divertimenti.

Per eludere la dispendiosità della risoluzione dei problemi viene spesso suggerito di impiegare le risorse in modo più intelligente e più efficiente. Timothy Allen e Thomas Hoekstra, per esempio, hanno suggerito che nel gestire i sistemi ecologici ed ottenere la sostenibilità, i manager dovrebbero identificare cosa manca nel processo di regolazione naturale e fornire solo quello. L’ecosistema farebbe il resto. Lasciate che l’ecosistema (cioè l’energia solare) sostenga gli sforzi di gestione piuttosto che agire nell’altro modo (Allen e Hoekstra 1992). È un suggerimento intelligente. Allo stesso tempo, implementarlo richiederebbe maggiori conoscenze di quelle delle quali siamo attualmente in possesso. Ciò significa che abbiamo bisogno di ricerca complessa e costosa, che richiede il sostegno dei combustibili fossili. Ridurre i costi della complessità in un campo, provoca il loro innalzamento in un altro.

Il controllo dei parassiti in agricoltura illustra questa incertezza. Quando l’irrorazione per mezzo di pesticidi cominciò a comportare maggiori costi e ad apportare minori benefici, venne sviluppata la lotta integrata. Questo sistema si basa su conoscenze biologiche per ridurre il bisogno di prodotti chimici e comporta il monitoraggio delle popolazioni di parassiti, l’uso di controlli biologici, una applicazione giudiziosa di prodotti chimici, e una attenta selezione del tipo di colture e dei periodi di semina (Norgaard 1994). Si tratta di un approccio che richiede tanto una ricerca di alto livello da parte di scienziati quanto un attento monitoraggio da parte degli agricoltori. La lotta integrata viola il principio dell’evitamento della complessità, il che può in parte spiegare perché non vi si fa ricorso più diffusamente.

Questi punti aiutano a chiarire cosa costituisce una società sostenibile. Il fatto che i sistemi di risoluzione dei problemi sembrino evolversi verso una maggiore complessità, verso costi più elevati e verso profitti minori ha implicazioni significative per quanto riguarda la sostenibilità. Nel tempo, i sistemi che si sviluppano in questa direzione o vengono privati di ulteriori finanziamenti, falliscono nel risolvere i problemi e collassano, o finiscono per richiedere grandi sussidi energetici. Questo è stato il percorso storico in casi quali quello dell’Impero Romano, dei Maya, della società dei Chacoan del Sudovest americano, delle guerre nell’Europa del Medioevo e del Rinascimento, e di alcuni aspetti della risoluzione dei problemi contemporanea (questo è quanto, in ogni caso, io ho analizzato nei dettagli) (Tainter 1988, 1992, 1994b, 1995a). Questi percorsi storici suggeriscono che una delle caratteristiche di una società sostenibile è l’avere un sistema sostenibile di risoluzione dei problemi — uno caratterizzato da profitti crescenti o stabili, o da profitti in calo che possano essere finanziati per mezzo di sussidi energetici affidabili dal punto di vista della reperibilità, del costo e della qualità.

L’industrializzazione illustra questo punto. Essa ha generato da sé i propri problemi di complessità e di costi. Questi comprendono ferrovie e canali per distribuire il carbone e i prodotti finiti, lo sviluppo di un’economia sempre più basata sui soldi e sul salario, e lo sviluppo di nuove tecnologie. Mentre solitamente si pensa che tali elementi di complessità facilitino la crescita economica, nei fatti ciò risulta possibile solo quando viene loro fornita energia dall’esterno. Alcune delle nuove tecnologie, quale quella del motore a vapore, diedero segno relativamente presto del fatto che l’innovazione nel loro sviluppo portava benefici sempre minori (Wilkinson 1973; Giarini e Louberge 1978; Giarini 1984). Ciò che ha differenziato l’industrializzazione dalla storia precedente della nostra specie è stato il suo basarsi su un’energia abbondante, concentrata e di alta qualità (Hall et al. 1992).[5] Con il sostegno dei combustibili fossili a buon mercato, per molto tempo molte delle conseguenze dell’industrializzazione, in effetti, non ebbero peso. Le società industriali potevano permettersele. Quando i costi dell’energia possono essere sostenuti con facilità e senza particolare impegno, il rapporto costi/benefici degli investimenti sociali può essere sostanzialmente ignorato (come è stato nell’agricoltura industriale contemporanea). I combustibili fossili resero l’industrializzazione, e tutto ciò che ne derivò (come la scienza, i trasporti, la medicina, il lavoro, il consumismo, la guerra tecnologica e l’organizzazione politica contemporanea) un sistema di risoluzione dei problemi sostenibile per diverse generazioni.

L’energia ha sempre costituito e sempre costituirà la base della complessità culturale. Se i nostri sforzi per capire e risolvere questioni quali il cambiamento globale, come pare che sia, comprendono l’aumentare la complessità politica, tecnologica, economica e scientifica, allora la disponibilità du energia pro-capite sarà un fattore limitante. Incrementare la complessità sulla base di disponibilità energetiche costanti o in calo, richiederà una riduzione del tenore di vita nel mondo intero. In assenza di una vera crisi, pochissima gente accetterebbe di sostenere una cosa simile. Mantenere il sostegno politico per i nostri investimenti attuali e futuri nella complessità, richiede quindi un incremento nell’effettiva fornitura di energia pro-capite — che sia per mezzo di una accresciuta disponibilità di energia, o che sia per mezzo di innovazioni tecniche, politiche o economiche che riducano il costo energetico del nostro standard di vita. Ovviamente, scoprire tali innovazioni richiede energia il che sottolinea i vincoli determinati dal rapporto esistente tra energia e complessità.

 

Conclusioni

Questo capitolo relativo al passato rende più chiari i percorsi potenziali per il futuro. Un percorso del quale si discute spesso è quello che comprende la semplicità culturale ed economica e l’energia a basso costo. Questo percorso potrebbe prendere il via dal “tracollo” che molti temono — un vero e proprio collasso nell’arco di una o due generazioni, con molta violenza, fame e perdita di popolazione. L’alternativa è quell’“atterraggio morbido” che molte persone sperano possa verificarsi — una riconversione volontaria all’energia solare e ai combustibili ecologici, alle tecnologie per il risparmio energetico e a minori consumi complessivi [mi permetto di includere, in questa lista di soluzioni, la netta riduzione pianificata della popolazione nelle varie realtà locali - N.d.T.]. Si tratta di un’alternativa utopica che, come suggerito in precedenza, si verificherà solo se gravi e prolungati periodi di privazioni nelle nazioni industrializzate la renderanno attraente e se la crescita economica e il consumismo potranno essere rimossi dall’ideologia dominante.

L’opzione più probabile alla quale ci si rivolgerà, è un futuro di maggiori investimenti nella risoluzione dei problemi, che aumenterà la complessità e provocherà un maggiore uso di energia. Questa opzione è portata dalle comodità materiali che comporta, dagli interessi, dalla mancanza di alternative e dalla convinzione che sia un bene. Se la traiettoria della risoluzione dei problemi che l’umanità ha seguito per gran parte degli ulrimi 12.000 anni dovesse continuare, si tratta del percorso che è più probabile che intraprenderemo nel futuro prossimo.

A parte il momento nel quale i nostri sforzi di comprendere e risolvere i problemi contemporanei porteranno a profitti sempre minori, una cosa dovrebbe essere chiara. È essenziale sapere dove siamo da un punto di vista storico (Tainter 1995a). Se gli schemi macroeconomici si sviluppano su periodi di generazioni o secoli, non è possibile comprendere le nostre condizioni attuali a meno che capiamo in quale punto del processo ci troviamo. Abbiamo l’opportunità di divenire il primo popolo nella storia a capire come cambia la capacità di risoluzione dei problemi in una società. Sapere che è possibile e non agire in questo senso sarebbe un grande fallimento dell’applicazione pratica dell’economia ecologica.

 

Ringraziamenti

Questo capitolo è tratto da un discorso al Terzo Convegno Internazionale della International Society for Ecological Economics tenutosi a San Jose, in Costa Rica, il 25 ottobre 1994. Sono grato a Cutler J. Cleveland, Robert Costanza, e Olman Segura per l’invito a presentare il discorso, a Maureen Garita Matamoros per l’assistenza durante la conferenza, a Denver Burns, John Faux, Charles A. S. Hall, Thomas Hoekstra, Joe Kerkvliet, e Daniel Underwood per i commenti e a Richard Periman e Carol Raish per aver revisionato questa versione.

 

Note

[1]

In alcuni testi di scienze fidiche, nel tentativo di ottenere una definizione il più possibile oggettiva, la complessità di un sistema viene considerata la lunghezza della descrizione delle sue irregolarità (Gell-Mann 1992, 1994). Ciò è compatibile con la definizione qui impiegata. Una società con meno parti, con meno differenziazioni e con meno sistemi integrativi o sistemi integrativi più semplici, può certamente essere descritta con maggiore brevità rispetto a una società che ne presenti di più (Tainter 1995b).

[2]

Il collasso è una rapida trasformazione verso un minor grado di complessità, e comprende tipicamente consumi energetici significativamente minori (Tainter 1988).

[3]

Questo è parte del processo responsabile dei movimenti separatisti contemporanei degli Stati Uniti [ehi! anche in Italia abbiamo qualcosa di simile, no? - N.d.T.].

[4]

In questa analisi non ho considerato le cosiddette “alternative verdi”. Nel breve termine, esse appaiono impraticabili per due ragioni.
Primo, le economie industriali sono strettamente vincolate al sistema di produzione e alle risorse esistenti, compresa l’energia convenzionale (Hall et al. 1992; Watt 1992). Il costo di una riconversione industriale rapida e massiccia sarebbe molto alto.
Secondo, l’esperienza fin dal 1973 indica che la maggior parte dei membri delle società industriali non cambierebbero le proprie abitudini di consumo semplicemente a causa di proiezioni astratte circa la disponibilità a lungo termine di energia o altre risorse. Essi agirebbero così solo quando i prezzi dell’energia, dei beni e dei servizi basati su questa energia crescessero di molto per un periodo prolungato. Ci vogliono tempi duri protratti nel tempo per convincere la gente che il mondo al quale si sono abituati è irrimediabilmente cambiato. Tempi duri meno gravi o episodici, consentono solamente ai dirigenti di sfruttare lo scontento popolare per il proprio personale tornaconto. La crescita economica è stata mitizzata come parte della nostra ideologia, il che rende particolarmente difficile discuterne pubblicamente (Giarini e Louberge 1978).

[5]

Il carbone, ovviamente, non fu il solo elemento che produsse l’industrializzazione. Altri fattori compresero scorte di legna da ardere in declino (Wilkinson 1973), cambiamenti nella legislazione fondiaria e disponibilità di lavoratori da impiegare nelle fabbriche.

  

Riferimenti

 

Traduzione di Carpanix
Versione originale in inglese: fai click qui.