La scienza come nuova religione

Consulenza di formazione e sviluppo della personalità

La scienza come nuova religione

La scienza come nuova religione: la fede nel metodo scientifico e il laicismo del mondo quantico

Il problema del metodo

Tutta la storia della ricerca scientifica si basa sul tentativo di rendere oggettiva l’indagine del ricercatore e a questo scopo, fin dalle origini del pensiero scientifico e filosofico, si perviene alla enunciazione di assunti che possano consentire a ogni successivo ricercatore di proseguire l’indagine iniziata dai predecessori.

Tuttavia, il punto critico dell’osservazione è definire in modo esatto e percepibile allo stesso modo da altri l’oggetto osservato (principio di oggettività) facendo in modo che le conclusioni dell’osservazione non siano solo il risultato di una percezione individuale non comunicabile e comunque non ripetibile (principio di soggettività).

È con l’Umanesimo che ci si indirizza verso il raggiungimento di questo risultato estendendo la ricerca epistemologica avviata quindici secoli prima da Aristotele.

Anzitutto cosa intendiamo per metodo scientifico: con questa definizione si intende il metodo sperimentale con cui si perviene all’enunciazione di leggi scientifiche mediante conferma tramite esperimento (cioè un’esperienza condotta in condizioni provocate artificialmente e volontariamente chiamate “laboratorio”) di ipotesi basate su osservazioni ripetute di determinati fenomeni. Il procedimento, usato nell’indagine scientifica per studiare sperimentalmente in laboratorio e giungere all’enunciazione di leggi sperimentali, comprende queste fasi fondamentali:

  1. osservazione preliminare dei fenomeni che avvengono nel sistema che si sta studiando;
  2. raccolta delle informazioni già note sul sistema;
  3. scelta delle grandezze di misurazione e individuazione di tutti gli effetti secondari osservabili;
  4. ipotesi di lavoro sulle relazioni tra i fenomeni osservati;
  5. esperimenti ripetuti con misurazione delle grandezze, massima limitazione degli effetti secondari (o eccezioni) e verifica della omogeneità delle condizioni nelle quali si svolgono gli esperimenti;
  6. deduzione logica (metodo aristotelico) di tutte le conseguenze degli esperimenti;
  7. confronto tra le deduzioni sperimentali e le altre informazioni disponibili;
  8. enunciazione della legge sperimentale.

 

La visione empirista

Al metodo sperimentale è strettamente connesso il concetto di “esperimento” il quale coincide solo in parte con quello di “esperienza”: laddove quest’ultima può risolversi nella semplice constatazione di “fatti” e nel loro accumulo più o meno ordinato, l’esperimento implica invece un intervento del ricercatore, volto a riprodurre artificialmente e in condizioni di ripetitività il fenomeno sotto indagine.

Benché già da secoli fosse stato fatto valere il principio dello studio sperimentale di fenomeni naturali, è solo agli inizi nel Seicento, grazie a Francis Bacon, che viene esplicitamente teorizzato il metodo sperimentale come metodo privilegiato dell’indagine scientifica.

Per quanto innovative, le tesi di Bacon rimangono tuttavia in gran parte programmatiche e basate fondamentalmente su un approccio quantitativo allo studio della natura.

Con Galileo Galilei si assiste a una più efficace descrizione dell’indagine sperimentale, quale si sarebbe poi affermata nella scienza moderna, cioè l’indagine basata sulla descrizione quantitativa dei fenomeni investigati e su procedure di conferma di ipotesi formulate matematicamente.

Per Galileo il metodo sperimentale consiste essenzialmente nell’intervento attivo del ricercatore (che, a partire dall’osservazione, deve pervenire all’elaborazione di esplicite ipotesi da sottoporre al controllo sperimentale) e non nell’accumulo passivo di dati, che di per sé non consente alcuna formazione di regolarità empiriche.

Gli sviluppi scientifici e le riflessioni epistemologiche post-galileiane affineranno sempre più la pratica e la teoria del metodo sperimentale e vedranno consolidarsi la contrapposizione tra una concezione induttiva e una concezione deduttiva di esso.

L’uso sempre più frequente, soprattutto a partire da René Descartes, di simulazioni basate su metodi numerici e modelli matematici hanno ampliato l’importanza del metodo e allo stesso tempo hanno dato maggior rigore al metodo e alle regole che il ricercatore deve seguire.

Con il Positivismo, l’esperimento ha assunto le caratteristiche ancor oggi convalidate: ripetibilità e riproducibilità dell’esperimento e convalida dei risultati dell’ipotesi scientifica in presenza, oltre che del metodo di riferimento, di un oggetto di studio e di un fine dell’esperimento, tutto questo per far in modo che la presenza del ricercatore, all’interno dell’esperimento, risulti essere una variabile neutra e ininfluente.

 

I primi cedimenti delle certezze metodologiche: l’inapplicabilità a tutti i campi della ricerca

Il problema scientifico sembrava risolto in via definitivo. Anche il criterio di falsificabilità introdotto da Karl Popper, confermava il valore della verificabilità sperimentale.

Poco importava se tutte le altre cosiddette scienze (o scienze non esatte), quali la storia o la sociologia non potessero avere modelli predittivi come la matematica o la fisica. Ma è proprio questo aspetto a generare i primi dubbi. Ed è molto significativo quanto scrisse Karl Popper all’inizio degli anni Sessanta del secolo scorso nel suo “Congetture e confutazioni”:

«Gli analisti freudiani sottolineavano che le loro teorie erano costantemente verificate dalle loro “osservazioni cliniche”.

Quanto ad Adler restai molto colpito da un’esperienza personale. Una volta, nel 1919, gli riferii di un caso che non mi sembrava particolarmente adleriano, ma che egli non trovò difficoltà ad analizzare nei termini della sua teoria dei sentimenti di inferiorità, pur non avendo nemmeno visto il bambino.

Un po’ sconcertato, gli chiesi come poteva essere così sicuro. “A causa della mia esperienza di mille casi simili” egli rispose; al che non potei trattenermi dal commentare: “E con questo ultimo, suppongo, la sua esperienza vanta milleuno casi”. Mi riferivo al fatto che le sue precedenti osservazioni potevano essere state non molto più valide di quest’ultima; che ciascuna era stata a sua volta interpretata alla luce della “esperienza precedente”, essendo contemporaneamente considerata come ulteriore conferma.

Conferma di che cosa, mi domandavo? Non certo più che del fatto che un caso poteva essere interpretato alla luce della teoria.

Ma questo significava molto poco, riflettevo, dal momento che ogni caso concepibile poteva essere interpretato alla luce della teoria di Adler, o parimenti di quella di Freud.

Posso illustrare questa circostanza per mezzo di due esempi assai differenti di comportamento umano: quello di un uomo che spinge un bambino nell’acqua con l’intenzione di affogarlo; e quello di un uomo che sacrifica la propria vita nel tentativo di salvare il bambino.

Ciascuno di questi casi può essere spiegato con la stessa facilità in termini freudiani e in termini adleriani.

Per Freud, il primo uomo soffriva di una repressione, per esempio, di una qualche componente del suo complesso di Edipo, mentre il secondo uomo aveva raggiunto la sublimazione.

Per Adler, il primo soffriva di sentimenti di inferiorità determinanti forse il bisogno di provare a se stesso che egli osava compiere un simile delitto, e lo stesso accadeva al secondo uomo, che aveva bisogno di provare a se stesso di avere il coraggio di salvare il bambino.

Non riuscivo a concepire alcun comportamento umano che non potesse interpretarsi nei termini dell’una o dell’altra teoria.

Era precisamente questo fatto – il fatto che dette teorie erano sempre adeguate e risultavano sempre confermate – ciò che agli occhi dei sostenitori costituiva l’argomento più valido a loro favore.

Cominciai a intravedere che questa loro apparente forza era in realtà il loro elemento di debolezza».

 

La crisi delle scienze

Nel campo della ricerca e dello sviluppo, il metodo sperimentale ha consentito passi da giganti a livello tecnologico. In un secolo, siamo passati dalla carrozza, al treno, al battello, all’automobile e infine all’aeroplano.

Nella medicina si fanno scoperte che modificano tanto la cura quanto la prevenzione e la profilassi. In ambito demografico si assiste a una vera e propria crescita esponenziale. Ma ecco che quando la ricerca ha raggiunto il suo apice, nella fisica si scopre che la materia che sembrava aver trovato il suo confine naturale nelle particelle atomiche aveva ancora tante sorprese in serbo nel mondo delle particele sub-atomiche. Materia ed energia erano ad un passo dall’incontrarsi.

Alla fisica newtoniana si sostituivano le teorie di Einstein, ma incalzavano poi le teorie di Niels Bohr, David Bohm e Max Born, Richard Feynman e Max Planck. Era l’alba della fisica quantistica e l’astro nascente era Werner Heisenberg.

Detto che già con Gödel e i suoi teoremi di incompletezza la matematica aveva subito un duro colpo, toccava ora alla fisica, scienza esatta della materia, trovarsi di fronte al momento di massima crisi di tutta la sua storia.

 

Il paradosso quantistico

Nel 1927, Heisenberg formulava il principio di indeterminazione secondo il quale non è possibile conoscere simultaneamente posizione e quantità di moto di un dato oggetto con precisione arbitraria.

Crollava il paradigma della neutralità del ricercatore: nel mondo infinitamente piccolo (o microcosmo) il ricercatore influenzava in modo rilevante l’esperimento.

Ecco un aneddoto sulle conseguenze di questa scoperta: Albert Einstein affermò a quel punto: “Non credo che Dio abbia scelto di giocare a dadi con l’universo” ma Niels Bohr rispose: “Einstein, smettila di dire a Dio cosa deve fare” e Richard Feynman aggiunse: “Non solo Dio gioca a dadi, ma li lancia dove non possiamo vederli”. È il crollo di ogni possibile fede nella scienza.

In ogni caso, pochi anni dopo, Edmund Husserl denunciava inevitabilmente la crisi delle scienze e della fede che da esse derivava nel suo “La crisi delle scienze europee e la fenomenologia trascendentale”.

L’avvento della meccanica quantistica ha determinato una nuova rivoluzione copernicana che ci ha introdotto nel mondo dell’infinitamente piccolo, mettendo in crisi la neutralità del ricercatore.

Nell’universo microscopico si potrebbe addirittura pensare che questa interferenza del ricercatore possa essere causa dell’effetto che modificherà la posizione della particella stessa al punto paradossale di poter pre-vedere dove essa si troverà.

La sola presenza del ricercatore farebbe da informazione (causa) per l’effetto (previsto): il collasso della funzione d’onda. Sarebbe come fermare un elettrone a mani nude o determinare il variare del clima; interferire attraverso la propria presenza con la natura circostante. Dunque, la natura si farebbe naturata, per dirla con Spinoza. Ma questo nell’universo microscopico.

E nel nostro piccolo universo newtoniano? Lì, ahimè, continuiamo a cercare il Sé nascosto…

Tags: , , , , , , , , ,