Intervento tenuto il 12 giugno 2019 presso la sede della Scuola lacaniana di psicoanalisi in preparazione dell'Incontro di Bruxelles PIPOL 9 sul tema: L'inconscio e il cervello, niente in comune Marco Focchi Le giornate di PIPOL 9 a Bruxelles sul tema L’inconscio e il cervello: niente in comune, che avranno luogo a metà luglio, si svilupperanno lungo tre assi: quello clinico, quello epistemologico, quello politico. Credo sia importante vedere come questi tre vettori portanti siano connessi tra loro, in particolare quello epistemologico e quello politico. La scienza, in effetti, è oggi diventata la fonte basilare di legittimazione della quasi totalità delle pratiche sociali, dalla medicina all’educazione, alle scelte della politica, e di conseguenza si pretende lo diventi anche della psicoanalisi. Nel 2000, per esempio, si è riunito per la prima volta a Londra un Congresso di neuro-psicoanalisi cui hanno partecipato figure di primo piano come Charles Brenner e André Green. Accanto a loro Mark Solms è l’esponente di spicco della corrente di pensiero che maggiormente ha spinto in direzione di una rifondazione della psicoanalisi sulla base delle neuroscienze Vediamo quindi come nel momento in cui con la modernità, quando le antiche fonti di legittimazione – i riti e le religioni che formavano un tessuto di credenze comuni – cominciano a perdere forza, sia la la scienza ad assurgere al ruolo di creare una base comune nel sociale e di giustificare, di ratificare le scelte del potere. Posso riferirmi a quella che sarà la mia parte nel Congresso, ovvero la conversazione che terrò con un fisico, Pablo Jensen, un esponente delle hard sciences, le scienze solide. Si tratta però di un fisico del tutto speciale, perché è un critico radicale della visione spontanea, ingenua, o naturale dell’epistemologia fatta propria degli scienziati oggi. Pablo Jensen infatti riconosce molto bene la valenza politica di cui è investita la scienza nella contemporaneità, e proprio per questo si interroga su quale sia la legittimità della scienza stessa. Nel momento cioè in cui la scienza funge da legittimazione praticamente di tutto nel nostro campo sociale, sorge il quesito: cosa legittima la scienza? Il punto di partenza è una critica che prende di petto la concezione realista dell’epistemologia classica a cui gli scienziati abitualmente fanno fede. La concezione realista afferma che la scienza, dissipando le illusioni della percezione comune, fa emergere la base oggettiva, indiscutibile, della realtà.
Il retaggio di questa certezza viene da chi per primo ha mosso i passo della scienza, da Galileo Galilei. Come sappiamo Galilei pone in auge la matematica come linguaggio della natura, e la matematica è una concatenazione rigorosa, è qualcosa a cui non si sfugge – due più due fa quattro in qualsiasi latitudine e in qualsiasi etnia. Nella misura in cui consideriamo che la matematica corrisponda alla struttura intima della realtà, con le nostre conoscenze matematiche possiamo allora coglierla – cosa che la semplice sensibilità e la percezione non ci permettono di fare – e operarvi, soprattutto operarvi. La misteriosa corrispondenza tra la struttura matematica della natura e quella del nostro pensiero straniva ancora per esempio Albert Einstein, che si domandava: “Come mai una costruzione che in fondo viene dalla mente umana, come la matematica, riesce ad adeguarsi così precisamente alla costituzione profonda della realtà, al modo in cui questa stessa è formata?“ È su questo che Jansen prende una posizione diversa, e per farlo comincia con il domandarsi: “In che modo Galilei ha costruito le sue leggi?” Galilei definisce le leggi del movimento e, per esempio, il suo problema è individuare una causa unica di quel che accade. Dobbiamo dire innanzi tutto che Galilei si occupa di certi movimenti. Si riferisce infatti esclusivamente al movimento di traslazione, che è solo uno dei vari movimenti di cui parlava Aristotele, e non menziona per esempio la generazione e la corruzione dei corpi, che sono all’origine delle diverse trasformazioni cui assistiamo nel nostro mondo. Uno dei risultati più conosciuti di Galilei, che impariamo a scuola, è che la palla da biliardo e la piuma cadono a terra con la stessa velocità. Tutti ormai lo sappiamo. Si tratta comunque di un fenomeno che contraddice la nostra esperienza, perché se buttiamo per terra una piuma vediamo che ci mette un po’ a cadere, certamente più della palla da biliardo. Il fatto è che i due corpi cadono con la stessa velocità a condizione di cadere nel vuoto, perché la gravità li attrae con la stessa forza quando non è impedita dall’attrito dell’aria. Galilei non si preoccupa quindi di come vediamo cadere i corpi, gli interessa invece individuare la forza che è causa della caduta. Per farlo deve eliminare tutti i fattori di disturbo che interferiscono con questa forza, nella fattispecie l’attrito dell’aria. Al fine di riconoscere la gravità come causa della caduta dobbiamo così astrarre, dall’intrico della realtà in cui si presenta, il fattore che possiamo poi considerare come causa unica, proprio perché separato da tutti gli altri elementi che interagiscono con lui. Quando facciamo cadere un foglio di carta sappiamo che non va giù a piombo, e volteggia, perché sottoposto alla spinta di diverse forze. Si tratta allora di sciogliere l’intrico di forze che agiscono su un corpo per eleggere una causa unica di un movimento. Questo ci mette davanti agli occhi il fatto che le scienze fisiche, le scienze della natura, non stanno affatto nella natura anzi, devono togliersi dalla natura ed entrare nel laboratorio per poter formulare le proprie leggi. Eliminare dal calcolo l’attrito dell’aria è infatti già una potente operazione di astrazione. Lo scienziato vive quindi in laboratorio, e se lo riportiamo nella realtà concreta, con tutte le complesse interazioni, vediamo che le cose non quadrano esattamente nello stesso modo che in laboratorio. Se ogni tanto un missile spedito in orbita dalla Nasa salta per aria o non va dove deve, è perché in tutti i calcoli geometrici perfettamente purificati e astratti che gli scienziati della Nasa sono in grado di fare, si introduce a sorpresa un fattore di realtà che appanna la precisione e l’astrazione della scienza. La prima questione di cui tenere conto quindi è che la scienza non legge la realtà nella sua indiscutibile oggettività, ma che piuttosto costruisce un terreno comune, attraverso degli esperimenti che devono essere riproducibili. Gli scienziati sanno che è molto difficile realizzare questa riproducibilità, bisogna creare condizioni molto restrittive in laboratori altamente standardizzati. Quel che la scienza offre non è tanto la corrispondenza delle leggi con la realtà come veramente è, ma piuttosto una serie di catene di standardizzazione che formano un terreno comune. Consideriamo per esempio la misurazione della temperatura. Si comincia sfruttando la proprietà d’espansione di un liquido situato in un tubo graduato in uno strumento inventato da un medico veneziano amico di Galilei. Siccome però gli strumenti con cui si faceva la rilevazione della temperatura erano diversi, lo stesso paziente poteva avere, secondo l’attrezzo che si usava, gradi di febbre molto variabili, quindi venivano misurate temperature molto diverse. Quando si cercò, qualche decennio dopo, di standardizzare i termometri, la cosa non risultò tanto semplice. Un costruttore poteva standardizzare i propri strumenti, che però facilmente risultavano diversi da quelli di un altro. Si è dovuto ricorre a dei fenomeni fisici fissi a cui attribuire un valore tra 0 e 100, ma è stato necessario prima scoprire che l’acqua, arrivata al punto di ebollizione, non si scaldava ulteriormente. C’era però ancora un’insidia nascosta: con il calore il liquido si dilata, ma insieme a lui anche il vetro della scala graduata. Con i termometri ad aria l’inconveniente era minore, ma si è dovuti arrivare a concepire lo zero assoluto – che è un’astrazione non raggiungibile in fisica – perché la temperatura diventasse la misura oggettiva del calore, giacché caldo o freddo sono solo sensazioni soggettive, e la scienza vuole separare le qualità secondarie, cioè le nostre percezioni, da quelle primarie cioè oggettive. La temperatura oggettiva risulta così, in ultima istanza, un’istituzione dipendente dalla creazione del concetto di zero assoluto. Le istituzioni raccordano quel che le persone hanno tra loro di diverso mettendolo su un terreno comune e uniformato. La concezione della scienza come ciò che ci offre una visione oggettiva della realtà è discutibile, dal punto di vista di Jensen, perché in realtà quel che la scienza ci dà è piuttosto un terreno comune basato su astrazioni che creano un’istituzione per rendere trasmissibili un’insieme di saperi. La scienza vista nella prospettiva epistemologia classica è quel che dice Feynman in una sua definizione: se conosciamo il funzionamento degli atomi, invariante ultima di cui è costituito l’universo, allora conosciamo tutto l’universo. Si tratta di una concezione meccanicistica in ultima istanza. Questo ci fa capire il riduzionismo che si può riscontrare a volte anche nelle neuroscienze: se conosciamo il funzionamento dei neuroni, cioè della materia presente nel cervello, e le loro interrelazioni, allora conosciamo tutto quello che dal cervello deriva, compresi i nostri pensieri, ammesso che i pensieri vengano dal cervello. Lacan diceva di pensare con i piedi, e può sembrare una battuta, ma se ci riflettiamo non lo è affatto. Nella filosofia analitica c’è il famoso esperimento mentale del cervello nella vasca. Che differenza c’è – ci si domanda – fra un cervello posto in una vasca e collegato con elettrodi che trasmettono segnali equivalenti alle percezioni, e il cervello nella nostra scatola cranica, collegato agli organi di senso da cui abitualmente traiamo le percezioni? Al cervello isolato nella vasca possiamo mandare tutte le percezioni e rendere l’impressione di un mondo reale, come in una specie di Matrix. Il fatto è che non pensiamo solo col cervello, pensiamo con tutto il corpo, e non solo con i piedi. C’è un esperimento famoso fatto da Piaget per capire quando un bambino inizia ad avere la cognizione del numero. Piaget mette quattro gettoni disposti in modo che appaiano molto allargati sul tavolo, e ne mette accanto cinque più vicini tra loro. Chiede poi al bambino: “Dove ce n’è di più?”. Invariabilmente il bambino risponde che ce n’è di più dove ci sono i quattro gettoni che occupano più spazio. C’è stato però un altro psicologo che ha fatto lo stesso esperimento con delle caramelle, e in questo caso nessun bambino si sbagliava. La motivazione è importante, è essenziale. L’idea della filosofia analitica di un cervello nella vasca non sta in piedi perché in realtà il cervello non è la sola sede della nostra interazione con il mondo. La motivazione del pensiero non è tanto infatti la contemplazione delle stelle – come si racconta di Talete che guardando le stelle finisce in un pozzo – ma le esigenze concrete. Se conosciamo l’orso, non è perché gli etologi si sono occupati di lui prima di noi. Il primo uomo che si è imbattuto in un orso, qualche milione di anni fa, non era lì per studiarne la natura, probabilmente stava andando a caccia e ha capito che si trattava di un animale con il quale era meglio fare attenzione. Come vi dicevo all’inizio la questione da cui partire per la nostra riflessione è che le scienze hanno un potere legittimante, ma di che cosa? Stacchiamoci dall’idea di un sostrato ontologico di cui le scienze rivelerebbero l’oggettiva realtà trasmettendocelo senza deformazioni soggettive, perché è piuttosto l’istituzione creata dalle scienze il terreno comune che ci permette di parlarci. Le scienze vogliono spiegare il movimento e le trasformazioni. Di fatto possiamo spiegare delle trasformazioni solo se abbiamo delle costanti. Quali sono le costanti? Vediamo che l’acqua si trasforma in ghiaccio, poi si trasforma in vapore, e la stessa cosa ha forme molto diverse per la nostra percezione. Come risolvono gli scienziati in chimica questa questione? C’è una molecola, H2O, che è invariante, e secondo il movimento delle molecole, più o meno agitato, si produce lo stato liquido, solido o gassoso. Questo però è quel che vediamo oggi. Nell’Ottocento, quando si è iniziato a porsi il problema, l’idea era che ci fosse una sostanza sottile, il calorico, fatta di particelle che si respingevano. Se si immetteva questa sostanza in un liquido, poiché le molecole si respingevano fra loro, faceva sì che si allontanassero producendo lo stato gassoso. Con questa idea del calorico si sono spiegate una quantità di cose, ed erano spiegazioni che funzionavano, che andavano insieme ai calcoli della matematica. Riflettiamo su che cos’è una spiegazione scientifica. Spiegare significa mettere in relazione due livelli: uno è il livello macroscopico, quello che vediamo, l’altro è il livello soggiacente, che è un modo di immaginare quel che non possiamo vedere. Ci sono formule, leggi che descrivono perfettamente certi comportamenti fisici, ma quando cerchiamo di darci una spiegazione ci costruiamo un quadro, delle immagini di come succedono le cose e, considerando le diverse condizioni di una materia come l’acqua nei suoi stati gassoso, liquido o solido, immaginiamo gli atomi come delle palline che si muovono più o meno rapidamente, ma anche questa, come quella del calorico, è un’immagine, qualcosa di cui siamo convinti e che funziona con le formule matematiche. In queste spiegazioni abbiamo immagini che non corrispondono a nessuna possibilità percettiva dei nostri sensi, e che dobbiamo molto dilatare con degli strumenti o, quando non è possibile, con la fantasia, perché diventino una spiegazione, perché prendano senso per noi. Gli atomi sono allora l’elemento ultimo della spiegazione, e nelle scienze funzionano perché offrono stabilità. In realtà non sono poi gli atomi veri e propri a essere stabili, sono piuttosto gli elettroni e i nuclei, si tratta comunque delle particelle ultime della materia. Attraverso le varie trasformazioni, sono questi elementi stabili che permettono di costruire leggi, di formulare equazioni per spiegare il comportamento della materia. Il problema sorge quando cerchiamo di trasporre questa modellizzazione, che funziona così bene nella fisica, nel campo sociale. Qui infatti non troviamo la stessa stabilità, e quando gli scienziati costruiscono modelli per spiegare i comportamenti delle persone e applicarli alla società, trasferiscono schemi operativi che vengono dalla fisica. Il metodo fondamentale consiste nel considerare certi fenomeni reali e tradurli in numeri, il che vuol dire astrarre alcuni comportamenti che possano entrare in equazioni. Un fisico francese che ha cercato di formulare una legge per prevedere l’esito delle elezioni. Ha realizzato un primo modello, molto semplice, basato su una situazione ipotetica dove esistono l’opinione A e B, che possono rappresentare due partiti. Ha immaginato poi che ogni giorno gli elettori si incontrino tre alla volta e se due persone sono dell’idea A e l’altra dell’idea B, quella in minoranza si convince ad adottare l’opinione A, supponendo quindi una implicita tendenza delle persone ad aderire alla maggioranza. Aggregando così le persone tre alla volta, se siamo inclini ad aderire alla maggioranza, dopo un po’ anche una maggioranza inizialmente debole diventa schiacciante. Capite il realismo di tali modelli: se Pierino è deciso a votare il Partito Democratico e quel giorno incontra Gianni e Pinotto che votano Lega, Pierino subito si convince a votare Lega. Un problema è quindi senz’altro il tipo di aderenza alla realtà che queste astrazioni possono presentare. Mehdi Moussaïd è uno studioso che si occupa dei comportamenti delle folle, e al quale France Culture ha dedicato diverse trasmissioni. Lo dico perché è interessante vedere lo spazio e il sostegno che questo tipo di proposte incontrano nei media di larga diffusione. Moussaïd si è interrogato su come facciano le persone che si incontrano nei corridoi a evitarsi, e ha trovato che si scansano sempre andando sulla destra. Forse perché si guida a destra? No, anche in Inghilterra succede la stessa cosa. Quale sia l’interesse di queste ricerche è difficile da determinare, ma è interessante vedere su quali variabili sia costruito il modello. Per analizzare il movimento delle persone nello spazio Moussaïd ha preso ispirazione dalla fisica dei materiali granulari. Ha considerato i pedoni come sassolini e ha codificato un certo numero di forze a cui sono sottoposti. Si tratta di tre tipi di forze sociali. La prima spinge la persona verso la destinazione che ha scelto, la seconda è una forza d’interazione che implica la necessità di evitare chi ti viene incontro, la terza è una forza di repulsione che porta a non andare contro i muri. Capite che sullo sfondo c’è il procedimento galileiano: astrarre dalle condizioni disturbanti, come per esempio l’idea, abbastanza comune, di aprirsi una via tra gli ostacoli piuttosto che evitarli, e creare una situazione sperimentale dove isolare alcuni elementi, metterli in cifra, costruire su questa base delle equazioni complesse e vedere se gli uomini si muovono come ciottoli. No, gli uomini non si muovono così, perché ci sono molte più variabili da considerare. Quanti più elementi isoliamo però, tanto più diventa grossa la mappa. Per fare una mappa, un modello, che corrisponda al comportamento reale delle persone, si dovrebbe arrivare a fare una mappa 1:1, che notoriamente non serve a niente. Abbiamo poi uno studioso come Daniel Kahneman, psicologo premio Nobel, che si è occupato di economia e ha trasformando l’idea corrente degli economisti secondo cui ciascun attore sulla scena economica si muove soltanto sulla base di scelte razionali, seguendo il proprio interesse. Ha messo infatti in risalto il diverso peso che hanno le aspettative di guadagno o di perdita nel determinare le scelte degli investitori, mostrando che il puro lato razionale non è sufficiente a chiarire il funzionamento dell’economia reale. Tra le varie cose di cui si è occupato è diventato famoso anche per la sua idea di misurazione della felicità oggettiva. Cos’è la felicità oggettiva? Kahneman prende la nozione di utilità di Jeremy Bentham, secondo il quale i nostri padroni sono il dolore e il piacere: noi agiamo sollecitati dal piacere o respinti dal dolore e troviamo la nostra utilità seguendo questi stimoli. Kahnemann considera poi l’utilità ricordata: quali sono le tue esperienze di un mese fa? Sei stato bene, sei stato male? Questa tipo di utilità però non appare tanto funzionale per la creazione di un valore oggettivo della felicità. Kahnemann prende in analisi allora l’utilità momentanea: chiedo a intervallo di breve periodo se uno si sente bene o male e metto le sue risposte in una scala da 1 a 10. E sapete come lo fa? Prende due pazienti che sanno facendo un esame di colonscopia, e ogni sessanta secondi chiede loro: “Come ti senti? Male? Bene?” Nella suddetta scala da 1 a 10 mette le loro risposte. Niente dolore equivale a zero. Dolore insopportabile è quantificato dieci. Sono però ancora valutazioni soggettive, che riguardano la sensazione percepita di dolore. Ultimo passaggio allora: prende l’utilità totale, e la costruisce mettendo insieme tutti gli elementi dell’utilità momentanea e definisce l’utilità totale come felicità oggettiva. Che la misurazione oggettive della felicità parta dalla colonscopia è una curiosità da non tralasciare: possiamo immaginare qualche componente pulsionale nelle scelte di Kahnemann. Perché però adesso è oggettiva? Perché ora ha un valore statistico, e sappiamo, grazie all’astronomo belga Adolphe Quételet, il primo che ha studiato i grandi numeri, che i comportamenti individuali possono differire di molto tra loro, ma a livello di grandi numeri i comportamenti tendono a uniformarsi. Quando Kahnemann fa il passaggio dall’utilità momentanea a quella totale si trova infatti a lavorare con una media che può venire, secondo lui, equiparata alla felicità oggettiva, risultando quindi misurabile. Capite bene quante operazioni discutibili ci sono in questa costruzione. Una volta fatto questo montaggio, la cui arbitrarietà salta agli occhi, basta imbrigliare tutto in una gabbia matematica, che fa sempre una certa impressione, per gonfiare la retorica dell’oggettività. Bisogna smontare la gabbia matematica però per arrivare alle cose molto elementari e molto opinabili che stanno sotto e che vi racconto. Appare allora evidente cosa sta dietro la retorica dell’oggettività scientifica, il tipo di scelte che ci sono nascoste. È chiaro che ogni modello funziona e dà certe risposte in base alle scelte dei parametri che inseriamo nel modello, e in questo si presenta subito la valenza politica del problema. In base a quale scala di valori, in base a quale priorità gli esperti che hanno fatto queste scelte hanno determinato certi parametri piuttosto che altri? È chiaro che qui l’interazione tra l’epistemologia della modellizzazione sociale e la politica è molto forte. Per questo quando ci vengono a parlare dell’epistemologia su cui si baserebbe la verifica dell’efficacia della psicoanalisi, possiamo rispondere che sono tutte frottole, che dentro c’è una questione politica, perché in base a cosa si parla di risultato, di effetto? Quale effetto? In base a quali definizione di obiettivi? Se smontiamo questi aspetti facciamo apparire lo schema messo a nudo, e vediamo dissiparsi l’aura della pretesa oggettività. Ci rendiamo conto di come la matematica funzioni come una logistica, che permette dei passaggi, ma che non ha in sé nessuna garanzia di oggettività se non quella che abbiamo messo nelle ipotesi iniziali. La matematica ci fa fare infatti passaggi rigorosi, ma se nelle ipotesi iniziali abbiamo messo delle banalità, saranno insulsaggini anche i risultati. Trascrizione e redazione di Micol Martinez
1 Comment
21/6/2019 08:30:57 am
Ottimo commento, in quanto logico. Ciò che spesso, e sbagliando con danno, non si chiede al lavoro analitico : di usare un po' di logica! Grazie.
Reply
Leave a Reply. |
Marco Focchi riceve in
viale Gran Sasso 28 20131 Milano. Tel. 022665651. Possibilità di colloqui in inglese, francese, spagnolo Archivi
Settembre 2024
Categorie |