Informazioni personali

La mia foto
Ferdinando Sabatino, nato a Milano nel 1960 si è laureato in Filosofia morale con Franco Fergnani presso l’Università degli studi di Milano con una tesi sulla medicalizzazione e lo stato giuridico della delinquenza in cui applica le tesi di Foucault nei codici penali pre-unitari fino al codice Zanardelli. Professore di Storia e filosofia e di Filosofia e scienze umane, è esperto nei processi socioculturali delle comunicazioni di massa. Si è interessato al pensiero organizzativo delle strutture industriali, già docente presso la Scuola di specializzazione per l'insegnamento secondario dell’Università degli studi di Milano, ha collaborato con la cattedra di Filosofia morale del Dipartimento di filosofia. Si occupa prevalentemente di storia dei sistemi di pensiero e di fenomeni collettivi, ha studiato le istituzioni totali come forme di potere su cui le società moderne hanno articolato aspetti ideologici di risocializzazione per giungere alle più sofisticate e complesse forme ideologiche contemporanee. Ha orientato recentemente i suoi interessi sui problemi della violenza collettiva ed etnica; sulla questione dei diritti e sul conflitto tra lavoro e capitale.
Powered By Blogger

Wikipedia

Risultati di ricerca

Translate

"...bisogna discernere il rumore sordo e prolungato della battaglia"
Michel Foucault

lunedì 19 luglio 2010

A proposito di "Mente" e "Macchine". Struttura di un percorso (1999)

La struttura logica del mondo: il neoempirismo.

Nel 1928 viene fondata sotto la direzione di Schlick (1 ) la “Fondazione Enrst Mach” che diventerà l’anno seguente il Circolo di Vienna allorché alcuni suoi componenti, quali Carnap, Neurath, Hahn (2 ), pubblicarono quella sorta di manifesto del Circolo che era La concezione scientifica del mondo. Il movimento è anche conosciuto come neoempirismo logico o anche neo-positivismo logico, e come tale rappresentò fino a tutta la prima metà del novecento l’indirizzo ufficiale della filosofia della scienza di quel tempo.
Una continuità ideale lo collega all’empirismo, soprattutto per quel che concerne il privilegio ga-rantito alle scienze induttive e, in generale, alla polemica antimetafisica. Questa rottura innovativa viene attribuita dal Circolo alla logica di Russell e di Wittgenstein (3 ), e in particolare il Tractatus di quest’ultimo fu concepito come espressione della geniale sintesi di empirismo radi-cale e razionalismo logico-matematico. Naturalmente l’aspetto neopositivistico viene garantito dall’autonomia della scienza, ma soprattutto dalla sua priorità rispetto la filosofia. Certo che qui l’accento si sposta non tanto sull’opera dello scienziato, quanto sul linguaggio della scienza e sulla sua struttura logica (  vedi Carnap) mentre il vero compito della filosofia consiste, più semplicemente, nell’indagare e chiarire il linguaggio della scienza.
Secondo i neoempiristi le proposizioni fondamentali di ogni scienza sono tutte quelle che descrivono le esperienze elementari, e dalle generalizzazioni di queste ultime nascono le leggi scientifiche che vengono poi verificate: tutte le proposizioni che non possono in alcun modo essere ri-condotte a questo tipo di descrizioni elementari, e dunque senza alcun rapporto con l’esperienza, vengono definite prive di senso e perciò insignificanti. Tutto questo perché, per i neoempiristi, il senso di una proposizione è dato dalla sua possibilità o meno di essere verificata nell’esperienza. E’ il famoso criterio di significanza delle proposizioni o altrimenti denominato principio di veri-ficazione secondo il quale, per i neoempiristi logici, vengono definiti prive di significato tutte le proposizioni metafisiche di cui non è ipotizzabile una verifica empirica. Certamente va detto che una comune visione scientifica non significò, tra i Circolisti, una altrettanto identica visione della filosofia. Il punto nevralgico del sistema, che si voleva neutro, si trovava nella unione tra empirismo e logica. Ora tra criterio di verificazione da un lato e, dall’altro, esigenza di una scienza uni-ficata si consumò già a partire dal 1931 una tensione che oppose Schlick a Neurath e Carnap. Infatti, rimanere legati ad un fattore così extra linguistico e dunque non così perfetto come quello empirico suscitò il sospetto di Neurath e Carnap. Al posto del puro dato sensibile essi proposero come unica base empirica del discorso scientifico i famosi protocolli. Rispetto a Wittgenstein, questi ultimi prospettano una riduzione del concetto di ‘esperienza’: per loro l’esperienza elementare sensibile è l’osservazione scientifica che un determinato soggetto, collocato in un determinato spazio e in un determinato tempo, compie. E la proposizione che questo tipo di esperienza permette rea-lizza i famosi enunciati protocollari: essi prendono il posto del dato sensibile puro e sono la base empirica da cui il discorso scientifico deve partire. Non è un caso, infatti, che per Carnap e Neu-rath la fondazione del metodo scientifico è parallela alla costruzione di un linguaggio scientifico che si presenta corretto, nel senso che è costruito su di una lingua esatta in grado di esprimere adeguatamente le procedure su cui si basano i procedimenti scientifici secondo una descrizione di tipo analitico-sintattico. Infatti per Neurath lo stesso linguaggio diventa un oggetto fisico (  vedi fisicalismo) al pari di qualsiasi altro oggetto «fisico» esistente nel mondo. I protocolli diventano, dunque, le proposizioni elementari della scienza, che valgono indistintamente per tutti e sono scelte attraverso una decisione di tipo convenzionale. Ed è su questo linguaggio fondamentale che poteva ergersi l’edificio della scienza unificata.


Il linguaggio la mente le macchine.

Un’area rilevante e polivalente dell’intero percorso filosofico del ‘900 è garantita dal linguaggio, e soprattutto dall’assunzione del linguaggio come specifico orizzonte della filosofia (a ragione si è parlato di una vera e propria svolta linguistica in filosofia  vedi linguistica, filosofia analiti-ca). Certamente questa svolta è data, più che altro, da una posizione del linguaggio molto più particolare e articolata di quella che è presente nella linea di pensiero che va da un certo esisten-zialismo fenomenologico all’ermeneutica di Gadamer passando attraverso Heidegger, per cui il linguaggio è l’ambito in cui si uniscono «il mondo e le cose», mentre invece in questa svolta l’orizzonte del linguaggio è molto più determinante dal punto di vista epistemologico: il linguaggio è l’unico oggetto specifico dell’analisi filosofica in quanto tale.
Ecco perché dentro questo ambito si troveranno argomenti e problemi che non appartengono, strettamente parlando, all’analisi linguistica. In breve, nell’analisi del linguaggio considerata come impresa filosofica si devono ricercare i criteri normativi a cui la ragione deve attenersi. In-fatti, se guardiamo attentamente, la corrispondenza tra linguaggio e realtà, la questione del pro-blema logico nella formulazione linguistica, le teorie epistemologiche di fondazione delle scienze non sono argomenti base di una teoria generale del linguaggio. Epperò, esse vengono in tutto l’arco del ‘900 riproposte, affrontate in stretta corrispondenza e connessione con il tema linguistico; ma, soprattutto, assumendo i risultati della analisi linguistica come criteri sicuri di validità per accettare o meno una teoria oppure una realtà esterna, tutto ciò diventa una novità assoluta nel panorama filosofico contemporaneo. In area anglosassone, la prosecuzione della vecchia tra-dizione empirista aveva già spostato il proprio punto di osservazione sulle modalità di intervento nell’esperienza ( vedi Pragmatismo e J. Dewey), e sull’indagine analitica di alcuni aspetti della realtà (vedi E. Moore e l’etica). Allo stesso modo si muove l’attenzione sul linguaggio, tanto che essa attesta il privilegiamento di un certo tipo o campo di indagine sul quale, se vogliamo, la ragione analitica si può applicare. Se vari saranno i linguaggio assunti e presi a modello (esempio: matematico, della scienza oppure della vita quotidiana), si constaterà altresì un vero e proprio slittamento da questa intenzione originaria (quella del linguaggio come tema setto-riale) verso una trattazione più globale e, forse, totalizzante che fa del linguaggio stesso un orizzonte privilegiato di considerazione della realtà. O sarebbe meglio dire che il linguaggio esprime, prima e molto più compiutamente di altro, la specificità dell’essere umano: il suo pensiero e la sua mente. ( vedi Wittgenstein, Austin, Quine, Chomsky, Fodor, Putnam, Davidson, Dummett, Searle).
Proprio a partire da questa ultima considerazione ( l’identificazione di pensiero e linguaggio) prende corpo uno dei temi più discussi e affascinanti del panorama filosofico di fine novecento, che coinvolge sia la filosofia e la linguistica che le scienze cognitive e l’intelligenza artificiale: quello cioè relativo al dibattito sull’intelligenza artificiale e del suo rapporto, discusso e discutibi-le, con la filosofia della mente e la scienza cognitiva il cui massimo interprete, oggi, è il filosofo del linguaggio J. R. Searle che partì da una serrata critica alla possibilità che il computer potesse essere considerato l’analogo della mente umana.
Le macchine, dunque, possono pensare?
A partire da questa (vecchia) se vogliamo domanda relativa a un certo modo di fare filosofia, i filosofi contemporanei si sono posti di fronte ai problemi indotti dall’intelligenza artificiale in un dibattito tutt’altro che concluso.
L’espressione intelligenza artificiale (I.A., A.I. in inglese) fu coniata da J. MacCarthy in uno storico seminario del 1956, incentrato sul tema di creare macchine in grado di pensare, al quale parteciparono personaggi come l’esperto di logica M.Minsky e un ingegnere come C.Shannon. Questo simposio segnò l’ ufficiale entrata in scena dell’I.A., con il chiaro intento di far fare alle macchine cose che richiedono intelligenza, intento che da lì crebbe parallelamente agli stessi bi-sogni della società tecnologica e produttiva.

Sui compiti di questa nuova disciplina che è l’I.A. i pareri sono stati e sono ancora per la verità vari, a metà strada tra disciplina scientifica e semplice area della ricerca tecnologica; alcuni, per esempio, si orientano su di una definizione forte - tentare di riprodurre comportamenti non di-stinguibili da quelli umani - altri prediligono una definizione debole - tentativo di far fare ai computer cose che gli uomini sanno fare meglio. La distinzione, a riguardo, è di Searle .
Nonostante tutto, l’I.A. ha raggiunto oggi risultati nel complesso inferiori alle attese ( vedi nel campo della robotica, ma anche nella comprensione del linguaggio naturale). In particolare essa non ha saputo inserire nei suoi programmi il «senso comune», cioè quello sfondo di pre-comprensioni, credenze entro cui si incarna concretamente il nostro rapporto con il mondo, senso comune studiato da filosofi del linguaggio come Austin e Searle e filosofi che provenivano da esperienze scientifiche come lo stesso Wittgenstein, per non tacere dell’idea husserliana di «un mondo della vita pre-categoriale».
Queste difficoltà, dunque, hanno mostrato i limiti del modello funzionalista, per aprire la strada ad un modello di tipo connessionista.
Il modello funzionalista ( vedi Putnam) sostiene che gli «eventi mentali» sono qualificati da funzioni, cioè da specifici ruoli operazionali, e non da una specifica costituzione materiale. Mate-rialmente parlando, questo implica che una mente possa essere comunque istanziata da supporti fisici diversi se atti a generare tra i suoi elementi i sistemi di input e output.
Nell’ottica funzionalista, dunque, la base è l’analogia mente-computer, ovvero la tesi che vuole la mente, in quanto strumento di manipolazione formale di simboli, stare al cervello come il software sta all’hardware. E da qui nasce l’immagine della mente come un programma o un insieme di più programmi, in grado di muoversi su materiali fisici diversi.
Al contrario per connessionismo si intende una quantità di metodi di ricerca (per esempio i siste-mi dinamici non lineari) che, proprio perché vedono nel cervello la vera metafora della mente, cercano di riprodurre l’intelligenza per via della simulazione grazie a reti neurali (sono cioè dei sistemi artificiali che si ispirano al sistema nervoso e alla sua architettura, appunto i neuroni)
E’ sicuramente vero che le difficoltà oggettive dell’I.A. di questo decennio e più hanno posto le basi per un riesame completo dei concetti teorici della disciplina, ed è su questo terreno che è intervenuta la filosofia, gettando le basi per una nuova visione della «natura della mente» e dei suoi rapporti, anche conflittuali, con il computer. Tra i filosofi, a parte Putnam, quasi tutti di sono mostrati contrari nei confronti dell’I.A. di tipo «forte». Nucleo centrale della loro tesi è che l’intelligenza artificiale non è una vera e propria forma di intelligenza perché è 1) pienamente sintattica e priva, dunque, di intenzionalità (Searle); perché è 2) discreta e asituazionale, dun-que senza rapporti con il vissuto quotidiano dell’uomo (Dreyfus, Winograf-Flores,) che è invece di tipo naturale, sociale e perciò aggregativo.
La tesi di Searle è quella che ha messo maggiormente in crisi le pretese dell’I.A. di tipo forte.
Egli ha ideato il famoso «test della stanza cinese» che, sintetizzando, è un esperimento mentale che ruota su un individuo che, grazie a determinate istruzioni nella sua lingua, riesce a mettere insieme in modo corretto dei simboli cinesi senza comprenderne i significati.
La parabola del test di Searle è, dunque, che nessun sistema, che si limiti strettamente parlando alla manipolazione formale di simboli senza poter avere coscienza dei loro significati, può per questo motivo essere considerato alla stessa stregua di un essere pensante, nonostante le sue performances esteriori lo mostrino come tale. Dunque, secondo Searle, per quanto i computer operi-no come delle menti non sono, però, delle menti perché privi di coscienza e di intenzionalità: la loro intelligenza sta nelle menti di chi li programma. Il computer opera sul piano sintattico, la mente invece su quello puramente semantico, la distinzione non è di poco conto se ci facciamo caso.
Anche per via degli insuccessi e delle difficoltà interne al settore relativo all’I.A., si può dire che ci sia stato in questi ultimi anni un abbandono delle ambizioni originarie dell’intelligenza artifi-ciale di tipo forte per orientarsi verso una concezione più «debole», affermatosi con i concetti di simulazione e di emulazione.

Simulare l’intelligenza, intanto, vuole principalmente dire costruire delle macchine finalizzate a riprodurre i poteri cognitivi dell’uomo; mentre emulare l’intelligenza vuole dire più che altro costruire macchine intelligenti senza necessariamente preoccuparsi della loro somiglianza con l’uomo. Dunque, lo scopo oggi dell’I.A. non è quello di simulare i processi cognitivi ma emularli, cioè mettere in atto sistemi in grado di svolgere compiti in modo efficiente. Ma dato che que-sta distinzione non viene accettata da tutti, l’I.A. vive ancora su di un orizzonte di fondo natu-ralmente portato all’ambiguità. Da questo punto di vista la riflessione filosofica non si è ridotta ad una autodifesa della superiorità dell’uomo sulla macchina, ma è servita invece ad agevolare il passaggio da una concezione di tipo forte ad una di tipo debole, lasciando ancora ampi margini a soluzioni tutte ancora da prospettare e sottili questioni etiche che, ci piaccia o no, sono comunque sorte a partire dall’intelligenza artificiale: non più cosa possono o non possono fare le macchine ma, come ha posto Weizenbaum, cosa debbono o non debbono fare i computer.