La filosofia di fronte all'intelligenza artificiale

Il progresso tecnico-scientifico novecentesco ha portato varie sfide alla filosofia tradizionale e ai suoi modelli di razionalità, tradizionalmente postulati come veri e indiscutibilmente validi. Informatica, logica, matematica, linguistica, psicologia cognitiva ed epistemologia sono confluite in un ambito di ricerca inquietante e affascinante: l'intelligenza artificiale.

Di fronte a questa sfida scientifica, i filosofi hanno avuto reazioni diverse. Questo dibattito, ben lungi dal potersi dire concluso in un senso o nell'altro, ha mostrato ulteriormente l'insufficienza dell'intelligenza umana ad autocomprendersi pienamente ed univocamente.

Cibernetica e genesi del pensiero artificiale

L'intelligenza artificiale può essere definita come quel settore di studi che tende a realizzare sistemi elettronici in grado di simulare il comportamento intelligente dell'uomo. L'espressione fu coniata nel 1956 da Marvin Minsky in un seminario a Dartmouth. Sebbene le origini remote si possano rintracciare nella concezione meccanicistica di Descartes o nei calcolatori di Pascal e Leibniz, la vera svolta avviene nel ventesimo secolo.

Con l'affermazione della cibernetica, grazie agli studi di Norbert Wiener del 1948, i primi ricercatori cercarono di simulare l'attività del cervello umano attraverso reti neurali artificiali. Successivamente, si scelse una via diversa: simulare i processi mentali a livello funzionale, senza dover riprodurre fisicamente la struttura del cervello nell'elaboratore.

Il dibattito filosofico: menti e macchine

La macchina e il test di Turing

Il matematico e logico Alan Mathison Turing ideò negli anni trenta un computer teorico capace di calcolo ricorsivo. Nel celebre articolo "Calcolatori e intelligenza" del 1950, egli propose un criterio di verifica: se un operatore umano non riesce a distinguere le risposte di una macchina da quelle di un altro essere umano, la macchina "pensa". La principale obiezione filosofica a questo approccio comportamentale è che al pensiero algoritmico manca l'intenzionalità.

Hardware diversi, stesso software

Il filosofo Hilary Putnam, in una prima fase della sua riflessione ("Menti e macchine", 1960), prese partito per l'intelligenza artificiale. Egli sostenne che gli stati mentali, assimilabili agli stati di una macchina di Turing, possono essere realizzati su sostrati fisico-materiali profondamente diversi tra loro, siano essi organici o inorganici.

Il problema dell'intenzionalità e del significato

John R. Searle mosse una critica recisa all'assimilazione tra mente e computer. Nel suo "Menti, cervelli e programmi" (1980), egli asserì che le macchine decifrano e organizzano catene di simboli per manipolare la sintassi del linguaggio, ma non sono in grado di comprenderne il significato. Manca loro la dimensione semantica e intenzionale. Anche se una macchina esibisce un comportamento intelligente, non per questo possiede vera intelligenza.

La società della mente

Marvin Minsky, fondatore del laboratorio di intelligenza artificiale del Massachusetts Institute of Technology, difese un approccio connessionistico. Nel testo "La società della mente" (1986), teorizzò che i processi psichici scaturiscono in realtà dalle interrelazioni di innumerevoli e semplici unità di elaborazione, definite "agenti", prive di intelligenza se prese singolarmente.

Questa breve disamina ci dimostra come la tecnica, interpellando l'essenza stessa del pensare, ci obblighi a riconsiderare cosa significhi essere umani. Il dibattito resta aperto.

Vai all'approfondimento: la filosofia di Luciano Floridi