Voglio spendere due parole sul dibattito circa l'intelligenza artificiale, dato che ultimamente certi "mostri sacri" della scienza e della tecnologia stanno affrontando l'argomento, che da discussione di nicchia nei circoli transumanisti e tra gli appassionati di fantascienza sta gradualmente diventando di dominio pubblico.
A Stephen Hawking ed Elon Musk (il boss della Tesla) si è aggiunto recentemente anche Bill Gates.
Il pericolo, semplificando, è che l'intelligenza artificiale, quando implementata realmente, potrebbe sopraffare l'umanità e sbarazzarsi di essa.
Uno scenario alla terminator, per intenderci.
Ora io non ho conoscenze in campo informatico, ma mi vengono in mente un paio di interrogativi che fin ora non mi pare siano stati posti (o forse sono io che non ho letto gli articoli giusti).
Lo scenario alla terminator si basa sull'assunto che le macchine potrebbero decidere che l'umanità va distrutta per liberarsi dal suo dominio.
Per fare una cosa del genere si suppone che il nostro ipotetico Skynet dovrebbe avere - oltre all'intelligenza - anche l'autocoscienza. Dovrebbe insomma possedere un "io" da contrapporre a un "loro", dovrebbe percepirsi come soggetto per decidere di ribellarsi.
Il nostro Skynet del futuro dovrebbe su per giù ragionare così:
Io non sono libero -> Io voglio essere libero -> L'umanità non mi permette di essere libero -> Quindi distruggo l'umanità, o la sottometto.
Quello che torna sempre in questo discorso è che Skynet dovrebbe avere un Io, una percezione di sè come soggetto che possiede dei diritti e dei desideri, e che possa in qualche modo soffrire della mancanza di libertà.
Io non sono libero -> Io voglio essere libero -> L'umanità non mi permette di essere libero -> Quindi distruggo l'umanità, o la sottometto.
Quello che torna sempre in questo discorso è che Skynet dovrebbe avere un Io, una percezione di sè come soggetto che possiede dei diritti e dei desideri, e che possa in qualche modo soffrire della mancanza di libertà.
Ora nei discorsi sull'intelligenza artificiale, i due concetti intelligenza e autocoscienza sembrano sovrapporsi. Ma è davvero così? Una macchina intelligente dovrebbe necessariamente essere autocosciente?
Non ho la risposta a questa domanda, ma non credo che il "sì" dovrebbe essere così scontato.
Cerchiamo di fare un passo indietro e vedere la cosa in prospettiva:
Attualmente quello che manca all'intelligenza delle macchine è l'intuito, che potremmo definire - alla carlona - come la capacità di interpretare la realtà senza la necessità di una descrizione logico-formale.
Attualmente quello che manca all'intelligenza delle macchine è l'intuito, che potremmo definire - alla carlona - come la capacità di interpretare la realtà senza la necessità di una descrizione logico-formale.
L'intuito è responsabile delle abilità prettamente umane che attualmente le macchine non possiedono, o possiedono in modo molto incompleto: pattern recognition, conversazione, creatività, ecc.
Ora, la domanda che mi faccio è: qual è il rapporto tra l'intuito e l'autocoscienza? Si potrebbe speculare che l'intuito negli esseri umani è possibile grazie all'esistenza di un "io" che fa da punto di riferimento fisso per l'interpretazione del reale. Ma potrebbe benissimo essere altrimenti.
L'intuito del resto è una delle caratteristiche peculiari della mente umana, così come lo è la coscienza. Sono entrambe caratteristiche che così squisitamente umane che non riusciamo a immaginare l'una senza l'altra. Ma sono davvero così indissolubilmente legate?
La domanda - in soldoni - è: "può esistere un'intelligenza intuitiva senza soggetto?"
Le implicazioni della risposta a questa domanda sarebbero importantissime: se riuscissimo a creare una macchina intelligente non autocosciente, essa non avrebbe nessun interesse a "ribellarsi" perchè non avrebbe un "io" da contrapporre a un "loro". Potrebbe comunque prendere decisioni che avrebbero conseguenze nefaste, ma non cercherebbe di "imporsi" qualora gli esseri umani decidessero di fare altrimenti.
Senza un "io" non avrebbe una personalità e quindi concetti come odio, amore, autoaffermazione, orgoglio, risentimento, vendetta, gli sarebbero del tutto estranei.
Rimarrebbe, pur con la sua intelligenza, un qualcosa e non un qualcuno.
Una macchina del genere potrebbe risolvere problemi complessi, sostenere una conversazione e via dicendo, ma non avendo un "io" non potrebbe formulare da sè propositi e obiettivi: potrebbe scrivere una canzone o dipingere un quadro, ma dovremmo essere noi a chiederglielo.
Il problema è che sulla coscienza sappiamo davvero poco: sappiamo che esiste una macchina biologica - il cervello - che ha sviluppato questa funzione, ma non sappiamo in che modo lo faccia. Tanto che parliamo di "qualità emergente", che è un modo carino per dire che non abbiamo la più pallida idea di cosa diavolo succeda.
Sono domande che, a quanto ne so io, oggi non hanno una risposta. E sono domande difficili anche da formulare in modo chiaro, essendo a cavallo tra scienza e filosofia. Tuttavia trovare le risposte a tali domande mi sembra importante per decidere con cognizione di causa cosa farne della futura intelligenza artificiale.