Un altro blog

Ad un certo punto mi sono reso conto che se avessi dovuto aprire un blog per ogni cosa che mi piace, mi interessa o ho semplicemente voglia di condividere ne avrei dovuto aprire una ventina. Fino ad ora ho fatto così e la cosa non ha funzionato: troppe cose dette in modo troppo sparpagliato. Ora questo è il mio unico blog, senza fronzoli e senza pretese: qui c'è tutto quello che ho voglia di raccontare. Ciao.

ATTENZIONE

A quanto pare è successo qualcosa di strano e molte delle immagini presenti nel blog sono sparite, compresa l'intestazione. Non ho idea di cosa sia successo, forse è colpa delle scie chimiche che mi faccio davanti al pc.
Mi scuso per il disagio e cercherò di riparare i danni appena possibile, nel frattempo i post sono ancora on-line quindi potete leggerli lo stesso.

giovedì 29 gennaio 2015

L'intelligenza senza soggetto: considerazioni sull'intelligenza artificiale.



Voglio spendere due parole sul dibattito circa l'intelligenza artificiale, dato che ultimamente certi "mostri sacri" della scienza e della tecnologia stanno affrontando l'argomento, che da discussione di nicchia nei circoli transumanisti e tra gli appassionati di fantascienza sta gradualmente diventando di dominio pubblico.
A Stephen Hawking ed Elon Musk (il boss della Tesla) si è aggiunto recentemente anche Bill Gates. 
Il pericolo, semplificando, è che l'intelligenza artificiale, quando implementata realmente, potrebbe sopraffare l'umanità e sbarazzarsi di essa.
Uno scenario alla terminator, per intenderci.

Ora io non ho conoscenze in campo informatico, ma mi vengono in mente un paio di interrogativi che fin ora non mi pare siano stati posti (o forse sono io che non ho letto gli articoli giusti).

Lo scenario alla terminator si basa sull'assunto che le macchine potrebbero decidere che l'umanità va distrutta per liberarsi dal suo dominio.
Per fare una cosa del genere si suppone che il nostro ipotetico Skynet dovrebbe avere - oltre all'intelligenza - anche l'autocoscienza. Dovrebbe insomma possedere un "io" da contrapporre a un "loro", dovrebbe percepirsi come soggetto per decidere di ribellarsi.

Il nostro Skynet del futuro dovrebbe su per giù ragionare così:
Io non sono libero -> Io voglio essere libero -> L'umanità non mi permette di essere libero -> Quindi distruggo l'umanità, o la sottometto.
Quello che torna sempre in questo discorso è che Skynet dovrebbe avere un Io, una percezione di sè come soggetto che possiede dei diritti e dei desideri, e che possa in qualche modo soffrire della mancanza di libertà.

Ora nei discorsi sull'intelligenza artificiale, i due concetti intelligenza e autocoscienza sembrano sovrapporsi. Ma è davvero così? Una macchina intelligente dovrebbe necessariamente essere autocosciente?

Non ho la risposta a questa domanda, ma non credo che il "sì" dovrebbe essere così scontato.
Cerchiamo di fare un passo indietro e vedere la cosa in prospettiva:
Attualmente quello che manca all'intelligenza delle macchine è l'intuito, che potremmo definire - alla carlona - come la capacità di interpretare la realtà senza la necessità di una descrizione logico-formale. 
L'intuito è responsabile delle abilità prettamente umane che attualmente le macchine non possiedono, o possiedono in modo molto incompleto: pattern recognition, conversazione, creatività, ecc.

Ora, la domanda che mi faccio è: qual è il rapporto tra l'intuito e l'autocoscienza? Si potrebbe speculare che l'intuito negli esseri umani è possibile grazie all'esistenza di un "io" che fa da punto di riferimento fisso per l'interpretazione del reale. Ma potrebbe benissimo essere altrimenti.
L'intuito del resto è una delle caratteristiche peculiari della mente umana, così come lo è la coscienza. Sono entrambe caratteristiche che così squisitamente umane che non riusciamo a immaginare l'una senza l'altra. Ma sono davvero così indissolubilmente legate?

La domanda - in soldoni - è: "può esistere un'intelligenza intuitiva senza soggetto?"
Le implicazioni della risposta a questa domanda sarebbero importantissime: se riuscissimo a creare una macchina intelligente non autocosciente, essa non avrebbe nessun interesse a "ribellarsi" perchè non avrebbe un "io" da contrapporre a un "loro". Potrebbe comunque prendere decisioni che avrebbero conseguenze nefaste, ma non cercherebbe di "imporsi" qualora gli esseri umani decidessero di fare altrimenti. 
Senza un "io" non avrebbe una personalità e quindi concetti come odio, amore, autoaffermazione, orgoglio, risentimento, vendetta, gli sarebbero del tutto estranei. 
Rimarrebbe, pur con la sua intelligenza, un qualcosa e non un qualcuno.

Una macchina del genere potrebbe risolvere problemi complessi, sostenere una conversazione e via dicendo, ma non avendo un "io" non potrebbe formulare da sè propositi e obiettivi: potrebbe scrivere una canzone o dipingere un quadro, ma dovremmo essere noi a chiederglielo. 

Il problema è che sulla coscienza sappiamo davvero poco: sappiamo che esiste una macchina biologica - il cervello - che ha sviluppato questa funzione, ma non sappiamo in che modo lo faccia. Tanto che parliamo di "qualità emergente", che è un modo carino per dire che non abbiamo la più pallida idea di cosa diavolo succeda.

Sono domande che, a quanto ne so io, oggi non hanno una risposta. E sono domande difficili anche da formulare in modo chiaro, essendo a cavallo tra scienza e filosofia. Tuttavia trovare le risposte a tali domande mi sembra importante per decidere con cognizione di causa cosa farne della futura intelligenza artificiale.

4 commenti:

  1. Per me le situazioni che film e telefilm ci hanno spesso proposto si basano su un buon espediente narrativo ma poco plausibile: le intelligenze artificiali sono state create per essere comparabili al cervello umano e superarlo...quindi devono avere in tutto e per tutto caratteristiche umane come sentimenti e desideri. Questo è un errore sistematico che ci portiamo dietro dall'alba dei tempi, che sia immaginare Giove come un donnaiolo incallito o attribuire pensieri sulla non violenza degni di Gandhi al gatto che non mangia il criceto perché tanto essendo domestico è già sazio. Per fare esempi più calzanti all'argomento citerò i 2 estremi:
    - l'Agente Smith di Matrix vede l'umanità come un virus (programmazione...andata male ma programmazione) e decide di ribellarsi (desiderio) perché il solo trovarsi al cospetto di un umano gli crea fastidio e disgusto (sentimenti)
    - Data di Star Trek ha un vero e proprio "chip emozionale" rimovibile che tra le altre cose gli fa provare invidia ed ammirazione per caratteristiche umane per lui simulabili ma incomprensibili come l'umorismo ed i sentimenti.

    Quando creeremo le prime Intelligenze Artificiali degne di questo nome, probabilmente potranno essere provviste di intuito, autodeterminazione e magari capacità di decidere autonomamente dei "metaobbiettivi" da raggiungere per soddisfare la loro programmazione.

    Ciò che per me non è plausibile, o almeno non avrebbe ragione di esistere, è che a ciò si possa affiancare la capacità di provare sentimenti o anche solo di desiderare qualcosa senza averne una ragione pratica.

    Personalmente oltre alla giusta differenziazione che hai fatto tra intelligenza ed autocoscienza porrei anche quella tra intelligenza ed emotività, e per me un'IA non ha alcun motivo di essere dotato di quest'ultima.

    RispondiElimina
    Risposte
    1. Questo commento è stato eliminato dall'autore.

      Elimina
    2. Ps. In tutto ciò ho dato per scontato che se si riesce a dare l'intuitività ad una macchina, essa dando un intervallo di tempo sufficientemente grande finirà con il porsi domande su se stessa e quindi a sviluppare autocoscienza

      Elimina
    3. Sono d'accordo sul fatto che l'IA non avrebbe nessun motivo pratico per essere autocosciente ed emotiva. Del resto se vogliamo relazionarci con un'intelligenza autocosciente ed emotiva basta parlare con la gente.
      Non avremmo nessun motivo di creare un'IA che potrebbe assomigliare pericolosamente al classico vicino rompicoglioni.

      Il dubbio che mi sorgeva, del tutto speculativo, come dicevo prima, è se l'avere un "senso di sè" non sia una conditio sine qua non per avere capacità intuitive. Non ho nessun motivo particolare per teorizzare questo, se non il fatto che in natura le due cose sembrano andare di pari passo.
      Per dire, non è assurdo pensare che un gatto, un cane o una scimmia - pur non avendo sicuramente la raffinatezza delle emozioni umane - potrebbero avere una sorta di "senso di sè", mentre è più difficile pensarlo di una mosca. E guarda caso gli animali che ho citato sono anche tra i più intelligenti (assieme a delfini, polpi ecc.).

      Magari mi sbaglio, magari è solo un'idea balzana che mi è venuta in mente...appunto, non lo so.

      ps: un buon modo per confutare la mia teoria potrebbe essere quello di chiamare in causa le cosiddette "intelligenze distribuite", tipo quella delle termiti che riescono a costruire edifici con caratteristiche ingegneristiche da fare invidia ai prodotti umani, senza per questo essere - prese singolarmente - intelligenti.

      Elimina