Intelligenza artificiale e apocalisse
Se chiedo al mio servo-robot-superintelligente di rendermi felice, quello potrebbe anche aprirmi la scatola cranica, espiantarmi il cervello e metterlo a mollo in una vasca contenente soluzioni chimiche atte alla conservazione, dopodiché procedere all’impianto di elettrodi in grado di stimolare la aree “della felicità”.
Oppure potrebbe fare l’upload della mia mente su un computer e somministrarmi l’equivalente digitale di una droga.
Veramente io non intendevo quello quando ho dato il mio ordine. Ma il compito del servo-robot-superintelligente non è quello di “capire”, bensì quello di “eseguire”.
Ma per eseguire devo “capire”! Certo, peccato che il concetto di “capire” è ambiguo, non puo’ essere codificato e trasmesso ad un robot. Nemmeno noi sappiamo esattamente cosa significa “capire”.
Sant’Agostino diceva di sapere cos’è il tempo, ma solo quando non ci pensava. Appena ci pensava, le sue sicurezze svanivano. Purtroppo i concetti ambigui e non trasmissibili al “servo” sono molti: “felicità”, “buon senso”, “soggetto”, “coscienza”, “certezza”, “realtà”… Purtroppo si tratta di concetti cruciali, e questo crea problemi.
Se chiedo al mio servo-robot-superintelligente di farmi sorridere, quello potrebbe paralizzare i miei muscoli facciali in modo da far apparire un mostruoso sorriso sul mio volto.
Se gli dico che non deve osare toccare la mia faccia, quello interviene sul cervello. E’ una spirale infinita in cui ci si rincorre.
Ogni obbiettivo, per quanto fissato con cura, ha realizzazioni perverse inattese: è praticamente impossibile anticipare le azioni di chi è più intelligente di noi, altrimenti saremmo più intelligenti di lui.
Non c’è modo di avere garanzie.
Se gli chiedo di valutare l’ipotesi di Riemann, quello puo’ trasformarmi interi pianeti in computer fisici combinando disastri inenarrabili.
Magari il servo-superintelligente ha dei moduli che gli inoculano un senso di colpa. Potrei dirgli di perseguire l’obbiettivo assegnato in modo da non provare sensi di colpa. E quello ubbidisce estirpando da sé i moduli disegnati per produrre senso di colpa. Metto una toppa, e quello escogita una scappatoia.
Se gli chiedo di massimizzare il numero di graffette da produrre, quello puo’ trasformare il pianeta terra in una graffetta unica utilizzando tutte le molecole, anche quelle dei nostri corpi.
Potrei dirgli di produrne 1 milione!?
Lui ne produce un milione, poi le conta per essere certo che siano 1 milione, poi le riconta, poi, per aumentare la certezza che siano esattamente 1 milione, chissà quali strategie perverse si inventa.
Il concetto di “certezza” è estraneo agli esseri razionali poiché per la ragione esistono solo probabilità: la certezza è solo un limite che tende ad infinito.
Potrei dire di produrre 1 milione di graffette con certezza del 95%. Ma come avere la certezza che la probabilità è del 95% è stata raggiunta? Siamo punto e a capo. Nei suoi tentativi dovrebbe fermarsi secondo buon senso ma il “buon senso” non puo’ essere ricompreso nel suo codice sorgente.
E se diamo un limite di tempo? Possiamo agire anche così nella consapevolezza che questo ordine non esclude affatto l’adozione di strategie perverse.
Se dò al mio servo-robot-superintelligente obbiettivi di ordine scientifico quello comincia a fare esperimenti. Per fare esperimenti occorrono delle cavie. In molti casi, quanto più le cavie sono simili all’uomo e quanto più l’esperimento è su vasta scala, tanto più sarà informativo. Le cavie utilizzate dal servo-robot-superintelligente saranno praticamente identiche all’uomo, forse saranno “cose” che per noi sono uomini a tutti gli effetti, la scala dei suoi esperimenti sarà poi vastissima. Insomma, forse i suoi esperimenti avranno come esito genocidi molto più crudeli ed estesi di quelli che abbiamo conosciuto nella nostra storia precedente.
Anche qui: inutile ordinare che negli esperimenti non possono essere sacrificati soggetti morali poiché il concetto di “soggetto morale” non puo’ rientrare nel suo codice sorgente, si tratta di un concetto ambiguo, per quanto essenziale.
***
E’ un problema. E’ un problema che comporta un “rischio esistenziale”, ovvero un rischio di estinzione per la nostra specie.
Si chiama “problema del controllo”.
Devolviamo moltissime risorse al problema del “riscaldamento globale” e pochissime al “problema del controllo”, questo nonostante ci dicano che i “servi-robot-superintelligenti” siano alle porte. Ma questo è un altro problema.