mercoledì 6 novembre 2019

E' POSSIBILE UN'ETICA LAICA?

E' POSSIBILE UN'ETICA LAICA?
Le difficoltà del progetto IA (intelligenza artificiale) ha qualcosa da dire in merito.
1) Morale religiosa - La MR si basa sulla virtù: cresci virtuoso e ti comporterai bene. La correttezza è il frutto dell'educazione.
2) Etica laica - L' EL si basa sui principi: impara cosa devi fare e ti comporterai bene. La correttezza è il frutto della conoscenza.
3) IA - Il progetto IA ha un problema: deve insegnare ai robot intelligenti ad essere buoni, altrimenti distruggeranno l'uomo. Deve, cioè, immettere nel software i giusti principi morali da seguire. In questo senso serve un'etica laica.
4) Il problema - Qui sorge un problema che puo' essere descritto da un esempio. Partiamo da qualcosa che non ha nulla a che fare con l'etica. Dico al mio robot che devo comprare una bici. Lui mi manda tutti i cataloghi di tutto il mondo intasandomi il PC. No, dico, devo comprarla qui a Varese. Lui mi manda cataloghi di bici da bambini disponibili qui a Varese. No, dico, mi serve una bici da adulto. Lui mi manda una lista di bici che necessitano di riparazione. No, dico, mi serve una bici funzionante. Lui mi manda la lista di bici costosissime. No dico, voglio spendere massimo 300 euro. E così via. Insomma, tra persone ci capiamo molto meglio, dove una persona arriva con la virtù del buon senso, la macchina necessita di specificazioni complete di cosa "non ho bisogno", talmente complete che forse è meglio faccia da solo. Certo, potrebbe bastare qualche filtro affinché il mio maggiordomo robot possa fare un buon lavoro, ma la certezza non ce l'ho. Immaginatevi di non avere certezze quando l'errore si paga in vite umane.
5) Il problema morale - Tua madre è intrappolata in una casa che va a fuoco, tu ordini al tuo robot di portarla fuori. Lui fa esplodere la casa proiettando tua madre centinaia di metri lontana. Non è esattamente quello che volevi, anche se il robot ha eseguito il tuo ordine alla lettera. Se gli chiedi di eseguire l'ordine senza far esplodere la casa, lui probabilmente getterà tua madre dalla finestra. Nell'ordine successivo sarebbe meglio precisare al tuo robot di non usare armi nucleari e di non distruggere il pianeta, di non gettarci tutti in un matrix pur di salvare tua mamma dal fuoco. Specifica poi che non deve salvare la madre che sogni ma la madre vera.
6) Il nostro cervello - Il problema: il nostro cervello è troppo piccolo per contenere tutte le istruzioni da dare a un robot intelligente (privo di buon senso). Non c'è sufficiente spazio, i comportamenti da evitare sono milioni (forse sono infiniti) e prima che tu li metta in fila tua madre sarà già morta.
7) Il principio dei principi - Sarebbe questo: non c'è nessun valore sicuro che sia più piccolo dell' INTERO sistema di valori. Ma un sistema di valori completo è costruibile? Sembra alquanto dubbio. Non sappiamo prefigurare tutti i valori da rispettare, specie se pensiamo nel lungo periodo. Ma la precisione è così importante? Sì, quando ne va dei destini dell'umanità direi di sì. E, ricordiamoci sempre, un complotto tra robot intelligenti potrebbe minacciare l'umanità.
8) La storia della filosofia morale - Da quanto detto si capisce anche perché i filosofi morali hanno ragionamento di etica per migliaia di anni senza riuscire ad isolare un numero sufficientemente ristretto di principi su cui fondare il loro sistema.
9) Noia - Pensate solo alla noia. Quand'anche esistessero pochi principi morali prima o poi ci verrebbero a noia, cesserebbero di realizzarci come uomini. Oppure pensate ad una mente artificiale a cui date tutte le istruzioni ma non l'idea che cio' che "sente" deve avere un riferimento esterno. Se ne andrebbe in giro "sentendo" di aver fatto la cosa giusta senza in realtà fare nulla.
10) Conclusioni - Ora mi sembra chiaro perché il progetto IA sia considerato da molti come pericoloso, perché è ragionevole ritenere che i robot intelligenti ci annienteranno prima o poi. La minaccia deriva essenzialmente dal fatto che non esiste un'etica laica affidabile da insegnare loro.
INTELLIGENCEEXPLOSION.COM
One day, my friend Niel asked his virtual assistant in India to find him a bike he could buy that day. She sent him a list of bikes for sale from all over the world. Niel said, “No, I need one I can buy in Oxford today; it has to be local.” So she sent him a long list of bikes available in Oxfor...