Visualizzazione post con etichetta #intelligenza artificiale. Mostra tutti i post
Visualizzazione post con etichetta #intelligenza artificiale. Mostra tutti i post

sabato 25 maggio 2024

Contro la Superintelligenza

Proprio come un pianificatore centrale non potrà mai sapere come gestire un'economia, Smith sostiene che un'IA non potrà mai raggiungere un'intelligenza generale. Naturalmente, le sue argomentazioni non risolveranno la questione.

P.s. Ecco una possibile via di fuga: sì, ok, una Superintelligenza può esistere. Un supercalcolatore può consentire ai burocrati di eguagliare il mercato... ma più IA generali in concorrenza tra loro, o più supercalclatori in concorrenza tra loro, fanno comunque meglio. Morto un mercato ne nasce sempre un altro, cosicché il mercato resta comunque la soluzione migliore. 

https://arnoldkling.substack.com/p/llm-links-ac6

sabato 23 novembre 2019

IL ROBOT ABORTITO

https://feedly.com/i/entry/P/D2sW+G6HI3TtS+1E4tQwAjOdn54cnXIUUgTNGR5YA=_16e936faff9:a6314a:69b9f616
IL ROBOT ABORTITO
Restare buoni amici quando la si pensa diversamente è dura ma quando la si pensa diversamente sull'aborto è letteralmente un'impresa. Dall'omicidio al grumo di cellule c'è una certa distanza percettiva (e l'altro diventa automaticamente un cretino).
Propongo un espediente. Immagina, come molti credono, che un giorno avremo un'intelligenza artificiale senziente. E' plausibile pensare che molte persone le negheranno questa qualità. Non abbiamo accesso alla coscienza cosicché non ci saranno pistole fumanti da indicare. Gli argomenti a favore e contro la coscienza dell'IA finiranno per essere metafisici. Mi immagino già le zuffe e la convinzione assoluta di avere ragione. Ci saranno serissimi argomenti filosofici sulla natura delle persone e della coscienza, ma nessuno darà molto peso agli argomenti della controparte. I transumanisti, è ovvio, si schiereranno per la concessione di diritti minimi e i conservatori per la loro negazione.
Un po' come il dibattito sull'aborto ora, ma a parti rovesciate. Oggi, i progressisti di solito negano la personalità dell'oggetto in discussione (il feto) e i conservatori la affermano.
Immagina adesso che le intelligenze artificiali possano assumere una forma fisica e apparire come umane. Magari non sempre faranno il loro dovere, ogni tanto si immischieranno nei nostri affari, talvolta risultando pericolosi. Di fronte a questi pericoli alcuni uomini opteranno per uccidere (o rompere) i molestatori. Certo, si tratta di esseri abbastanza simili a noi, che ragionano anche meglio di noi, ma probabilmente non sono come noi e quindi non ci sarebbe niente di sbagliato nel liberarsene quando disturbano. Non sono persone in fondo.
Tuttavia, man mano che il tempo passa i progressisti "inventori di diritti" inizieranno a protestare picchettando i luoghi dove a loro dire si compiono le stragi. Caricheranno la polizia, bloccheranno le strade. Infine il problema diventerà politico con partiti che nasceranno per salvaguardare i robot.
Pro-life: penso che questi robot siano vivi. Penso che abbiano anime, li ho visti piangere. E penso che non dobbiamo ucciderli anche se mi rendo conto che a volte rappresentano un rischio. Dopotutto sono persone, non dico tanto ma almeno il diritto alla vita va loro garantito.
Pro-choice: tu non capisci i rischi che ci fanno correre queste macchine. Certo, sembrano innocenti ma rappresentano un onere per la comunità e tu ci stai dicendo che dobbiamo tollerare la loro presenza in nome della tua strana teoria religiosa secondo cui i robot sono senzienti, ma questo è semplicemente pazzesco? Voglio dire, dai, sono solo robot, sono "grumi di bit e cellule" impastate tra loro!
A questo punto il pro-choice conservatore snocciola tutti i vari argomenti pro-aborto citando i classici che parlando di aborto venivano citati contro le sue tesi.
Questa inversione ideologica potrebbe essere fruttuosa per la reciproca comprensione? Forse sì, forse no. Se devo dirla tutta non sono molto fiducioso: oggi animalisti di sinistra e anti-abortisti di destra si scannano amabilmente senza far tanto caso all'inversione che generano le due diatribe sull'anima degli animali.

mercoledì 6 novembre 2019

E' POSSIBILE UN'ETICA LAICA?

E' POSSIBILE UN'ETICA LAICA?
Le difficoltà del progetto IA (intelligenza artificiale) ha qualcosa da dire in merito.
1) Morale religiosa - La MR si basa sulla virtù: cresci virtuoso e ti comporterai bene. La correttezza è il frutto dell'educazione.
2) Etica laica - L' EL si basa sui principi: impara cosa devi fare e ti comporterai bene. La correttezza è il frutto della conoscenza.
3) IA - Il progetto IA ha un problema: deve insegnare ai robot intelligenti ad essere buoni, altrimenti distruggeranno l'uomo. Deve, cioè, immettere nel software i giusti principi morali da seguire. In questo senso serve un'etica laica.
4) Il problema - Qui sorge un problema che puo' essere descritto da un esempio. Partiamo da qualcosa che non ha nulla a che fare con l'etica. Dico al mio robot che devo comprare una bici. Lui mi manda tutti i cataloghi di tutto il mondo intasandomi il PC. No, dico, devo comprarla qui a Varese. Lui mi manda cataloghi di bici da bambini disponibili qui a Varese. No, dico, mi serve una bici da adulto. Lui mi manda una lista di bici che necessitano di riparazione. No, dico, mi serve una bici funzionante. Lui mi manda la lista di bici costosissime. No dico, voglio spendere massimo 300 euro. E così via. Insomma, tra persone ci capiamo molto meglio, dove una persona arriva con la virtù del buon senso, la macchina necessita di specificazioni complete di cosa "non ho bisogno", talmente complete che forse è meglio faccia da solo. Certo, potrebbe bastare qualche filtro affinché il mio maggiordomo robot possa fare un buon lavoro, ma la certezza non ce l'ho. Immaginatevi di non avere certezze quando l'errore si paga in vite umane.
5) Il problema morale - Tua madre è intrappolata in una casa che va a fuoco, tu ordini al tuo robot di portarla fuori. Lui fa esplodere la casa proiettando tua madre centinaia di metri lontana. Non è esattamente quello che volevi, anche se il robot ha eseguito il tuo ordine alla lettera. Se gli chiedi di eseguire l'ordine senza far esplodere la casa, lui probabilmente getterà tua madre dalla finestra. Nell'ordine successivo sarebbe meglio precisare al tuo robot di non usare armi nucleari e di non distruggere il pianeta, di non gettarci tutti in un matrix pur di salvare tua mamma dal fuoco. Specifica poi che non deve salvare la madre che sogni ma la madre vera.
6) Il nostro cervello - Il problema: il nostro cervello è troppo piccolo per contenere tutte le istruzioni da dare a un robot intelligente (privo di buon senso). Non c'è sufficiente spazio, i comportamenti da evitare sono milioni (forse sono infiniti) e prima che tu li metta in fila tua madre sarà già morta.
7) Il principio dei principi - Sarebbe questo: non c'è nessun valore sicuro che sia più piccolo dell' INTERO sistema di valori. Ma un sistema di valori completo è costruibile? Sembra alquanto dubbio. Non sappiamo prefigurare tutti i valori da rispettare, specie se pensiamo nel lungo periodo. Ma la precisione è così importante? Sì, quando ne va dei destini dell'umanità direi di sì. E, ricordiamoci sempre, un complotto tra robot intelligenti potrebbe minacciare l'umanità.
8) La storia della filosofia morale - Da quanto detto si capisce anche perché i filosofi morali hanno ragionamento di etica per migliaia di anni senza riuscire ad isolare un numero sufficientemente ristretto di principi su cui fondare il loro sistema.
9) Noia - Pensate solo alla noia. Quand'anche esistessero pochi principi morali prima o poi ci verrebbero a noia, cesserebbero di realizzarci come uomini. Oppure pensate ad una mente artificiale a cui date tutte le istruzioni ma non l'idea che cio' che "sente" deve avere un riferimento esterno. Se ne andrebbe in giro "sentendo" di aver fatto la cosa giusta senza in realtà fare nulla.
10) Conclusioni - Ora mi sembra chiaro perché il progetto IA sia considerato da molti come pericoloso, perché è ragionevole ritenere che i robot intelligenti ci annienteranno prima o poi. La minaccia deriva essenzialmente dal fatto che non esiste un'etica laica affidabile da insegnare loro.
INTELLIGENCEEXPLOSION.COM
One day, my friend Niel asked his virtual assistant in India to find him a bike he could buy that day. She sent him a list of bikes for sale from all over the world. Niel said, “No, I need one I can buy in Oxford today; it has to be local.” So she sent him a long list of bikes available in Oxfor...