Visualizzazione post con etichetta BQO. Mostra tutti i post
Visualizzazione post con etichetta BQO. Mostra tutti i post

venerdì 12 maggio 2017

Robot con il senso di colpa

Immaginatevi un robot che riceve l’assoluzione da un sacerdote e sconta i suoi errori con tre avemarie. E’ un evento a cui potremmo mai assistere?
La persona adatta da interpellare è il filosofo Don Howard, il quale si è pronunciato nel breve ma illuminante saggio  “Can Machines Become Moral?”.
Il problema è ostico, anche perché si tende a confondere problemi tra loro differenti. Vediamo il principale…
… For some, the question is whether artificial agents, especially humanoid robots, like Commander Data in Star Trek: The Next Generation, will someday become sophisticated enough and enough like humans in morally relevant ways so as to be accorded equal moral standing with humans…
Un robot potrà mai essere in futuro responsabile per le sue azioni?
Qui la risposta è abbastanza facile: non lo sappiamo.
Solo il tempo ce lo dirà.
Come risposta è un po’ deludente ma diventa più interessante quando la si considera in opposizione alle alternative.
Il fatto interessante è piuttosto che c’è gente che sembra avere una voglia matta di rispondere “sì” oppure “no”.
Chissà perché ci si vuole schierare a priori su una questione che è essenzialmente empirica.
C’è come un’ “ansia culturale” di pronunciarsi in merito…
… Some pose the question “Can machines become moral?” so that they may themselves answer immediately, “No,”…
Lo schieramento del “no” punta molto sul fatto che i robot non abbiano una coscienza.
Oppure sul fatto che non possono esprimere o comprendere a fondo le emozioni.
Per negare la coscienza al robot, molti utilizzano il famoso esperimento mentale di John Searle noto come “stanza del cinese”…
… Imagine yourself, ignorant of Chinese, locked in a room with a vast set of rule books, written in your native language, that enable you to take questions posed to you in Chinese and then, following those rules, to “answer” the questions in Chinese in a way that leaves native speakers of Chinese thinking that you understand their language. In fact, you don’t have a clue about Chinese and are merely following the rules. For Searle, a robot or a computer outfitted with advanced artificial intelligence would be just like the person in the box…
Critica
… we humans don’t really understand that which we call “consciousness” even in ourselves, how do we know it isn’t just the very competence that such a machine possesses?…
Insomma, la coscienza è invisibile, la si inferisce empiricamente da indizi esteriori e non aprioristicamente da un ragionamento. Per questo l’analogia è falsa.
La rete neuronale umana, inoltre, è tutt’altro che impossibile da replicare artificialmente…
… they consist of neuron-like nodes and dendrite-like connections among the nodes, with weights on each connection like activation potentials at synapses. But, in practice, such neural nets are remarkably powerful learning machines that can master tasks like pattern recognition that defy easy solution via conventional, rule-based computational techniques…
Dobbiamo interagire concretamente con la nuova creatura per giudicarla, non possiamo farlo a priori per il solo fatto di sapere che il suo cervello è una replica, o per il fatto che è uscita da un laboratorio anziché da un utero…
… what can or cannot be done in the domain of artificial intelligence is always an empirical question
Ma la sconfitta dell’apriorismo tocca anche gli argomenti del “sì”…
… Confident a priori assertions about what science and engineering cannot achieve have a history of turning out to be wrong, as with Auguste Comte’s bold claim in the 1830s that science could never reveal the internal chemical constitution of the sun and other heavenly bodies, a claim he made at just the time when scientists like Fraunhofer, Foucault, Kirchhoff, and Bunsen were pioneering the use of spectrographic analysis for precisely that task…
E’ da stolti scommettere che i robot non potranno mai fare questo o quello.
Già in passato siamo rimasti scottati
… don’t be surprised if in a few years claims about computers not possessing an emotional capability begin to look as silly as the once-commonplace claims back in the 1960s and 1970s that computers would never master natural language…
**************************************************************
C’è poi un problema affine ma molto diverso: come immettere moralità nei robot del futuro?
Per esempio: come dovrà essere la moralità di una macchina che si guida da sè?
Quanto potrà rischiare (sbandare) per evitare il gattino sulla strada?
Di quante persone sarà autorizzata a mettere a rischio la vita per salvare quella di un bimbo?
Questo vale già per i droni completamente automatici: quando e dove dovranno sganciare la bomba? Che caratteristiche dovrà avere il convoglio da colpire? Quale limite di probabilità deve essere superato per stabilire che il bersaglio nel mirino è quello “giusto”?
Trapela una certa inquietudine in chi legge queste domande. Ma guardiamo al bicchiere mezzo pieno
… we can produce robot warriors that are “more moral” than the average human combatant…
E comunque il problema non sembra eludibile in molti settori…
… I spend a lot of time thinking about the rapid expansion of health care robotics… patient-assist robot that might soon be helping my ninety-year-old mother into the bathtub…
Per la risposta correttacompetono due approcci: il primo è l’ up-down.
Secondo questa strategia nella macchina vengono immessi dei precetti e delle subroutine che elaborino i dati per un calcolo utilitaristico al fine di stabilire quando derogare ai precetti generali…
… Top-down approaches to programming machine morality combine conventional, decision-tree programming methods with Kantian, deontological or rule-based ethical frameworks and consequentialist or utilitarian, greatest-good-for-the-greatest-number frameworks (often associated with Jeremy Bentham and John Stuart Mill)…one writes an ethical rule set into the machine code and adds a sub-routine for carrying out cost-benefit calculations… the approach endorsed by Arkin in his book Governing Lethal Behavior in Autonomous Robots…
I precetti considerati sono di solito quelli contenuti nei diritti umani e nella convenzione di Ginevra.
Due obiezioni: 1) non ci sono precetti abbastanza generali da coprire ogni contingenza, 2) gli elementi per un calcolo delle conseguenze sensato non sono praticamente mai disponibili.
Insomma, questo approccio – detto deontologico – è troppo rigido affinché il robot si muova in scioltezza in un ambiente complesso come quello reale.
L’alternativa è il bottom-up.
Qui viene fatta vivere al robot una sua “infanzia” durante la quale “impara” come ci si comporta nelle varie situazioni.
Un periodo in cui impara e impara ad imparare sviluppando un suo “carattere” e delle inclinazioni corrette...
… there are… deep-learning techniques… to make the moral machines into moral learners…
Potremmo definire questa impostazione come l’equivalente robotico del “virtuismo” aristotelico
… This approach borrows from the virtue ethics tradition… the idea that moral character consists of a set of virtues understood as settled habits or dispositions to act, shaped by a life-long process of moral learning and self-cultivation…
Critica: si creano così degli operatori imprevedibili, un potenziale pericolo.
Altra critica: l’uomo non è un razionalista morale, non ha una razionalità nascosta da scovare induttivamente: agisce e poi si giustifica attraverso una razionalizzazione (ex post).
La soluzione? Al momento non c’è: di certo mixarà i due approcci.