Visualizzazione post con etichetta #bqo mente. Mostra tutti i post
Visualizzazione post con etichetta #bqo mente. Mostra tutti i post

venerdì 12 maggio 2017

Robot con il senso di colpa

Immaginatevi un robot che riceve l’assoluzione da un sacerdote e sconta i suoi errori con tre avemarie. E’ un evento a cui potremmo mai assistere?
La persona adatta da interpellare è il filosofo Don Howard, il quale si è pronunciato nel breve ma illuminante saggio  “Can Machines Become Moral?”.
Il problema è ostico, anche perché si tende a confondere problemi tra loro differenti. Vediamo il principale…
… For some, the question is whether artificial agents, especially humanoid robots, like Commander Data in Star Trek: The Next Generation, will someday become sophisticated enough and enough like humans in morally relevant ways so as to be accorded equal moral standing with humans…
Un robot potrà mai essere in futuro responsabile per le sue azioni?
Qui la risposta è abbastanza facile: non lo sappiamo.
Solo il tempo ce lo dirà.
Come risposta è un po’ deludente ma diventa più interessante quando la si considera in opposizione alle alternative.
Il fatto interessante è piuttosto che c’è gente che sembra avere una voglia matta di rispondere “sì” oppure “no”.
Chissà perché ci si vuole schierare a priori su una questione che è essenzialmente empirica.
C’è come un’ “ansia culturale” di pronunciarsi in merito…
… Some pose the question “Can machines become moral?” so that they may themselves answer immediately, “No,”…
Lo schieramento del “no” punta molto sul fatto che i robot non abbiano una coscienza.
Oppure sul fatto che non possono esprimere o comprendere a fondo le emozioni.
Per negare la coscienza al robot, molti utilizzano il famoso esperimento mentale di John Searle noto come “stanza del cinese”…
… Imagine yourself, ignorant of Chinese, locked in a room with a vast set of rule books, written in your native language, that enable you to take questions posed to you in Chinese and then, following those rules, to “answer” the questions in Chinese in a way that leaves native speakers of Chinese thinking that you understand their language. In fact, you don’t have a clue about Chinese and are merely following the rules. For Searle, a robot or a computer outfitted with advanced artificial intelligence would be just like the person in the box…
Critica
… we humans don’t really understand that which we call “consciousness” even in ourselves, how do we know it isn’t just the very competence that such a machine possesses?…
Insomma, la coscienza è invisibile, la si inferisce empiricamente da indizi esteriori e non aprioristicamente da un ragionamento. Per questo l’analogia è falsa.
La rete neuronale umana, inoltre, è tutt’altro che impossibile da replicare artificialmente…
… they consist of neuron-like nodes and dendrite-like connections among the nodes, with weights on each connection like activation potentials at synapses. But, in practice, such neural nets are remarkably powerful learning machines that can master tasks like pattern recognition that defy easy solution via conventional, rule-based computational techniques…
Dobbiamo interagire concretamente con la nuova creatura per giudicarla, non possiamo farlo a priori per il solo fatto di sapere che il suo cervello è una replica, o per il fatto che è uscita da un laboratorio anziché da un utero…
… what can or cannot be done in the domain of artificial intelligence is always an empirical question
Ma la sconfitta dell’apriorismo tocca anche gli argomenti del “sì”…
… Confident a priori assertions about what science and engineering cannot achieve have a history of turning out to be wrong, as with Auguste Comte’s bold claim in the 1830s that science could never reveal the internal chemical constitution of the sun and other heavenly bodies, a claim he made at just the time when scientists like Fraunhofer, Foucault, Kirchhoff, and Bunsen were pioneering the use of spectrographic analysis for precisely that task…
E’ da stolti scommettere che i robot non potranno mai fare questo o quello.
Già in passato siamo rimasti scottati
… don’t be surprised if in a few years claims about computers not possessing an emotional capability begin to look as silly as the once-commonplace claims back in the 1960s and 1970s that computers would never master natural language…
**************************************************************
C’è poi un problema affine ma molto diverso: come immettere moralità nei robot del futuro?
Per esempio: come dovrà essere la moralità di una macchina che si guida da sè?
Quanto potrà rischiare (sbandare) per evitare il gattino sulla strada?
Di quante persone sarà autorizzata a mettere a rischio la vita per salvare quella di un bimbo?
Questo vale già per i droni completamente automatici: quando e dove dovranno sganciare la bomba? Che caratteristiche dovrà avere il convoglio da colpire? Quale limite di probabilità deve essere superato per stabilire che il bersaglio nel mirino è quello “giusto”?
Trapela una certa inquietudine in chi legge queste domande. Ma guardiamo al bicchiere mezzo pieno
… we can produce robot warriors that are “more moral” than the average human combatant…
E comunque il problema non sembra eludibile in molti settori…
… I spend a lot of time thinking about the rapid expansion of health care robotics… patient-assist robot that might soon be helping my ninety-year-old mother into the bathtub…
Per la risposta correttacompetono due approcci: il primo è l’ up-down.
Secondo questa strategia nella macchina vengono immessi dei precetti e delle subroutine che elaborino i dati per un calcolo utilitaristico al fine di stabilire quando derogare ai precetti generali…
… Top-down approaches to programming machine morality combine conventional, decision-tree programming methods with Kantian, deontological or rule-based ethical frameworks and consequentialist or utilitarian, greatest-good-for-the-greatest-number frameworks (often associated with Jeremy Bentham and John Stuart Mill)…one writes an ethical rule set into the machine code and adds a sub-routine for carrying out cost-benefit calculations… the approach endorsed by Arkin in his book Governing Lethal Behavior in Autonomous Robots…
I precetti considerati sono di solito quelli contenuti nei diritti umani e nella convenzione di Ginevra.
Due obiezioni: 1) non ci sono precetti abbastanza generali da coprire ogni contingenza, 2) gli elementi per un calcolo delle conseguenze sensato non sono praticamente mai disponibili.
Insomma, questo approccio – detto deontologico – è troppo rigido affinché il robot si muova in scioltezza in un ambiente complesso come quello reale.
L’alternativa è il bottom-up.
Qui viene fatta vivere al robot una sua “infanzia” durante la quale “impara” come ci si comporta nelle varie situazioni.
Un periodo in cui impara e impara ad imparare sviluppando un suo “carattere” e delle inclinazioni corrette...
… there are… deep-learning techniques… to make the moral machines into moral learners…
Potremmo definire questa impostazione come l’equivalente robotico del “virtuismo” aristotelico
… This approach borrows from the virtue ethics tradition… the idea that moral character consists of a set of virtues understood as settled habits or dispositions to act, shaped by a life-long process of moral learning and self-cultivation…
Critica: si creano così degli operatori imprevedibili, un potenziale pericolo.
Altra critica: l’uomo non è un razionalista morale, non ha una razionalità nascosta da scovare induttivamente: agisce e poi si giustifica attraverso una razionalizzazione (ex post).
La soluzione? Al momento non c’è: di certo mixarà i due approcci.

venerdì 29 luglio 2016

What Is the Difference Between Knowledge and Understanding? Michael Strevens

Notebook per
What Is the Difference Between Knowledge and Understanding?
Michael Strevens
Citation (APA): Strevens, M. (2014). What Is the Difference Between Knowledge and Understanding? [Kindle Android version]. Retrieved from Amazon.com

Parte introduttiva
Nota - Posizione 2
il pc che gioca a jeopatdy il cervello: lista e associa simbolicamente il pc: compie associazioni statistiche le associazioni statistiche non consentono di costruire il concetto di realtà... quindi di comprendere la realtà di un fatto o di un xsonaggio il pc non sa cosa rende corretta la sua risposta i fisici sanno cosa sia una superposizione ma difficilmente comprendono il concetto la comprensione è sempre un fenomeno interiore al limite segnalato da confidenza ed esperienza x il pc l associazione statistica è fonte del vero x noi è un prodotto collatrrale che segnala il vero alcuni fiosofi ritengono che anche la comprensione abbia base statistica solo che tutto avviene a livello neuronale
Evidenzia (giallo) - Posizione 2
What Is the Difference Between Knowledge and Understanding? By Michael Strevens
Evidenzia (giallo) - Posizione 6
When Watson, a computer, appeared on Jeopardy, its answers illustrated the difference between knowledge and understanding.
Nota - Posizione 7
PC E MENTE
Evidenzia (giallo) - Posizione 8
Everyone knows something. Some people know a lot. But no human being knows as much, apparently, as Watson
Nota - Posizione 9
WATSON CONOSCE
Evidenzia (giallo) - Posizione 15
Surely it knows that James Cagney was an actor, not a “real-life” gangster?
Evidenzia (giallo) - Posizione 18
Whereas we summon up a list of gangsters or U.S. cities and then ask ourselves whether they meet the other criteria explicitly imposed or implicitly suggested by the clue, Watson consults a sophisticated table of statistical associations between words,
Nota - Posizione 19
LISTA
Evidenzia (giallo) - Posizione 25
How could a table of statistical associations comprehend the difference between fact and fiction,
Nota - Posizione 25
VERO E FINTO
Evidenzia (giallo) - Posizione 29
grasp on the facts
Evidenzia (giallo) - Posizione 31
There are two kinds: understanding language and understanding the world. Consider this sentence: Δέδυκε μεν ἀ σελάννα.
Nota - Posizione 32
CAPIRE UNA LINGUA E IL MONDO
Evidenzia (giallo) - Posizione 35
Watson’s problem is that it does not understand the world.
Nota - Posizione 36
WATSON PROBLEM
Evidenzia (giallo) - Posizione 36
I put that question aside.) It gives answers, but it has no grasp of what makes its answers correct.
Evidenzia (giallo) - Posizione 38
Perhaps you know that Bach wrote fugues, but you don’t understand what a fugue is— the more so , perhaps , if you are tone deaf.
Nota - Posizione 39
SORDO CHE ASCOLTA BACH
Evidenzia (giallo) - Posizione 41
superposition
Evidenzia (giallo) - Posizione 55
A different test for understanding investigates abilities rather than internal imagery,
Nota - Posizione 56
IMMAGINAZIONE
Evidenzia (giallo) - Posizione 59
Imagine a more versatile version of Watson, proficient in answering questions generally,
Nota - Posizione 60
WATSON PERFETTO
Evidenzia (giallo) - Posizione 64
its expertise is parasitic:
Evidenzia (giallo) - Posizione 67
connections.
Evidenzia (giallo) - Posizione 69
You grasp why
Nota - Posizione 69
PERCHÈ
Evidenzia (giallo) - Posizione 70
For you the statistics are a byproduct of what really matters,
Nota - Posizione 70
STATISTICHE
Evidenzia (giallo) - Posizione 71
Watson lives in a world where there are no such relations: all it sees are statistics.
Evidenzia (giallo) - Posizione 76
Many scientists believe that, at bottom, our thought is implemented in neural networks that make statistical associations.
Nota - Posizione 76
COSCIENZA
Evidenzia (giallo) - Posizione 84
underlying structures
Evidenzia (giallo) - Posizione 85
direct experience of the subject
Evidenzia (giallo) - Posizione 87
skeptical views,
Evidenzia (giallo) - Posizione 91
consciousness?
Evidenzia (giallo) - Posizione 92
other people