martedì 7 aprile 2020

hl Existential Risks: AI – Fake Nous

Existential Risks: AI – Fake Nous
riccardo-mariani@libero.it
Citation (APA): riccardo-mariani@libero.it. (2020). Existential Risks: AI – Fake Nous [Kindle Android version]. Retrieved from Amazon.com

Parte introduttiva
Evidenzia (giallo) - Posizione 2
Existential Risks: AI– Fake Nous
Nota - Posizione 2
@@@@@ Si poarte assumendo che ai nn sará simile all uomo nn avrá coscienza nn avrá morovazioni umane nn avrá voglua di potenza. A meno che nn sia programmata x qs. il problema sono le conseg nn intenzionali. Nn possiamo prevedere tutto. Ma spesso in casi del genere i programma vanin crash. é l ai aiutare sata dai malvagi ad essere xicolosa unica speranza: il rinsavimenro dell uomo. Ma basterá un pazzo.
Evidenzia (giallo) - Posizione 40
Maybe an advanced AI will for some reason decide that it is advantageous to eliminate all humans,
Nota - Posizione 40
Il rischio
Evidenzia (giallo) - Posizione 47
(1) Consciousness
Nota - Posizione 47
Ttttttttt
Evidenzia (giallo) - Posizione 48
computers will literally be conscious,
Nota - Posizione 48
Sembra un articolo di fede
Evidenzia (giallo) - Posizione 48
I personally have near-zero credence in this.
Nota - Posizione 49
Tesi
Evidenzia (giallo) - Posizione 49
A non-conscious AI can still have enormous power
Nota - Posizione 50
Tuttavia
Evidenzia (giallo) - Posizione 55
(2) Computers Are Not People Too
Nota - Posizione 55
Tttttttttt
Evidenzia (giallo) - Posizione 55
the way that most people imagine AI posing a threat— like in science fiction stories that have human-robot wars— is anthropomorphic and not realistic.
Nota - Posizione 56
L errore
Evidenzia (giallo) - Posizione 58
Advanced AI won’t have human-like motivations
Evidenzia (giallo) - Posizione 61
It won’t even have an instinct of self-preservation, unless we decide to program that.
Evidenzia (giallo) - Posizione 63
The desire to take over the world is a peculiarly human obsession.
Evidenzia (giallo) - Posizione 63
a peculiarly male human obsession.
Evidenzia (giallo) - Posizione 65
AI won’t be subject to these evolutionary, biological imperatives.
Evidenzia (giallo) - Posizione 66
(3) Bugs
Nota - Posizione 66
Ttttttt
Evidenzia (giallo) - Posizione 66
The more general worry that we should have is programming mistakes, or unintended consequences.
Evidenzia (giallo) - Posizione 68
we cannot anticipate all the consequences of a given algorithm,
Evidenzia (giallo) - Posizione 71
Nick Bostrom gives the example of a computer system built to make paperclips more efficiently.
Evidenzia (giallo) - Posizione 73
convert most of the Earth’s mass into paperclips. This would have human extinction as an unfortunate side effect.
Evidenzia (giallo) - Posizione 77
With a computer program, you can’t just put in a clause that says, “unless this turns out to imply something obviously crazy.”
Evidenzia (giallo) - Posizione 78
(4) Crashing
Nota - Posizione 78
Tttt
Evidenzia (giallo) - Posizione 81
when programs malfunction— when the complicated algorithm the computer is following has an unintended consequence— what almost always happens is that the program crashes,
Nota - Posizione 82
Motivo di speranza
Evidenzia (giallo) - Posizione 83
it isn’t going to start acting like an agent coherently pursuing some different goal
Evidenzia (giallo) - Posizione 85
(5) The Real Threat
Evidenzia (giallo) - Posizione 87
it’s not the AI that would be out to get us. It is human beings that would be at the core of the threat.
Evidenzia (giallo) - Posizione 89
there are people who quite seriously believe that it would be good if humanity became extinct.
Evidenzia (giallo) - Posizione 90
There are others who would gladly kill all members of particular countries, or particular religious or ethnic groups.
Evidenzia (giallo) - Posizione 93
AI may make dangerous humans even more dangerous.
Nota - Posizione 93
Tesi
Evidenzia (giallo) - Posizione 94
Military AI
Nota - Posizione 94
Tttttttt
Evidenzia (giallo) - Posizione 95
Skynet/ Terminator story is so silly, after all.
Evidenzia (giallo) - Posizione 111
So there are two threats: governments of powerful nations may kill us with AI-controlled military systems (possibly by mistake). Or terrorists may use AI to figure out how to kill us, because they’re crazy.
Evidenzia (giallo) - Posizione 113
we can use AI to defend against hostile AI. But destruction usually has an advantage over protection. (It’s easier to destroy, there are more ways of doing it, etc.)
Evidenzia (giallo) - Posizione 114
AI in a box
Nota - Posizione 115
Ttttttt
Evidenzia (giallo) - Posizione 123
we will have to hope that humans become less crazy and evil, before our technology advances enough
Nota - Posizione 124
La speranza
Evidenzia (giallo) - Posizione 125
it only takes one crazy person
Nota - Posizione 125
Purtroppo