Visualizzazione post con etichetta #huemer apocalisse. Mostra tutti i post
Visualizzazione post con etichetta #huemer apocalisse. Mostra tutti i post

martedì 7 aprile 2020

hl Existential Risks: AI – Fake Nous

Existential Risks: AI – Fake Nous
riccardo-mariani@libero.it
Citation (APA): riccardo-mariani@libero.it. (2020). Existential Risks: AI – Fake Nous [Kindle Android version]. Retrieved from Amazon.com

Parte introduttiva
Evidenzia (giallo) - Posizione 2
Existential Risks: AI– Fake Nous
Nota - Posizione 2
@@@@@ Si poarte assumendo che ai nn sará simile all uomo nn avrá coscienza nn avrá morovazioni umane nn avrá voglua di potenza. A meno che nn sia programmata x qs. il problema sono le conseg nn intenzionali. Nn possiamo prevedere tutto. Ma spesso in casi del genere i programma vanin crash. é l ai aiutare sata dai malvagi ad essere xicolosa unica speranza: il rinsavimenro dell uomo. Ma basterá un pazzo.
Evidenzia (giallo) - Posizione 40
Maybe an advanced AI will for some reason decide that it is advantageous to eliminate all humans,
Nota - Posizione 40
Il rischio
Evidenzia (giallo) - Posizione 47
(1) Consciousness
Nota - Posizione 47
Ttttttttt
Evidenzia (giallo) - Posizione 48
computers will literally be conscious,
Nota - Posizione 48
Sembra un articolo di fede
Evidenzia (giallo) - Posizione 48
I personally have near-zero credence in this.
Nota - Posizione 49
Tesi
Evidenzia (giallo) - Posizione 49
A non-conscious AI can still have enormous power
Nota - Posizione 50
Tuttavia
Evidenzia (giallo) - Posizione 55
(2) Computers Are Not People Too
Nota - Posizione 55
Tttttttttt
Evidenzia (giallo) - Posizione 55
the way that most people imagine AI posing a threat— like in science fiction stories that have human-robot wars— is anthropomorphic and not realistic.
Nota - Posizione 56
L errore
Evidenzia (giallo) - Posizione 58
Advanced AI won’t have human-like motivations
Evidenzia (giallo) - Posizione 61
It won’t even have an instinct of self-preservation, unless we decide to program that.
Evidenzia (giallo) - Posizione 63
The desire to take over the world is a peculiarly human obsession.
Evidenzia (giallo) - Posizione 63
a peculiarly male human obsession.
Evidenzia (giallo) - Posizione 65
AI won’t be subject to these evolutionary, biological imperatives.
Evidenzia (giallo) - Posizione 66
(3) Bugs
Nota - Posizione 66
Ttttttt
Evidenzia (giallo) - Posizione 66
The more general worry that we should have is programming mistakes, or unintended consequences.
Evidenzia (giallo) - Posizione 68
we cannot anticipate all the consequences of a given algorithm,
Evidenzia (giallo) - Posizione 71
Nick Bostrom gives the example of a computer system built to make paperclips more efficiently.
Evidenzia (giallo) - Posizione 73
convert most of the Earth’s mass into paperclips. This would have human extinction as an unfortunate side effect.
Evidenzia (giallo) - Posizione 77
With a computer program, you can’t just put in a clause that says, “unless this turns out to imply something obviously crazy.”
Evidenzia (giallo) - Posizione 78
(4) Crashing
Nota - Posizione 78
Tttt
Evidenzia (giallo) - Posizione 81
when programs malfunction— when the complicated algorithm the computer is following has an unintended consequence— what almost always happens is that the program crashes,
Nota - Posizione 82
Motivo di speranza
Evidenzia (giallo) - Posizione 83
it isn’t going to start acting like an agent coherently pursuing some different goal
Evidenzia (giallo) - Posizione 85
(5) The Real Threat
Evidenzia (giallo) - Posizione 87
it’s not the AI that would be out to get us. It is human beings that would be at the core of the threat.
Evidenzia (giallo) - Posizione 89
there are people who quite seriously believe that it would be good if humanity became extinct.
Evidenzia (giallo) - Posizione 90
There are others who would gladly kill all members of particular countries, or particular religious or ethnic groups.
Evidenzia (giallo) - Posizione 93
AI may make dangerous humans even more dangerous.
Nota - Posizione 93
Tesi
Evidenzia (giallo) - Posizione 94
Military AI
Nota - Posizione 94
Tttttttt
Evidenzia (giallo) - Posizione 95
Skynet/ Terminator story is so silly, after all.
Evidenzia (giallo) - Posizione 111
So there are two threats: governments of powerful nations may kill us with AI-controlled military systems (possibly by mistake). Or terrorists may use AI to figure out how to kill us, because they’re crazy.
Evidenzia (giallo) - Posizione 113
we can use AI to defend against hostile AI. But destruction usually has an advantage over protection. (It’s easier to destroy, there are more ways of doing it, etc.)
Evidenzia (giallo) - Posizione 114
AI in a box
Nota - Posizione 115
Ttttttt
Evidenzia (giallo) - Posizione 123
we will have to hope that humans become less crazy and evil, before our technology advances enough
Nota - Posizione 124
La speranza
Evidenzia (giallo) - Posizione 125
it only takes one crazy person
Nota - Posizione 125
Purtroppo

sabato 15 febbraio 2020

CRONACA DI UNA MORTE ANNUNCIATA

CRONACA DI UNA MORTE ANNUNCIATA
Siamo spacciati, vi annuncio che l'umanità si estinguerà in futuro. Non è una grande notizia, lo so, nulla dura per sempre.
Le cause possibili dell'evento ferale sono tante e l'articolo di Wiki le elenca diligentemente, è uno dei miei preferiti e me lo leggo ogni mese. Tuttavia, penso anche che la nostra fine avverrà molto prima e che, tanto per dire, se il sole si spegnerà, si spegnerà su una Terra ormai deserta da tempo. La nostra sparizione è molto più vicina e sarà un' apocalisse della stupidità.
Una ventina d'anni fa non avrei parlato in questo modo ma ora ho un'opinione differente.
Mi spiego meglio. Supponiamo che l'arrivo di un asteroide sia preannunciato dalla comunità scientifica con 40 anni di anticipo e con una probabilità intorno al 5%. Tutti concordano sul fatto che l'impatto sarebbe disastroso, sebbene non ci sia accordo su "quanto" sarà disastroso e sulla percentuale di cui sopra. Ci sono diversi piani per difendersi, il loro costo è elevato in valore assoluto ma non poi così oneroso in termini relativi. Resta un certo disaccordo degli esperti su quanto sia efficace ciascun piano di difesa e sui tempi di realizzazione. Ogni esperto concorda, tuttavia, che qualcosa dovrebbe essere tentato.
Ora, cosa succederebbe in una simile situazione?
Alcuni partiti politici s'intesterebbero la causa della lotta all'asteroide. Lo storico partito rivale - supponiamo ci siano solo due partiti - deciderebbe quindi che loro sono quelli pro-asteroide. Il primo partito collega la sua nuova causa a misure che già sponsorizzava prima per ragioni ideologiche, il secondo accusa una buona fetta della comunità scientifica di essere ideologizzata e bolla di tradimento chi nelle sue file è perplesso.
Gli scettici dell' asteroide puntano sulle incertezze nella scienza, sostenendo che non abbiamo prove concrete che l'asteroide stia effettivamente per colpire la Terra. Enfatizzano gli argomenti più ottimistici e amplificano tutte le incertezze dello scenario più disastroso.
I catastrofisti si mostrano estremamente sensibili alla causa ma, allo stesso tempo, non supportano i piani più promettenti proprio perché non in linea con la loro ideologia complessiva. Per esempio, esiste un piano che avrebbe come effetto collaterale quello di acuire le diseguaglianze sociali. Non si deve parlarne. Esiste un altro piano che richiederebbe l'impiego massiccio di una tecnologia abbastanza rischiosa e non proprio neutrale. Non si deve parlarne. Eccetera. I piani che raccolgono più consenso sarebbero anche i più velleitari e improbabili.
E chi dovrebbe pagare poi per l'asteroide? Gli americani vogliono che la Cina paghi di più; La Cina vuole che l'America paghi di più. Entrambi si arrabbiano con i russi per essersi rifiutati di pagare anche il minimo dovuto. L'Europa, come sempre, conterà zero.
L'uomo medio sa a malapena cosa sia un asteroide, non ha mai assistito a un impatto e si rifiuta di credere agli "arroganti" scienziati (che indirettamente gli stanno chiedendo sacrifici non piccoli proprio ora che è andato in pensione). Si attacca la solfa dei complotti. Alcuni dicono che puoi semplicemente guardare in alto nel cielo e vedere che non ci sono asteroidi. Inoltre la storia umana non ci racconta di grandi impatti con asteroidi, questo significherà pure qualcosa. I siti di questa gente sono molto cliccati e loro ottengono parecchio denaro.
I media più equilibrati e affidabili cercano di dare uguale attenzione alla posizione ortodossa e alla posizione scettica, quest'ultima rappresentata dai pochi scienziati che nel mondo che pensano che l'asteroide non sia una minaccia seria.
Quando diventa chiaro che non si sta facendo nulla per il problema asteroide, gli scienziati diventeranno sempre più attivi nel tentativo di convincere le masse. Proveranno vari approcci. Alcuni offriranno analisi sobrie e ponderate. Questi scienziati, tuttavia, saranno ignorati perché noiosi; Altri scienziati faranno appelli sempre più allarmati ed emotivi. Offriranno uno spettacolo in grado di attirare l'attenzione ma che si va lentamente trasformando in una buffonata. Nani e ballerine entreranno in scena nella lotta contro l'asteroide con messaggi forti ed ideologici. Gli scettici prenderanno queste carnevalate come la conferma delle loro tesi: il messaggio contro l'asteroide è solo un pretesto per un'esibizione narcisistica della virtù. Avranno ragione un po' tutti e la conseguenza sarà lo stallo prolungato.
Molti politici sanno che la minaccia dell'asteroide è reale, ma riterranno che non valga la pena perdere i voti e il lavoro per una piccola possibilità di salvare l'umanità; inoltre, penseranno giustamente di non poter fare la differenza da soli. Tra chi nega e chi supporta solo piani velleitari si raggiungerà un compromesso al ribasso che imporrà costi alla società senza alcun beneficio reale.
Tutto questo andrà avanti per 39 anni. Nell'ultimo anno, gli scienziati avranno raggiunto il 100% di accordo sul fatto che l'asteroide colpirà la Terra entro un anno uccidendo tutti e che alcuni piani architettati in precedenza, quelli meno "simpatici" avrebbero avuto successo. Sono anche d'accordo che ormai è troppo tardi per fare qualsiasi cosa che non sia pregare. E così non si farà nulla di concreto neanche nell'ultimo anno. Circa la metà di tutti gli esseri umani ancora rifiuterà di credere alla catastrofe prossima ventura, fino al giorno in cui l'asteroide colpirà, uccidendo miliardi di persone e innescando la più grande estinzione di massa della Terra.
P.S. Leggendo qualcuno avrà pensato al riscaldamento globale. Calma, quello non è un rischio esistenziale, anche se alcune dinamiche a cui accenno sono state rielaborate sulla base di questa esperienza.
Commenti