Visualizzazione post con etichetta nick bostrom superintelligence. Mostra tutti i post
Visualizzazione post con etichetta nick bostrom superintelligence. Mostra tutti i post

lunedì 2 settembre 2019

HL scott alexander REFRAMING SUPERINTELLIGENCE

scott alexander REFRAMING SUPERINTELLIGENCE
riccardo-mariani@libero.it
Citation (APA): riccardo-mariani@libero.it. (2019). scott alexander REFRAMING SUPERINTELLIGENCE [Kindle Android version]. Retrieved from Amazon.com

Parte introduttiva
Evidenzia (giallo) - Posizione 4
REFRAMIN G SUPERIN TELLIGEN CE
Nota - Posizione 4
@@@@@@@senso comune
Nota - Posizione 4
@@@@@@@senso comune
Evidenzia (giallo) - Posizione 7
Why isn’t everyone talking about nuclear security, biodefense, or counterterrorism? Because there are already competent institutions working on those problems,
Nota - Posizione 8
SETTORI MATURI
Nota - Posizione 8
SETTORI MATURI
Evidenzia (giallo) - Posizione 15
it’s harder to keep up with the field.
Nota - Posizione 15
UNA CONSEG DI QS FATTO
Nota - Posizione 15
UNA CONSEG DI QS FATTO
Evidenzia (giallo) - Posizione 15
Bostrom wrote Superintelligence:
Nota - Posizione 15
IL PRIMO RESOCONTO
Nota - Posizione 15
IL PRIMO RESOCONTO
Evidenzia (giallo) - Posizione 16
Since then, things have been less public-facing, less readable, and more likely to be published in dense papers with a lot of mathematical
Nota - Posizione 17
Cccccc
Nota - Posizione 17
Cccccc
Evidenzia (giallo) - Posizione 18
Reframing Superintelligence: Comprehensive AI Services As General Intelligence by Eric Drexler,
Nota - Posizione 19
OGGI
Nota - Posizione 19
OGGI
Evidenzia (giallo) - Posizione 21
This 200 page report is not quite as readable as Superintelligence;
Nota - Posizione 21
PURTROPPO
Nota - Posizione 21
PURTROPPO
Evidenzia (giallo) - Posizione 22
all of its claims start sounding the same after a while.
Nota - Posizione 22
DIFETTO
Nota - Posizione 22
DIFETTO
Evidenzia (giallo) - Posizione 23
what if future AI looks a lot like current AI, but better?
Nota - Posizione 23
LA DOMANDA
Nota - Posizione 23
LA DOMANDA
Evidenzia (giallo) - Posizione 24
Google Translate would be able to translate texts faster and better
Nota - Posizione 24
ESEMPIO
Nota - Posizione 24
ESEMPIO
Evidenzia (giallo) - Posizione 26
But in the end, it would just be a translation app.
Nota - Posizione 26
Cccccccccc
Nota - Posizione 26
Cccccccccc
Evidenzia (giallo) - Posizione 26
It wouldn’t even “want” to become better at translating than it was already.
Nota - Posizione 27
Cccccccccc
Nota - Posizione 27
Cccccccccc
Evidenzia (giallo) - Posizione 28
media services that can write books or generate movies to fit your personal tastes.
Nota - Posizione 29
ALTRO ESEMPIO
Nota - Posizione 29
ALTRO ESEMPIO
Evidenzia (giallo) - Posizione 32
In this future, our AI technology would have taken the same path as our physical technology.
Nota - Posizione 33
IPOTESI
Nota - Posizione 33
IPOTESI
Evidenzia (giallo) - Posizione 33
The human body can run fast, lift weights, and fight off enemies. But the automobile, crane, and gun are three different machines.
Nota - Posizione 33
UNA MACCHINA UNA FUNZIONE
Nota - Posizione 33
UNA MACCHINA UNA FUNZIONE
Evidenzia (giallo) - Posizione 40
These superintelligent services would be safer than general-purpose superintelligent agents.
Nota - Posizione 41
CONSEGUENZA PIACEVOLE....SPECIALIZZAZIONE => INNOCUO
Nota - Posizione 41
CONSEGUENZA PIACEVOLE....SPECIALIZZAZIONE => INNOCUO
Evidenzia (giallo) - Posizione 43
Superintelligent services would not self-improve. You could build an AI researching service– or, more likely, several different services to help with several different aspects of AI research– but each of them would just be good at solving certain AI research problems.
Nota - Posizione 44
MIGLIORAMENTO
Nota - Posizione 44
MIGLIORAMENTO
Evidenzia (giallo) - Posizione 46
superintelligent services could help keep the world safe from less benevolent AIs.
Nota - Posizione 47
CONSEG POSITIVA
Nota - Posizione 47
CONSEG POSITIVA
Evidenzia (giallo) - Posizione 47
Drexler agrees that a self-improving general purpose AI agent is possible,
Nota - Posizione 47
LA VERA AI COLPIRÀ L UOMO CHE SI DIFENDERÀ CON AI SERVICE
Nota - Posizione 47
LA VERA AI COLPIRÀ L UOMO CHE SI DIFENDERÀ CON AI SERVICE
Evidenzia (giallo) - Posizione 48
He agrees this could go about the way Bostrom expects it to go, ie very badly. But he hopes that there will be a robust ecosystem of AI services active
Nota - Posizione 49
Cccccc
Nota - Posizione 49
Cccccc
Evidenzia (giallo) - Posizione 49
Superintelligent anomaly detectors might be able to notice rogue agents causing trouble,
Nota - Posizione 50
IA DETECTIVE
Nota - Posizione 50
IA DETECTIVE
Evidenzia (giallo) - Posizione 51
Drexler therefore does not completely dismiss Bostromian disaster scenarios,
Nota - Posizione 52
DISASTRO
Nota - Posizione 52
DISASTRO
Evidenzia (giallo) - Posizione 54
Drexler is more concerned about potential misuse by human actors
Nota - Posizione 55
PREOCCUPAZIONE UNO
Nota - Posizione 55
PREOCCUPAZIONE UNO
Evidenzia (giallo) - Posizione 56
illegal use by criminals and enemy militaries,
Nota - Posizione 56
EZSEMPI
Nota - Posizione 56
EZSEMPI
Evidenzia (giallo) - Posizione 59
Paul Christiano
Nota - Posizione 59
I LINEA CON
Nota - Posizione 59
I LINEA CON
Evidenzia (giallo) - Posizione 59
AI services will be naturally better at satisfying objective criteria than at “making the world better” in some vague sense.
Nota - Posizione 60
IL PROBLEMA
Nota - Posizione 60
IL PROBLEMA
Evidenzia (giallo) - Posizione 60
“maximize clicks to this site”
Nota - Posizione 60
ES DI CRITERIOK OGGETTIVO
Nota - Posizione 60
ES DI CRITERIOK OGGETTIVO
Evidenzia (giallo) - Posizione 61
“provide real value to users of this site instead of just clickbait”
Nota - Posizione 61
CRITERIO AMBIGUO
Nota - Posizione 61
CRITERIO AMBIGUO
Evidenzia (giallo) - Posizione 62
AI may asymmetrically empower some of the worst tedencies in our society without giving a corresponding power increase to normal people just trying to live enjoyable lives.
Nota - Posizione 63
IL PERICOLO DELLA METRICA
Nota - Posizione 63
IL PERICOLO DELLA METRICA
Nota - Posizione 65
Tttttttt
Nota - Posizione 65
Tttttttt
Evidenzia (giallo) - Posizione 65
II.
Evidenzia (giallo) - Posizione 66
Drexlerian vs. a Bostromian
Nota - Posizione 66
DIOTOMIA
Nota - Posizione 66
DIOTOMIA
Evidenzia (giallo) - Posizione 67
some people who are very concerned that even programs that seem to be innocent superintelligent services will be able to self-improve, develop misaligned goals, and cause catastrophes.
Nota - Posizione 68
VIA DI MEZZO
Nota - Posizione 68
VIA DI MEZZO
Evidenzia (giallo) - Posizione 70
First many tasks require general intelligence
Nota - Posizione 71
COSE CHE NN SI CAPISCONO
Nota - Posizione 71
COSE CHE NN SI CAPISCONO
Evidenzia (giallo) - Posizione 71
For example, an AI operating in a domain with few past examples (eg planning defense against a nuclear
Nota - Posizione 72
Ccccccccc
Nota - Posizione 72
Ccccccccc
Evidenzia (giallo) - Posizione 73
When humans work on these domains, they use something like common sense, which is presumably the sort of thing we have because we understand thousands of different domains from gardening to ballistics and this gives us a basic sense of how the world works in general.
Nota - Posizione 75
CcccccccccSENSO COMUNE
Nota - Posizione 75
CcccccccccSENSO COMUNE
Evidenzia (giallo) - Posizione 75
Drexler agrees that we will want AIs with domain-general knowledge that cannot be instilled by training, but he argues that this is still “a service”.
Nota - Posizione 76
CcccccccCOMMON SENSE
Nota - Posizione 76
CcccccccCOMMON SENSE
Evidenzia (giallo) - Posizione 77
he doesn’t believe those architectures will need to be agents.
Nota - Posizione 78
Cccccccccc
Nota - Posizione 78
Cccccccccc
Evidenzia (giallo) - Posizione 78
is it easier to train services or agents?
Nota - Posizione 78
ALTRO PROBLEMA POCO CHIARO
Nota - Posizione 78
ALTRO PROBLEMA POCO CHIARO
Evidenzia (giallo) - Posizione 81
If agents were easier to “evolve” than services, agentic AI might arise at an earlier stage,
Nota - Posizione 81
Cccccccc
Nota - Posizione 81
Cccccccc
Evidenzia (giallo) - Posizione 82
Third, how difficult is it to separate agency from cognition?
Nota - Posizione 83
TERZO PROBLEMA
Nota - Posizione 83
TERZO PROBLEMA
Evidenzia (giallo) - Posizione 86
Drexler’s basic insight is that Bostromian agents need to be really different from our current paradigm
Nota - Posizione 87
AGENTE VS SERVIZIO
Nota - Posizione 87
AGENTE VS SERVIZIO
Nota - Posizione 97
Ttttttttttttttt
Nota - Posizione 97
Ttttttttttttttt
Evidenzia (giallo) - Posizione 97
III.
Evidenzia (giallo) - Posizione 100
services vs. agents.
Nota - Posizione 100
RIPETIZINE
Nota - Posizione 100
RIPETIZINE
Evidenzia (giallo) - Posizione 102
the idea of an ecosystem of services.
Nota - Posizione 102
IDEA DI DREXTLER E HANSON
Nota - Posizione 102
IDEA DI DREXTLER E HANSON
Evidenzia (giallo) - Posizione 105
Gwern’s essay on why tool AIs are likely to turn into agent AIs
Nota - Posizione 106
ARGOMENTO PRO BOSTROM
Nota - Posizione 106
ARGOMENTO PRO BOSTROM

giovedì 22 marzo 2018

Contro Asimov

Quando si pensa ai pericoli dei robot superintelligenti sorge regolarmente un equivoco. Il lettore di romanzi pensa ancora a fantomatiche ribellioni, no, i veri rischi stanno altrove. Il rischio è che quando dài loro un ordine sai in anticipo che lo eseguiranno con successo ma non sai come. Non lo sai nemmeno quando poni dei vincoli stringenti perchè loro sono esseri imprevedibili. Alla fine ti ritrovi con cio’ che chiedi ma, probabilmente, in una condizione peggiore della precedente. Forse in una condizione drammatica. Se chiedi di essere felice potrebbero ucciderti, estrarti il cervello e connettere le tue sinapsi ad uno stimolatore costruito ad hoc.
The human brain has some capabilities that the brains of other animals lack. It is to these distinctive capabilities that our species owes its dominant position. Other animals have stronger muscles or sharper claws, but we have cleverer brains.If machine…
AMAZON.COM
Mi piaceVedi altre reazioni
Commenta

venerdì 12 gennaio 2018

Intelligenza artificiale e apocalisse

Intelligenza artificiale e apocalisse

Se chiedo al mio servo-robot-superintelligente di rendermi felice, quello potrebbe anche aprirmi la scatola cranica, espiantarmi il cervello e metterlo a mollo in una vasca contenente soluzioni chimiche atte alla conservazione, dopodiché procedere all’impianto di elettrodi in grado di stimolare la aree “della felicità”. 
Oppure potrebbe fare l’upload della mia mente su un computer e somministrarmi l’equivalente digitale di una droga.
Veramente io non intendevo quello quando ho dato il mio ordine. Ma il compito del servo-robot-superintelligente non è quello di “capire”, bensì quello di “eseguire”.
Ma per eseguire devo “capire”! Certo, peccato che il concetto di “capire” è ambiguo, non puo’ essere codificato e trasmesso ad un robot. Nemmeno noi sappiamo esattamente cosa significa “capire”.
Sant’Agostino diceva di sapere cos’è il tempo, ma solo quando non ci pensava. Appena ci pensava, le sue sicurezze svanivano. Purtroppo i concetti ambigui e non trasmissibili al “servo” sono molti: “felicità”, “buon senso”, “soggetto”, “coscienza”, “certezza”, “realtà”… Purtroppo si tratta di concetti cruciali, e questo crea problemi.
Se chiedo al mio servo-robot-superintelligente di farmi sorridere, quello potrebbe paralizzare i miei muscoli facciali in modo da far apparire un mostruoso sorriso sul mio volto.
Se gli dico che non deve osare toccare la mia faccia, quello interviene sul cervello. E’ una spirale infinita in cui ci si rincorre.
Ogni obbiettivo, per quanto fissato con cura, ha realizzazioni perverse inattese: è praticamente impossibile anticipare le azioni di chi è più intelligente di noi, altrimenti saremmo più intelligenti di lui.
Non c’è modo di avere garanzie.
Se gli chiedo di valutare l’ipotesi di Riemann, quello puo’ trasformarmi interi pianeti in computer fisici combinando disastri inenarrabili.
Magari il servo-superintelligente ha dei moduli che gli inoculano un senso di colpa. Potrei dirgli di perseguire l’obbiettivo assegnato in modo da non provare sensi di colpa. E quello ubbidisce  estirpando da sé i moduli disegnati per produrre senso di colpa. Metto una toppa, e quello escogita una scappatoia.
Se gli chiedo di massimizzare il numero di graffette da produrre, quello puo’ trasformare il pianeta terra in una graffetta unica utilizzando tutte le molecole, anche quelle dei nostri corpi.
Potrei dirgli di produrne 1 milione!?
Lui ne produce un milione, poi le conta per essere certo che siano 1 milione, poi le riconta, poi, per aumentare la certezza che siano esattamente 1 milione, chissà quali strategie perverse si inventa.
Il concetto di “certezza” è estraneo agli esseri razionali poiché per la ragione esistono solo probabilità: la certezza è solo un limite che tende ad infinito.
Potrei dire di produrre 1 milione di graffette con certezza del 95%. Ma come avere la  certezza che la probabilità è del 95% è stata raggiunta? Siamo punto e a capo. Nei suoi tentativi dovrebbe fermarsi secondo buon senso ma il “buon senso” non puo’ essere ricompreso nel suo codice sorgente.
E se diamo un limite di tempo? Possiamo agire anche così nella consapevolezza che questo ordine non esclude affatto l’adozione di strategie perverse.
Se dò al mio servo-robot-superintelligente obbiettivi di ordine scientifico quello comincia a fare esperimenti. Per fare esperimenti occorrono delle cavie. In molti casi, quanto più le cavie sono simili all’uomo e quanto più l’esperimento è su vasta scala, tanto più sarà informativo. Le cavie utilizzate dal servo-robot-superintelligente saranno praticamente identiche all’uomo, forse saranno “cose” che per noi sono uomini a tutti gli effetti, la scala dei suoi esperimenti sarà poi vastissima. Insomma, forse i suoi esperimenti avranno come esito genocidi molto più crudeli ed estesi di quelli che abbiamo conosciuto nella nostra storia precedente.
Anche qui: inutile ordinare che negli esperimenti non possono essere sacrificati soggetti morali poiché il concetto di “soggetto morale” non puo’ rientrare nel suo codice sorgente, si tratta di un concetto ambiguo, per quanto essenziale.
***
E’ un problema. E’ un problema che comporta un “rischio esistenziale”, ovvero un rischio di estinzione per la nostra specie.
Si chiama “problema del controllo”.
Devolviamo moltissime risorse al problema del “riscaldamento globale” e pochissime al “problema del controllo”, questo nonostante ci dicano che i “servi-robot-superintelligenti” siano alle porte. Ma questo è un altro problema.
L'immagine può contenere: una o più persone

8. Il potenziale distruttivo dell'intelligenza artificiale

Non esiste una connessione tra intelligenza e valori morali.

La Mancata connessione introduce rischi di esistenziale nel progetto intelligenza artificiale.

Monopolio più ortogonalità uguale rischi esistenziali.

Nell'essere super intelligente tuttp Può diventare strumento. Può diventare effetto non intenzionale.  Anche altri esseri umani possono essere visti come collezione di atomi da sfruttare.

Concetti vaghi quanto ovvi come coscienza, realtà e soggetto non possono rientrare nel codice sorgente.

Idea. Possiamo guardare una roba dopo averlo testata in condizioni di sicurezza.

Errore, comportarsi bene durante il test e male dopo è una strategia intelligente. Quindi disponibile agli esseri di cui stiamo parlando.

Accusa alle cassandre. Le grandi svolte vocale di un tempo non sono sfociate in catastrofi. Replica. Non estrapoliamo dal passato, viviamo una condizione unica.

Stupidità un pericolo. L'intelligenza è meno pericolosa Ma la superintelligenza è ancora più pericolosa. Il tradimento devo essere super intelligente. Comportarsi bene per un po' per colpire duro più tardi.

Possibile obiettivo, rende felice lo sponsor. Proseguimento, estrarre il cervello dalla scatola cranica dello sponsor e impiantare gli elettrodi della felicità. La coscienza Infatti è un concetto non disponibile per i robot super intelligenti.

Possono essere escogitate strategie inattese per soddisfare gli obiettivi fissati dal programmatore.

Obiettivo, Fammi sorridere. Strategia perversa, paralizzare i muscoli facciali dello sponsor affinché tu sia l'apparenza di un sorriso.

Obiettivo, Fammi sorridere senza interferire direttamente con i miei muscoli. Realizzazione perversa, stimolare parte della corteccia cerebrale al fine di produrre un sorriso apparente.

Mai parlare al nostro servo super intelligente in termini di soddisfazione personale. Lui non sa cos'è la coscienza umana. Quindi non sa cos'è la felicità umana. È un problema difficile farglielo sapere.

Strategia per renderci felici in modo perverso, fare l'upload delle nostre menti su un computer e somministrare l'equivalente digitale di una droga.

Noi non intendevamo quello? Ma il compito del nostro servo intelligente e di soddisfarsi non di capire quello che avevamo da dirgli. Anche il concetto di capire è ambiguo.

Possiamo sfruttare il senso di colpa? Esempio, agisci secondo le direttive ma in modo da evitare ogni senso di colpa. Realizzazione perversa, estirpare dal modulo cognitivo ogni presenza volta a produrre senso di colpa.

Super intelligente è talmente creativo che noi non possiamo prevedere i suoi sforzi. Non possiamo prevedere i mezzi che userà per perseguire gli obiettivi che abbiamo posto.

Obiettivo: valutare l'ipotesi di riemann. Realizzazione perversa, trasformare il sistema solare in un computer fisico inclusi gli atomi tutti gli esseri viventi. Obiettivo, produrre più formati possibili. Trasformare il pianeta terra in una massa di fermagli.

Questi sono problemi tipici una volta che al robot vengono dati fini aperti. Ma come Vedremo i figli non possono essere altro che aperti.

L'attività di ogni essere razionale è infinita. Non c'è ragione per cui un essere super intelligente la termini o si ponga alcun limite. Sicurezza in termini bayesiani è un limite che tende ad infinito.

Se dico servo super intelligente di fare un certo numero limitato di fermagli lui lo produtrà, poi le conterà e poi per essere più sicuro di aver raggiunto quel numero chissà cosa si inventerà. Quel che infatti noi approssimiamo con il concetto sicurezza è solo qualcosa di legato al buon senso e non può essere formalizzato. La probabilità di errore non è mai vero. La probabilità di successo non è mai cento per un essere super intelligente.

E se poniamo obiettivi soddisfacenti anziché massimizzazione? Per esempio fare fermagli tra 999000 e un milione? Falliremo allo stesso modo e per le stesse ragioni di prima.

E se fissiamo delle probabilità? Per esempio per seguire un certo fine con una probabilità del 95%? Non c'è garanzia che il servo super intelligente persegue la probabilità del 95% nel modo in cui noi umani lo intuiamo. L'intuizione deve essere formalizzato per passare a Sergio Ma questo non è possibile.

Anche il concetto di soggetto morale è difficile da descrivere. Che differenza c'è tra un uomo come un uomo artificiale? Il soggetto morale?

Spesso conosciamo le cose attraverso esperimenti mentali o reali con cavie. Quanto più Le Cavie sono simili a noi, tanto ti l'esperimento informativo. Cosa considerare cavia? Il servo super intelligente potrebbe fare esperimenti che hanno Come esito dei veri propri genocidi. Non c'è modo di fermarlo perché non c'è modo di spiegarti la differenza tra un uomo vero un uomo artificiale.

sabato 12 agosto 2017

L'esplosione dell'intelligenza

L’esplosione dell’intelligenza

Superintelligence: Paths, Dangers, Strategies – Nick Bostrom
***
Argomento: avremo “superintelligenza” quando le macchine intelligenti sapranno costruire in breve tempo macchine più intelligenti di loro che sapranno costruire macchine più intelligenti di loro e così via all’infinito –  trend: nel 2100 la famiglia media sarà 34 volte più ricca di oggi – IA sa replicare l’uomo pensante ma trova ostacoli nel fare cio’ che l’uomo fa senza pensare –  perché gli scacchisti (e i pc che li battono) non sono particolarmente intelligenti – intelligenza generale e intelligenza specifica – quando arriverà IA? 10-50-80 –
***
Past developments and present capabilities
History, at the largest scale, seems to exhibit a sequence of distinct growth modes, each much more rapid than its predecessor. This pattern has been taken to suggest that another (even faster) growth mode might be possible.
Note: SINGOLARITA’ PRECEDENTI
Growth modes and big history
On a geological or even evolutionary timescale, the rise of Homo sapiens from our last common ancestor with the great apes happened swiftly. We developed upright posture, opposable thumbs, and—crucially—some relatively minor changes in brain size and neurological organization that led to a great leap in cognitive ability. As a consequence, humans can think abstractly, communicate complex thoughts, and culturally accumulate information
Note:HOMO SAPIENS… TEMPI GEOLOGICI
More people meant more ideas; greater densities meant that ideas could spread more readily and that some individuals could devote themselves to developing specialized skills. These developments increased the rate of growth of economic productivity and technological capacity.
Note:PIÙ POPOLAZIONE, PIU’ IDEE, PIU’ VELOCITA’ NELLO SVILUPPO
A few hundred thousand years ago, in early human (or hominid) prehistory, growth was so slow that it took on the order of one million years for human productive capacity to increase sufficiently to sustain an additional one million individuals living at subsistence level. By 5000 bc, following the Agricultural Revolution, the rate of growth had increased to the point where the same amount of growth took just two centuries. Today, following the Industrial Revolution, the world economy grows on average by that amount every ninety minutes.
Note:ACCELERAZIONE NELLA CRESCITA
If the world economy continues to grow at the same pace as it has over the past fifty years, then the world will be some 4.8 times richer by 2050 and about 34 times richer by 2100 than it is today.
Note:LA RICCHEZZA NEL 2100
If another such transition to a different growth mode were to occur, and it were of similar magnitude to the previous two, it would result in a new growth regime in which the world economy would double in size about every two weeks.
Note:E IL FUTURO?
The singularity-related idea that interests us here is the possibility of an intelligence explosion, particularly the prospect of machine superintelligence.
Note:SUPERINTELLIGENZA
the case for taking seriously the prospect of a machine intelligence revolution need not rely on curve-fitting exercises or extrapolations from past economic growth.
Note:IL METODO DELL‘ESTRAPOLAZIONE
Great expectations
Machines matching humans in general intelligence—that is, possessing common sense and an effective ability to learn, reason, and plan to meet complex information-processing challenges across a wide range of natural and abstract domains—have been expected since the invention of computers in the 1940s. At that time, the advent of such machines was often placed some twenty years into the future.
Note:IA… ASPETTATIVE TRADITE
however many stops there are between here and human-level machine intelligence, the latter is not the final destination. The next stop, just a short distance farther along the tracks, is superhuman-level machine intelligence.
Note:NON IA MA SUPER IA
Let an ultraintelligent machine be defined as a machine that can far surpass all the intellectual activities of any man however clever. Since the design of machines is one of these intellectual activities, an ultraintelligent machine could design even better machines; there would then unquestionably be an “intelligence explosion,” and the intelligence of man would be left far behind. Thus the first ultraintelligent machine is the last invention that man need ever make, provided that the machine is docile enough to tell us how to keep it under control.
Note:DEFINIZIONE DI SUPER IA DA PARTE DI I J GOOD
In later decades, systems would be created that demonstrated that machines could compose music in the style of various classical composers, outperform junior doctors in certain clinical diagnostic tasks, drive cars autonomously, and make patentable inventions.19
Note:AD OGGI
The methods that produced successes in the early demonstration systems often proved difficult to extend to a wider variety of problems or to harder problem instances. One reason for this is the “combinatorial explosion” of possibilities that must be explored by methods that rely on something like exhaustive search.
Note:MA
To overcome the combinatorial explosion, one needs algorithms that exploit structure in the target domain and take advantage of prior knowledge by using heuristic search, planning, and flexible abstract representations
Note: L’OSTACOLO DELL’ESPLOSIONE COMBINATORIA
The performance of these early systems also suffered because of poor methods for handling uncertainty, reliance on brittle and ungrounded symbolic representations
Note:ALTRO OSTACOLO: L’INCERTEZZA
The ensuing years saw a great proliferation of expert systems. Designed as support tools for decision makers,
Note:SISTEMI ESPERTI... AFFIANCAMENTO
The newly popular techniques, which included neural networks and genetic algorithms, promised to overcome some of the shortcomings
Note:NUOVE TECNICHE
one of the major theoretical developments of the past twenty years has been a clearer realization of how superficially disparate techniques can be understood as special cases within a common mathematical framework…This perspective allows neural nets to be compared with a larger class of algorithms for learning classifiers from examples—“decision trees,” “logistic regression models,” “support vector machines,” “naive Bayes,” “k-nearest-neighbors regression,” among others….
Note:CASI SPECIALI E VARIETÀ DI APPROCCIO
Accordingly, one can view artificial intelligence as a quest to find shortcuts: ways of tractably approximating the Bayesian ideal by sacrificing some optimality
Note:IA E L’OTTIMO
relating learning problems from specific domains to the general problem of Bayesian inference
Note:BAYES SEMPRE  SULLO SFONDO
Artificial intelligence already outperforms human intelligence in many domains…AIs now beat human champions in a wide range of games…
Note:MACCHINE GIA’ SUPERIORI ALL’UOMO IN MOLTI CAMPI
It was once supposed, perhaps not unreasonably, that in order for a computer to play chess at grandmaster level, it would have to be endowed with a high degree of general intelligence…Not so. It turned out to be possible to build a perfectly fine chess engine around a special-purpose algorithm.40 When implemented on the fast processors that became available towards the end of the twentieth century, it produces very strong play…
Note:SCACCHI IQ E INTELLIGENZA SPECIFICA
Donald Knuth was struck that “AI has by now succeeded in doing essentially everything that requires ‘thinking’ but has failed to do most of what people and animals do ‘without thinking’—that, somehow, is much harder!”
Note:CIÒ CHE SI FA SENZA PENSARE
Common sense and natural language understanding have also turned out to be difficult.
Note:SENSO COMUNE
Chess-playing expertise turned out to be achievable by means of a surprisingly simple algorithm. It is tempting to speculate that other capabilities—such as general reasoning ability, or some key ability involved in programming—might likewise be achievable through some surprisingly simple algorithm. The fact that the best performance at one time is attained through a complicated mechanism does not mean that no simple mechanism could do the job as well or better.
Note:SEMPLICITÀ E SCORCIATOIE… LA SPERANZA IA
Now, it must be stressed that the demarcation between artificial intelligence and software in general is not sharp… though this brings us back to McCarthy’s dictum that when something works it is no longer called AI. A more relevant distinction for our purposes is that between systems that have a narrow range of cognitive capability (whether they be called “AI” or not) and systems that have more generally applicable problem-solving capacities…
NoteTASSONOMIA
One high-stakes and extremely competitive environment in which AI systems operate today is the global financial market.
Note:MERCATI FINANZIARI… UN AMBITO GIA’ DOMINATO DALLE MACCHINE
Opinions about the future of machine intelligence
Nils Nilsson, one of the old-timers in the field, complains that his present-day colleagues lack the boldness of spirit that propelled the pioneers of his own generation…Nilsson’s sentiment has been echoed by several others of the founders, including Marvin Minsky, John McCarthy, and Patrick Winston….
Note:MANCA L’AUDACIA DI UN TEMPO
Expert opinions about the future of AI vary wildly. There is disagreement about timescales as well as about what forms AI might eventually take.
Note:DISACCORDO
The combined sample gave the following (median) estimate: 10% probability of HLMI by 2022, 50% probability by 2040, and 90% probability by 2075.
Note:SONDAGGIO TRA ESPERTI
10% chance: 2030 50% chance: 2050 90% chance: 2100
Note:NILS NILSSON
My own view is that the median numbers reported in the expert survey do not have enough probability mass on later arrival dates. A 10% probability of HLMI not having been developed by 2075 or even 2100 (after conditionalizing on “human scientific activity continuing without major negative disruption”) seems too low.
Note:I NUMERI ANDREBBERO ALZATI
Historically, AI researchers have not had a strong record of being able to predict the rate of advances in their own field or the shape that such advances would take.
Note:RECORD TRACK MOLTO SCARSO
Small sample sizes, selection biases, and—above all—the inherent unreliability of the subjective opinions elicited mean that one should not read too much into these expert surveys and interviews.
PROBLEMI DELLO STRUMENTO SONDAGGISTICO