Visualizzazione post con etichetta bayesiani. Mostra tutti i post
Visualizzazione post con etichetta bayesiani. Mostra tutti i post

giovedì 3 maggio 2018

BAYES VS REGRESSIONI

RRiccardo Mariani
Adesso


BAYES VS REGRESSIONI


La differenza si vede nei metodi di programmazione, nel caso si utilizzi la regressione basterà inserire la funzione teorica ricavata nel software in forma di algoritmo, nel caso si utilizzi Bayes bisogna ricorrere ad un algoritmo che si aggiorni continuamente sulla base dei successi e degli insuccessi pratici che si riscontrano. La regressione fornisce soluzioni purché stiano su una funzione lineare (a volte una retta), l'algoritmo bayesiano non ha questo vincolo, valorizza ogni dato che incontra (tutto c'entra con tutto) e si rende disponibile grazie alla potenza di calcolo delle nuove macchine.

AMAZON.COM
"What does AI mean for your business? Read this book to find out." -- Hal Varian, Chief Economist, GoogleArtificial intelligence does the seemingly impossible, magically bringing machines to life--driving cars, trading stocks, and teaching children. But facing the sea change that AI wil...
iccardo Mariani
Adesso

BAYES VS REGRESSIONI
La differenza si vede nei metodi di programmazione, nel caso si utilizzi la regressione basterà inserire la funzione teorica ricavata nel software in forma di algoritmo, nel caso si utilizzi Bayes bisogna ricorrere ad un algoritmo che si aggiorni continuamente sulla base dei successi e degli insuccessi pratici che si riscontrano.

AMAZON.COM
"What does AI mean for your business? Read this book to find out." -- Hal Varian, Chief Economist, GoogleArtificial intelligence does the seemingly impossible, magically bringing machines to life--driving cars, trading stocks, and teaching children. But facing the sea change that AI wil...

lunedì 26 febbraio 2018

UN'IDEA DI RAGIONE

UN'IDEA DI RAGIONE

Difficile dire cosa sia la ragione, un corposo indizio lo dà però questa idea: l'uomo razionale pensa in termini di probabilità, gli altri in termini di certezza/incertezza.
#Amazon

Why anti-lock brakes make us drive faster Why saving money can lead to financial crisesHow football helmets make the game more dangerousWhy letting forest fires burn can be safer than putting them outWe have learned a staggering amount…
AMAZON.COM

lunedì 30 ottobre 2017

“Uno studio dice che…”

“Uno studio dice che…”

“Uno studio dice che…”.
Quando un interlocutore esordisce con questa formula, sulla discussione prima così animata e dallo sbocco incerto, cala il gelo: la “scienza” fa il suo ingresso in scena e non ammette repliche.
Ma cosa c’è dietro questa espressione che incute tanto timore?
Semplice: qualcuno da qualche parte ha raccolto dei dati e verificato con  strumenti statistici  che il fenomeno A è collegato al il fenomeno B.
Per esempio: il cancro al polmone è collegato al fumo.
Oppure: la diffusione delle armi da fuoco è collegata a una diminuzione dei crimini.
Oppure: la fede religiosa è collegata al benessere psico-fisico della persona.
Oppure: che un’esecuzione capitale risparmia la vita a 15 innocenti.
Eccetera.
Naturalmente, se “lo dice uno studio scientifico” significa che il collegamento  appare tutt’altro che casuale,  tant’è vero che supera i rigorosi esami statistici del caso.
In genere si usa dire che il legame è “statisticamente significativo“.
Poi, il ricercatore, fiero di quanto ha scovato, consegna la notizia ai giornalisti che confezionano un articolo a regola d’arte con titolo a carattericubitali “A è collegato a B”.
Eppure c’è qualcosa che non va in tutto questo, un’analogia ci può aiutare a capire. Vediamola..
***
Ammettiamo che presi da scrupolo vi sottoponiate ad un esame clinico per verificare se siete affetti datumore al colon.
Fortunatamente, esiste un esame affidabile che può dare una risposta alle vostre ansie, il margine di errore è limitato al 5% dei casi.
Si noti che ho scelto questo margine perché  è anche il limite massimo che tollerano i test statistici di cui parlavo prima.
Ebbene, l’esame dice che voi siete malato. Mi dispiace ma è così.
Si noti che dire “sei malato” nella nostra analogia è  un po’ come dire che “A è collegato a B”.
La depressione che vi coglie è il correlato dellostupore tipico dei lettori che leggono il giornale su cui si dà l’annuncio della scoperta scientifica.
Ma cosa rappresenta veramente questa piccola probabilità del 5%?
Nel test clinico  rappresenta la probabilità di errore, ovvero la probabilità che una persona sana venga dichiarata malata.
Ma a voi questa probabilità cosa interessa? A voi interessa la probabilità di essere malati!
Così come a chi legge l’articolo sul giornale interessa più che altro la probabilità che tra A e B esista veramente il legame di cui si parla.
probabilmente le due probabilità sono collegate ma puo’ anche esservi una differenza apprezzabile. Come fate allora a calcolare la probabilità che più vi preme?
Bisogna conoscere altri dati. Per esempio, ammettiamo che su una popolazione di 10.000 anime esistano mediamente 5 casi di cancro al colon. Il “test affidabile” sarà stato in grado di isolarli, ma insieme a quei 5  avrà selezionato altri500 “falsi positivi“. Parlavamo Infatti è di un errore del 5%.
Ebbene, se siete tra coloro che il test ha dichiarato “malati” potete stare abbastanza tranquilli, la probabilità di essere sani resta comunque pari al 99% circa, non male!
C’è una bella differenza tra 5% e 99%!
Così come voi potete stare tranquilli anche i lettori del giornale farebbero bene a non sopravvalutarela notizia del collegamento tra A e B.
Sì badi bene che in questa storia nessuno ha mentito: c’era un test affidabile, c’erano esiti chiari e c’erano ricercatori seri. Nemmeno nell’articolo di giornale  ha mentito, anche se avrebbe fatto meglio a non pubblicare un articolo per così poco.  L’ “effetto bufala” è dovuto esclusivamente al fatto che conosciamo poco  la statistica.
L’ “effetto bufala” fa più danni di qualsiasi fake news.
L’effetto bufala deriva da una confusione.
A noi interessa conoscere la probabilità di essere malati  e tendiamo a credere che questa informazione sia sostituibile con l’esito di un test clinico affidabile. Confondere le due cose ci frega, lo abbiamo visto chiaramente ricorrendo all’analogia medica.
La confusione ci getta nel panico non appena prendiamo atto che l’esito di un test medico rigoroso  risulta  positivo. Ma presto scopriamo che questo panico non ha ragione d’essere poiché anche con un test positivo la vostra probabilità di essere sani resta del 99%!
Allo stesso modo, chi legge nella pagina scientifica l’ articolo di giornale rimane impressionato da come il collegamento tra A e B sia confermato da uno studio rigoroso. Ma non c’è ragione di restare particolarmente impressionanti e cambiare le proprie idee poiché ben poco sappiamo sulla reale probabilità che A e B siano realmente collegati. Parlando di questa “sporca” faccenda uno studioso di vaglia ha pubblicato un articolo ormai famoso con il titolo sintomatico: “Why Most Published Research Findings Are False“.
Noi tendiamo a pensare che la conoscenza fornitaci da un buon test statistico sia sostitutiva anzichéaggiuntiva della conoscenza precedente. Non è così, la conoscenza a priori continua a valere e a pesare, riceve solo un aggiornamento. Non rendersene conto crea distorsioni cognitive.
Ma cos’è concretamente la cosiddetta conoscenza a priori?
Dipende da caso a caso ma in generale possiamo dire che la conoscenza a priori per antonomasia è la conoscenza intuitiva ovvero il buon senso.
Se il buon senso e alla base della nostra conoscenza non rischiamo una deriva soggettivista? Non  dobbiamo meravigliarci se una componente soggettivista preme alle porte: la statistica si fonda sulla probabilità e la probabilità ha un fondamento  soggettivo.
STUDIO
Che fare?
La cosa migliore sarebbe quella di ripetere il test, e poi di ripeterlo ancora.
Inutile dire che nel caso degli “studi scientifici” mancano i fondi per condurre più volte lo stesso esperimento su vasta scala. Eppure, replicare i vecchi studi sarebbe scientificamente più proficuo che produrre l’ennesimo studio dall’esito “statisticamente significativo” ma concretamente incerto.
P.S. In realtà esiste un programma scientifico direplicazione degli studi pubblicati sulle riviste più prestigiose e come prevedibile raramente è riuscito a ripetere i risultati degli studi originali presi in considerazione. Curiosità: a quanto pare la psicologia fa molto peggio dell’economia.

mercoledì 22 febbraio 2017

Neoilluminismo bayesiano

Il teorema del Reverendo Thomas Bayes è alla base del Manifesto per un nuovo Illuminismo.
***
Il teorema di Bayes, di per sé, è solo un'equazione.
Ma è anche un modo di ragionare.
In realtà, probabilmente, è l'unico modo corretto di ragionare. E uso quel "probabilmente" proprio per attenermi ai dettami bayesiani.
Per conseguenza, il teorema di Bayes è anche una descrizione indiretta della razionalità umana.
La scienza, tanto per dire, è un caso particolare del teorema di Bayes. La filosofia un altro, la teologia un altro… Dove c'è la "ragione", c'è Bayes.
Per tutti questi motivi è buona cosa capire cosa dice il teorema, e il miglior modo per farlo è di meditare la guida di Elizer Yudkowsky: "An Intuitive Explanation of Bayes".
***
Ma perché le persone si entusiasmano tanto per il teorema di Bayes? Perchè esiste una loggia di bayesiani-duri? Perché circolano t-shirt con il teorema stampato sopra? Perché si ritiene che il reverendo Bayes abbia spiegato il segreto dell'universo? Perché l’equazione di Bayes ha superato in popolarità quella di Einstein? Come può un semplice concetto matematico generare tanto entusiasmo?
Tra poco lo saprete e potrete unirvi al gruppo.
Per ora anticiperei così: Bayes descrive la nostra ragione nel modo più completo e più sintetico allo stesso tempo. E la ragione è forse la cosa più importante che possediamo, specie quando è unita al cuore (come nella formula di Bayes).
Il teorema  è piuttosto semplice da descrivere ma non altrettanto da capire. Magari, sì, uno lo capisce in teoria ma non in pratica... Magari mescola un po' le cose facendo un minestrone che dà la sensazione di aver capito. E anche se uno lo capisce, trascuratolo per qualche mese, deve correre a ripassarselo.
Il teorema è controintuitivo, un po' come la meccanica quantistica, solo che, diversamente dalla meccanica quantistica (per tutti noi una mera curiosità), trova applicazione tutti i giorni.
Il suo essere controintuitivo lo rende importante: se fosse già incorporato nel nostro cervello sarebbe solo un meccanismo che già utilizziamo e che ci viene esposto con dovizia di particolari. Non è così: quando uno scopre Bayes, è solo da quel momento che inizia ad utilizzarlo (ovvero a ragionare correttamente).
***
Chiedo umilmente perdono per questa sezione, l’unica dove compare qualche simbolo, ma si tratta di passaggi semplici comprensibili a chi ha fatto la scuola dell’obbligo (ed è interessato all’argomento del neoilluminismo).
Nel mondo bayesiano tutto è probabilità.
Ad ogni evento (A, B...) è associata una probabilità: pA, pB,...
Particolarmente importanti sono le probabilità degli eventi che si verificano contemporaneamente (A&B).
La probabilità che due eventi si verifichino contemporanamente è il prodotto delle probabilità che ciascun evento si verifichi. Diciamo che p(A&B)=pA*pB. Perché? E’ una comodità.
Pensate solo di lanciare in aria una moneta: la probabilità di fare testa è di 1/2. Se ne lanciate due, la probabilità di fare contemporaneamente due "teste" è 0.5*0.5=0.25. Quadra?
Ma c'è un altro modo per esprimere la contemporaneità di due eventi.
Vediamola: p(A&B)=p(A<=B)*pB, dove la freccetta significa “implica”. Il concetto è semplice: se si Verifica B e (contemporaneamente) quel B implica A, allora B e A si verificano contemporaneamente.
Che poi equivale a scrivere p(A&B)=p(B<=A)*pA. Tradotto se si Verifica A e (contemporaneamente) quell’ A implica B, allora B e A si verificano contemporaneamente.
Se le tre esperessioni sono equivalenti, posso procedere alle opportune sostituzioni che mi consentono di formulare il teorema di Bayes: p(A<=B)=p(B<=A)*(pA/pB). Finito. Semplice!
Ma così facendo abbiamo formalizzato la relazione "implica", ovvero la relazione più importante per chi fa logica, scienza, filosofia, teologia, economia, diritto...e in generale per tutta la gente che ragiona. Non solo: la formulazione ottenuta è sorprendente, chi l'avrebbe creduto? Ma vediamo meglio perché è sorprendente e controintuitiva. Vediamo perché ci chiede di cambiare il nostro modo di ragionare.
***
Vediamolo meglio con una storiella che è anche un indovinello...
... 1% of women at age forty who participate in routine screening have breast cancer. 80% of women with breast cancer will get positive mammographies. 9.6% of women without breast cancer will also get positive mammographies. A woman in this age group had a positive mammography in a routine screening. What is the probability that she actually has breast cancer?...
Insomma, l'1% delle donne che fanno lo screening è malata di cancro.
Se avete il cancro il test ve lo dice nell'80% dei casi.
Se non avete il cancro il test dice che lo avete nel 9.6% dei casi.
Il test ora dice che avete il cancro. Qual è la probabilità di essere effettivamente malati?
dottori, ovvero gli specialisti in materia, rispondono regolarmente in modo errato terrorizzando le donne quando non ce n'è bisogno. Ma anche molti di noi sbagliano (specie se il problema viene introdotto causalmente senza la mega-premessa che ho fatto io e che ovviamente mette in allarme il solutore).
Cosa significa questo? Significa che non siamo dei bayesiani naturali.
Con Bayes tutto diventa semplice perché conosciamo come calcolare p(A<=B). Basta porre A=essere malati e B=esito positivo del test, e calcolare la probabilità corretta dell'implicazione applicando la formula. Tutti i dati sono disponibili.
Solo il 15% dei dottori c'azzecca. E non si tratta di un numero sparato lì a spanne...
... See Casscells, Schoenberger, and Grayboys 1978; Eddy 1982; Gigerenzer and Hoffrage 1995...
È una percentuale facile da replicare (e infatti è stata replicata più volte).
La maggioranza dei dottori spara percentuali a vanvera tra il 70% e l' 80% :-)
Di fronte ad una formulazione alternativa del medesimo problema, fanno un po' meglio...
... 10 out of 1000 women at age forty who participate in routine screening have breast cancer. 800 out of 1000 women with breast cancer will get positive mammographies. 96 out of 1000 women without breast cancer will also get positive mammographies. If 1000 women in this age group undergo a routine screening, about what fraction of women with positive mammographies will actually have breast cancer?...
Ma è la seguente versione che aiuta quasi metà dei dottori a cogliere il punto...
... 100 out of 10,000 women at age forty who participate in routine screening have breast cancer. 80 of every 100 women with breast cancer will get a positive mammography. 950 out of 9,900 women without breast cancer will also get a positive mammography. If 10,000 women in this age group undergo a routine screening, about what fraction of women with positive mammographies will actually have breast cancer?...
Per noi che conosciamo Bayes e la sua formula la risposta corretta è facile: 7.8%. Anche se la mammografia ci dice che abbiamo il cancro è quasi certo che non siamo malati.
Il ragionamento corretto da fare...
... Out of 10,000 women, 100 have breast cancer; 80 of those 100 have positive mammographies. From the same 10,000 women, 9,900 will not have breast cancer and of those 9,900 women, 950 will also get positive mammographies. This makes the total number of women with positive mammographies 950 + 80 or 1,030. Of those 1,030 women with positive mammographies, 80 will have cancer. Expressed as a proportion, this is 80/ 1,030 or 0.07767 or 7.8%....
Bisogna tenere a mente che ci sono 4 gruppi di persone: 1) sani con esito negativo 2) sani con esito positivo 3) malati con esito positivo e 4) malati con esito negativo. È con queste grandezze che bisogna trafficare. Ci si dimentica che...
... If you administer a mammography to 10,000 patients, then out of the 1030 with positive mammographies, 80 of those positive-mammography patients will have cancer....
Solo 1 donna su 13 che ricevono l'infausto esito è realmente malata.
***
L'errore più comune che si commette affrontando il problemino ci fa capire l’importanza di Bayes...
... The most common mistake is to ignore the original fraction of women with breast cancer, and the fraction of women without breast cancer who receive false positives, and focus only on the fraction of women with breast cancer who get positive results. For example, the vast majority of doctors in these studies seem to have thought that if around 80% of women with breast cancer have positive mammographies, then the probability of a women with a positive mammography having breast cancer must be around 80%...
... dimenticare le probabilità di partenza: pA e pB. Si chiamano probabilità "a priori", e sono il cuore della faccenda.
Quando consideriamo l'implicazione tra due eventi dobbiamo pensare a tre dati: 1) probabilità del primo evento, 2) probabilità del secondo 3) probabilità dell’implicazione rovesciata tra i due eventi. Basta ricordarsi la formula di Bayes per avere i dati chiave del problema. Ebbene, due dati chiave sono probabilità apriori.
Il messaggio è chiaro: l'esito della mammografia non rimpiazza la nostra conoscenza a priori ma l'aggiorna. Per questo la conoscenza a priori è tanto importante e non cessa mai di esserlo.
Il sapere tradizionale non viene mai spazzato via ma solo aggiornato.
Nel nostro caso l'1%  viene aggiornato al 7,8%. Molti medici invece lo rimpiazzano con l'80% o qualcosa di simile, e questo solo perché l’esito della mammografia è attendibile all’ 80%.
Non colgono il fatto che ci sono due problemi differenti...
... "The probability that a woman with a positive mammography has breast cancer" is not at all the same thing as "the probability that a woman with breast cancer has a positive mammography"; they are as unlike as apples and cheese...
Risolvono quello meno interessante equivocando su quello cruciale.
***
Oltre ai falsi positivi pesano i falsi negativi. Lo capiamo da questa variazione sul tema...
... consider an alternate test, mammography +. Like the original test, mammography + returns positive for 80% of women with breast cancer. However, mammography + returns a positive result for only one out of a million women without breast cancer - mammography + has the same rate of false negatives, but a vastly lower rate of false positives. Suppose a patient receives a positive mammography +. What is the chance that this patient has breast cancer?...
La soluzione diventerebbe 99.98%. Leggermente diversa, dunque.
Naturalmente nella formula di Bayes i falsi negativi sono impliciti nella variabile p(B<=A): la probabilità che un malato abbia un test positivo, infatti, dipende infatti dai falsi negativi del test.
Se i falsi negativi e i falsi positivi si equivalgono la probabilità aggiornata equivale a quella da aggiornare. Diciamo che l'evento non aggiunge informazioni al nostro sapere.
***
Ma dove si reperiscono le probabilità a priori?
Non fate mai questa domanda.
Qualcuno risponde pudico: nei manuali di chimica e fisica.
Ma c'è una risposta più rigorosa: nei nostri cuori. Solo lì c’è la probabilità più “apriori” di tutte.
Si parte da lì, da un'intuizione soggettiva da aggiornare continuamente tramite la formula di Bayes ad ogni incontro con un fatto nuovo.
La razionalità ha insomma un fondamento soggettivo che ci deriva dalla nostra natura e dalla nostra esperienza pregressa.
Anche per questo tutti crediamo cose diverse: proveniamo da “posti” diversi senza essere necessariamente irrazionali.
Si è irrazionali solo se si rinuncia ad aggiornare le proprie credenze, solo se si rinuncia a farlo in modo corretto. Le persone razionali alla fine andranno necessariamente d’accordo.
***
Gigerenzer e Hoffrage sono stati i primi a scoprire che il framing dei problemi ci aiuta ad applicare Bayes.
Formulare il problema in termini di probabilistici (l' 1% delle donne) ci frega.
Formularlo con frequenze normalizzate (1 donna su 100) ci fa andare un po’ meglio.
Ma è con le frequenze naturali (1030 donne su 10000) che diamo il massimo. Forse la cosa ci aiuta a formare i 4 gruppi di persone di cui sopra....
... A natural frequencies presentation is one in which the information about the prior probability is included in presenting the conditional probabilities... When problems are presented in natural frequences, the proportion of people using Bayesian reasoning rises to around half...
***
Ma chi era il Reverendo Bayes, ovvero l'eroe di questa storia e il patrono del Neoilluminismo? Forse è giunto il momento di fare la sua conoscenza...
... The Reverend Thomas Bayes, by far the most enigmatic figure in mathematical history. Almost nothing is known of Bayes's life, and very few of his manuscripts survived. Thomas Bayes was born in 1701 or 1702 to Joshua Bayes and Ann Carpenter, and his date of death is listed as 1761. The exact date of Thomas Bayes's birth is not known for certain because Joshua Bayes, though a surprisingly wealthy man, was a member of an unusual, esoteric, and even heretical religious sect, the "Nonconformists". The Nonconformists kept their birth registers secret, supposedly from fear of religious discrimination; whatever the reason, no true record exists of Thomas Bayes's birth. Thomas Bayes was raised a Nonconformist and was soon promoted into the higher ranks of the Nonconformist theosophers, whence comes the "Reverend" in his name. In 1742 Bayes was elected a Fellow of the Royal Society of London, the most prestigious scientific body of its day, despite Bayes having published no scientific or mathematical works at that time. Bayes's nomination certificate was signed by sponsors including the President and the Secretary of the Society, making his election almost certain. Even today, however, it remains a mystery why such weighty names sponsored an unknown into the Royal Society. Bayes's sole publication during his known lifetime was allegedly a mystical book entitled Divine Benevolence, laying forth the original causation and ultimate purpose of the universe. The book is commonly attributed to Bayes, though it is said that no author appeared on the title page, and the entire work is sometimes considered to be of dubious provenance. Most mysterious of all, Bayes' Theorem itself appears in a Bayes manuscript presented to the Royal Society of London in 1764, three years after Bayes's supposed death in 1761! Despite the shocking circumstances of its presentation, Bayes' Theorem was soon forgotten, and was popularized within the scientific community only by the later efforts of the great mathematician Pierre-Simon Laplace. Laplace himself is almost as enigmatic as Bayes; we don't even know whether it was "Pierre" or "Simon" that was his actual first name. Laplace's papers are said to have contained a design for an AI capable of predicting all future events, the so-called "Laplacian superintelligence". While it is generally believed that Laplace never tried to implement his design, there remains the fact that Laplace presciently fled the guillotine that claimed many of his colleagues during the Reign of Terror. Even today, physicists sometimes attribute unusual effects to a "Laplacian Operator" intervening in their experiments. In summary, we do not know the real circumstances of Bayes's birth, the ultimate origins of Bayes' Theorem, Bayes's actual year of death, or even whether Bayes ever really died. Nonetheless "Reverend Thomas Bayes", whatever his true identity, has the greatest fondness and gratitude of Earth's scientific community...
***
Ma perché ci si entusiasma tanto per Bayes?
Cerchiamo di capirlo con un esperimento: facciamoci una domanda...
... Do you believe that a nuclear war will occur in the next 20 years? If no, why not?"...
Si può rispondere in tanti modi. Eccone un esempio...
... One EFNetter who answered replied "No" to the above question, but added that he believed biological warfare would wipe out "99.4%" of humanity within the next ten years. I then asked whether he believed 100% was a possibility. "No," he said. "Why not?", I asked. "Because I'm an optimist,"...
Oppure questa...
... Another person who answered the above question said that he didn't expect a nuclear war for 100 years, because "All of the players involved in decisions regarding nuclear war are not interested right now." "But why extend that out for 100 years?", I asked. "Pure hope," was his reply...
Non si può giustificare una risposta sulla base di una speranza o sulla base del proprio ottimismo. E’ irrazionale! Ora, con Bayes, possiamo dimostrarlo matematicamente...
... as we have earlier seen, when the two conditional probabilities are equal, the revised probability equals the prior probability...
Ammettiamo però che la risposta che tira in ballo ottimismo e speranza sia più sofisticata,  e in essa si  sostenga che l’ ottimismo abbia certe conseguenze in qualche modo rilevanti per il nostro problema...
... "Ah, but since I'm an optimist, I'll have renewed hope for tomorrow, work a little harder at my dead-end job, pump up the global economy a little, eventually, through the trickle-down effect, sending a few dollars into the pocket of the researcher who ultimately finds a way to stop biological warfare - so you see, the two events are related after all, and I can use one as valid evidence about the other." In one sense, this is correct - any correlation, no matter how weak, is fair prey for Bayes' Theorem...
Si potrebbe dire che in un mondo complesso "tutto c'entra con tutto", ma di questo Bayes tiene conto! Se la giustificazione dell’ottimista ha anche solo un minuscolo fondamento, Bayes lo coglie e lo soppesa.
Per il bayesiano non ha senso, per esempio, l'avvocato che in tribunale eleva il suo "obiezione vostro onore". Questo perché, per l’appunto, "tutto c'entra con tutto", non ci sono domande fuori luogo o non pertinenti, basta soppesarle con la sensibilissima bilancia di Bayes.
***
La scienza non è altro un caso speciale del teorema di Bayes.
L'evidenza sperimentale va trattata con bayesianamente...
... when you perform an experiment and get evidence that "confirms" or "disconfirms" your theory, this confirmation and disconfirmation is governed by the Bayesian rules. For example, you have to take into account, not only whether your theory predicts the phenomenon, but whether other possible explanations also predict the phenomenon....
Se il giornale riporta uno studio scientifico effettuato con tutti i crismi secondo il quale fumare 15 sigarette al giorno aumenta dell'88% il rischio medio di cancro al polmone, di quanto aumenterà il vostro rischio medio di cancro al polmone, visto che fumate esattamente 15 sigarette al giorno? Ora che conosciamo Bayes, ora che finalmente siamo individui razionali, possiamo rispondere correttamente senza incorrere in errori marchiani.
***
Poiché la scienza si può pensare correttamente solo in una cornice bayesiana, non sorprenderà sapere che Bayes ha detronizzato Popper e il suo falsificazionismo riducendolo ad un caso particolare del bayenesimo...
... Karl Popper's idea that theories can be definitely falsified, but never definitely confirmed, is yet another special case of the Bayesian rules; if p( X | A) ~ 1 - if the theory makes a definite prediction - then observing ~ X very strongly falsifies A. On the other hand, if p( X | A) ~ 1, and we observe X, this doesn't definitely confirm the theory; there might be some other condition B such that p( X | B) ~ 1, in which case observing X doesn't favor A over B. For observing X to definitely confirm A, we would have to know, not that p( X | A) ~ 1, but that p( X | ~ A) ~ 0, which is something that we can't know because we can't range over all possible alternative explanations...
Bayes sta a Popper come Einstein sta a Newton...
... For example, when Einstein's theory of General Relativity toppled Newton's incredibly well-confirmed theory of gravity, it turned out that all of Newton's predictions were just a special case of Einstein's predictions...
Per Popper una conferma non è una verifica e una falsificazione è una confutazione: tra le due cose c'è asimmetria. C’è un’asimmetria logica tra i due eventi.
Bayes mette la logica in secondo piano, per lui tutto è probabilità: una falsificazione può pesare molto di più di una conferma – come implica il paradigma di Popper - ma si tratterebbe solo di un caso particolare tra i tanti possibili...
... Bayes' Theorem shows that falsification is very strong evidence compared to confirmation, but falsification is still probabilistic in nature...
Non c'è una differenza qualittiva tra conferma e falsificazione. La cosa ci aiuta a comprendere meglio la storia concreta della scienza e del suo avanzamento (che alla luce del rozzo schema popperiano ci rimane estranea).
***
Bayes ci spiega la scienza, ci dice come leggere un lavoro scientifico, come interpretare un esperimento, ci dice come la ragione si applica al reale, coniuga la mente con la realtà concreta, ci dice quanto conti il nostro cuore, la nostra esperienza pregressa conscia e inconscia... adesso penso che sia chiaro perché ho parlato di "rivoluzione" neoilluminista. Ora anche voi siete pronti per entrare nel club dei bayesiani.
thomas-bayes