Visualizzazione post con etichetta bias rischio. Mostra tutti i post
Visualizzazione post con etichetta bias rischio. Mostra tutti i post

mercoledì 19 dicembre 2018

MODELLI DI RISCHIO

MODELLI DI RISCHIO

Il rischio per eccellenza è quello di estinzione. Chi le studia ha isolato una legge: quando sono poco frequenti sono devastanti, quando sono più frequenti sono contenute. Sembra uno schema ricorrente che puo’ essere generalizzato in molti ambiti.

Potremmo tradurlo così: argini più elevati ritardano l’alluvione rendendola più distruttiva. Più in generale: le misure di sicurezza hanno l’effetto di ritardare la catastrofe ingigantendola.

Morale: occhio all’ossessione per la sicurezza. Il livello OTTIMO non è il livello MASSIMO.

sabato 15 settembre 2018

Le tre scommesse di Newton

Because biographies of famous scientists tend to edit out their mistakes, we underestimate the degree of risk they were willing to take. And because anything a famous scientist did that wasn't a mistake has probably now become the conventional wisdom, those choices don't seem risky either.

Biographies of Newton, for example, understandably focus more on physics than alchemy or theology. The impression we get is that his unerring judgment led him straight to truths no one else had noticed. How to explain all the time he spent on alchemy and theology? Well, smart people are often kind of crazy.

But maybe there is a simpler explanation. Maybe the smartness and the craziness were not as separate as we think. Physics seems to us a promising thing to work on, and alchemy and theology obvious wastes of time. But that's because we know how things turned out. In Newton's day the three problems seemed roughly equally promising. No one knew yet what the payoff would be for inventing what we now call physics; if they had, more people would have been working on it. And alchemy and theology were still then in the category Marc Andreessen would describe as "huge, if true."

Newton made three bets. One of them worked. But they were all risky.

venerdì 9 marzo 2018

IL PUNTO DEBOLE DI TALEB (carattere a parte)

IL PUNTO DEBOLE DI TALEB

Autore stimolante… tranne quando parla del suo core business: la finanza e la gestione del rischio. Qui non lo capisco.
La sua tesi: le gente sottostima i rischi perché non tiene nel dovuto conto la possibilità di catastrofi (cigni neri).
Sostiene poi la sua tesi con aneddoti, per lo più tratti dalla sua storia di trader di successo.
Ma con gli aneddoti si puo’ facilmente dimostrare anche il contrario. Per esempio, mia moglie ogni sera controlla spasmodicamente la chiusura di tutte le serrature poiché teme l’intrusione di “ladri-assassini” (ha letto sul giornale di casi efferati che l’hanno mandata in fissa). Ma tanta cura meticolosa è chiaramente sproporzionata al rischio effettivo: mia moglie, in poche parole, sembra vedere solo cigni neri mentre invece – stando a Taleb – non dovrebbe vedere nemmeno quelli che esistono veramente!
Volevo solo dire che con gli aneddoti si puo’ sostenere tutto, se si passa poi dagli aneddoti alle verifiche sistematiche allora ci accorgiamo che Taleb ha semplicemente torto. Non sto certo a linkare gli studi, qui dico solo che ci sono trader che adottano una strategia opposta alla sua e hanno avuto ancora più successo. In generale possiamo concludere che non esiste un’attitudine uniforme verso il rischio: in alcune attività prendiamo rischi eccessivi mentre in altre siamo troppo prudenti. Del resto, se in molti casi non fossimo eccessivamente prudenti, come potrebbero campare le assicurazioni?
Inoltre, Taleb vede solo i cigni neri. E i cigni d’oro? Non è detto che su questo punto ci sia asimmetria. C’è la morte (evento rarissimo e catastrofico in negativo) ma c’è anche la beatificazione dell’eroe (evento rarissimo e catastrofico in positivo). Chi non rischia muore meno ma nemmeno diventerà mai eroe. C'è l'annientamento del pianeta per una catastrofe climatica da imputare alla mancanza di provvedimenti presi per tempo ma c'è anche la possibilità di lasciare ai posteri un pianeta dal valore centuplicato grazie ad una tecnologia più facilmente disponibile in assenza di vincoli eccessivamente prudenziali. L’avvento inatteso di AI sui mercati, per esempio, centuplicherebbe il valore delle azioni, si tratterebbe di un cigno d’oro: che se ne farebbe Taleb della massa di opzioni a vendere che nel frattempo avrebbe accumulato in attesa della catastrofe?


From the New York Times bestselling author of The Black Swan, a bold new work that challenges many of our long-held beliefs about risk and reward, politics and religion, finance and personal responsibility In his most provocative and practical book yet,…
AMAZON.COM

martedì 6 marzo 2018

ATTRAVERSARE LA STRADA

ATTRAVERSARE LA STRADA

Attraversare la strada riduce la mia aspettativa di 1 anno su 47.000. Non è molto e direi che posso permettermelo. Ma se consentiamo a tutta l’umanità di attraversare la strada ci scappano parecchi morti. Facciamo qualcosa al più presto!!
#Amazon

From the New York Times bestselling author of The Black Swan, a bold new work that challenges many of our long-held beliefs about risk and reward, politics and religion, finance and personal responsibility In his most provocative and practical…
AMAZON.IT

mercoledì 28 febbraio 2018

LA MALEDIZIONE DEL 100%

LA MALEDIZIONE DEL 100%

Non tutte le probabilità sono uguali per il nostro cervello, la sua predilezione per il 100% lo rende inetto alla gestione dei rischi.

Se un 70 diventa 60 lui a malapena lo nota. Se un 30 si alza a 40 idem con patate. Ma se un 100 diventa 90, o anche solo 95, apriti cielo, si scatena il panico. Pensate solo a quel che succede in campo alimentare. Passare da un'insicurezza all'altra non è per lui come passare dalla sicurezza all'insicurezza.
Sono poche le persone che riescono a convivere con l'idea razionale che il tanto adorato 100% non esiste, con l'idea che le probabilità che tuo figlio muoia oggi attraversando la strada esistono eccome.
#Amazon

Why anti-lock brakes make us drive faster Why saving money can lead to financial crisesHow football helmets make the game more dangerousWhy letting forest fires burn can be safer than putting them outWe have learned a staggering amount about…
AMAZON.COM

martedì 21 novembre 2017

Ripensare il concetto di rischio

Ripensare il concetto di rischio

Quest’anno un asteroide del diametro di un chilometro potrebbe impattare la terra alzando un polverone che oscurerebbe il sole per 3/10 anni. Teniamolo presente.
Sì ma non mettiamola giù dura, in fondo c’è solo una probabilità su un milione che accada.
Dieci volte più alta è però la probabilità che esploda un mega-vulcano, magari lo Yosemite, producendo i medesimi effetti.
E non dimentichiamo che potrebbe scatenarsi una  guerra nucleare su larga scala: probabilità 1:20.000 (per stare sul margine d’errore destro).
Uno solo di questi eventi produrrebbe  quel che viene approssimativamente chiamato “inverno straordinario”: il sole si oscurerebbe con gravi conseguenze, per esempio, sulla produzione di cibo nel nostro pianeta.
Vogliamo riassumere in modo prudente?
Allora diciamo che esiste una probabilità su diecimila che quest’anno ci si ritrovi nel bel mezzo di un inverno strordinario. Cumulando, la probabilità che si realizzi entro un secolo è dell’ 1%.
Non è una probabilità banale, si avvicina molto a quella di morire per un incidente stradale (nell’anno, una su novemila).
Noi non trattiamo come banale questa eventualità e facciamo non pochi sforzi per mitigarla.
All’inverno strordinario invece nessuno ci pensa.
Perché allora questo doppio standard? Forse i calcoli fatti sono errati. Non tanto nei numeri quanto nella logica sottesa.
E’ vero: gli incidenti non uccidono sempre e se consideriamo gli altri possibili spiacevoli eventi che possono comportare le probabilità si impennano.
Ma ammettiamo che esistano solo incidenti mortali, siamo sicuri che li trascureremmo al pari dell’inverno straordinario? Non penso proprio.
Forse contro l’inverno straordinario non possiamo nulla, cosicché il nostro fatalismo sarebbe giustificato.
No. C’è molto che possiamo fare: per esempio approntare una rete di rifornimento di cibo che a quel punto sarebbe utilissima. Inoltre, si dovrebbe/potrebbe studiare come si produce cibo senza sole.
E allora?

Di certo la nostra psicologia tratta i due rischi in modo molto diverso, sebbene la loro quantificazione sia la stessa. Il rischio di incidente è “vicino” mentre il rischio di oscuramento è “lontano”. Lontano nel senso che non l’abbiamo mai sperimentato. Di incidenti mortali invece sentiamo parlare tutti i giorni al telegiornale, e magari conosciamo anche qualche famiglia coinvolta in passato.
Tuttavia,  perlomeno i maschi sembrerebbero inclini aneutralizzare questo fattore distorsivo legato alla percezione dei rischi.
Ho la netta impressione che inquadrare una simile situazione con la tradizionale teoria del rischio sia impresa impossibile. Occorre qualcosa di nuovo.
Forse dobbiamo distinguere una catastrofe come quella dell’inverno straordinario poiché coinvolge l’intera umanità, al contrario l’incidente coinvolge solo noi: “mal comune mezzo gaudio” dice il saggio.
In effetti questa differenza merita una riflessione, forse quel che temiamo veramente non è tanto “ferirci” quanto “restare soli a leccarci le ferite”. E’ su questo secondo evento che dobbiamo calcolare le probabilità.
L’uomo è un’animale sociale e una volta escluso ed emarginato è finito, perde tutta la sua forza. La solitudine per lui è una condanna, il nostro cervello respinge questa condizione.
L’uomo di oggi, poi, è privo di una fede. Ieri poteva sempre contare su un alleato eccellentissimo: dio. Oggi, una volta solo nella disgrazia, è veramente solo è perduto.
In più c’è quella maledetta gara evoluzionistica in cui siamo costantemente immersi.
Assomiglia ad una gara sportiva dove conta unicamente la performance relativa.
Nello sport vinco se tu perdi. Il campo da gioco è in condizioni pietose e faccio fatica? Non mi interessa, lo stesso vale anche per te. Mi fa male la gamba? Scatta l’allarme perché la mia gamba è solo mia! Conta solo l’handicap relativo.
Per analogia: la disgrazia ha portata globale? Non mi interessa, coinvolge anche i miei avversari. L’unica disgrazia che conta è quella relativa, ovvero l’incidente stradale che colpisce solo me e la mia famiglia.
E il “riscaldamento globale”? Per quanto si faccia poco gli allarmismi non mancano! Eppure è un fenomeno affine all’ inverno straordinario.
Questo è un bel problema, ma ci sono una paio di replichepossibili.
Innanzitutto, il fatto che si faccia poco non dovrebbe essere secondario.
In secondo luogo, sappiamo che per molti non si tratta tanto di prevenire un rischio ma di adottare una religionesostitutiva. 
L'immagine può contenere: 1 persona, spazio all'aperto

venerdì 27 ottobre 2017

Riduttori vs peltzmaniani

Riduttori vs peltzmaniani

CASO 1
L’aborto uccide e rappresenta un male.
Ma c’è un mezzo che riduce questo rischio: il preservativo.
Domanda: è auspicabile che il preservativo si diffonda?
Per alcuni sì, costoro sono i “riduttori”:  quando un rischio si riduce, si riduce anche il male.
Per altri no, costoro sono i “peltzmaniani”: quando un rischio si riduce aumentano i comportamenti a rischio e il male  aumenta.
CASO 2
Il fumo uccide e rappresenta un male.
Ma c’è anche un mezzo che riduce questo rischio: la sigaretta elettronica.
Domanda: è auspicabile che la sigaretta elettronica si diffonda?
Per i “riduttori” sì: quando un rischio si riduce è sempre un bene.
Per i “peltzmaniani” no: quando un rischio si riduce aumentano i comportamenti a rischio e il male aumenta.
***
Un “peltzmaniano” autorevole del CASO1 è Papa Benedetto. Ricordate?
E voi? Siete “riduttori” o “peltzmaniani”?
Naturalmente dipende dal CASO e dai numeri che ci ritroviamo sul tavolo tavolo.
Tutto qui? Forse no.
Il CASO1 e il CASO2 presentano all’incirca gli stessi numeri, eppure ho come l’impressione che chi è “riduttore” nel primo sia “peltzmaniano” nel secondo e viceversa. Mi sbaglio? E perché?
fumo

lunedì 21 agosto 2017

Il paradosso dell'automazione

Il paradosso dell’automazione

Automation ‘But what’s happening?’ Flight 447 and the Jennifer unit: When human messiness protects us from computerised disaster – Messy: How to Be Creative and Resilient in a Tidy-Minded World – Tim Harford –
***
Punti chiave: L’automazione diffusa erode le nostre competenze – Il pilota automatico in aeronautica – I guai di un aereo troppo sicuro –  paradosso dell’automazione – multe in automatico, azzeramento capacità d’indagine e deresponsabilizzazione –  I giapponesi finiti nell’oceano con il gps – Il robot che più preoccupa non è quello che ci sostituisce nel lavoro ma nel giudizio – Meteorologi: prima prevedere, poi consultare il computer – I problemoni dell’auto che si guida da sé – Soluzioni al paradosso dell’automazione – Puo’ aiutare un computer che sbaglia più frequentemente – Una strada più incasinata ci rende guitadori più concentrati e prudenti –
***
Yellow highlight | Location: 2,654
Pierre-Cédric Bonin, thirty-two, was young and inexperienced. David Robert, thirty-seven, had more experience but he had recently become an Air France manager and no longer flew full-time. Captain Marc Dubois, fifty-eight, had experience aplenty but he’d been touring Rio with an off-duty flight attendant. It was later reported that he had only had an hour’s sleep.
Note:UNA CREW CON I SUOI DIFETTI
Yellow highlight | Location: 2,665
paradoxically, there is a risk to building a plane that protects pilots so assiduously from even the tiniest error. It means that when something challenging does occur, the pilots will have very little experience to draw on as they try to meet that challenge.
Note:GLI INCONVENIENTI DI UN AEREO TROPPO SICURO
Yellow highlight | Location: 2,717
the real source of the problem was the system that had done so much to keep A330s safe across fifteen years and millions of miles of flying: the fly-by-wire. Or more precisely, the problem was not the fly-by-wire system, but the fact that the pilots had grown to rely on that system…Aggravating this mode confusion was Bonin’s lack of experience in flying a plane without computer assistance. While he had spent many hours in the cockpit of the A330, most of those hours had been spent monitoring and adjusting the plane’s computers rather than directly flying the aircraft….
Note:FLY BY WIRE
Yellow highlight | Location: 2,734
This problem has a name: the paradox of automation…The better the automatic systems, the more out-of-practice human operators will be,…
Note:PARADOSSO DELL’AUTOMAZIONE
Yellow highlight | Location: 2,738
The psychologist James Reason, author of Human Error, wrote: ‘Manual control is a highly skilled activity, and skills need to be practised continuously in order to maintain them.
Note:SKILL E ABITUDINE
Yellow highlight | Location: 2,743
automatic systems accommodate incompetence
Note:INCOMPETENZE SMASCHERATE
Yellow highlight | Location: 2,745
even if operators are expert, automatic systems erode their skills
Note:EROSIONE
Yellow highlight | Location: 2,746
systems tend to fail either in unusual situations or in ways that produce unusual situations, requiring a particularly skilful human response.
Note:SITUAZIONI ECCEZIONALE
Yellow highlight | Location: 2,749
A customer service webpage may be able to handle routine complaints and requests, so that customer service staff are spared repetitive work and may do a better job for customers
Note:TECNOLOGIA SENZA PARADOSSI
Yellow highlight | Location: 2,787
Earl Wiener, a cult figure in aviation safety who died in 2013, coined what’s known as ‘Wiener’s Laws’ of aviation and human error. One of them was, ‘Digital devices tune out small errors while creating opportunities for large errors.’
Note:LA LEGGE DI WIENER
Yellow highlight | Location: 2,808
At 14 seconds after 8.08 p.m. on 20 December 2013, his car had been blocking a bus stop in Bradford, Yorkshire, and had been photographed by a camera mounted in a traffic enforcement van driving past. A computer had identified the licence plate… There was just one problem: Mr Hankins hadn’t been illegally parked at all. He had been stuck in traffic….Yellow highlight | Location: 2,813
There was just one problem: Mr Hankins hadn’t been illegally parked at all. He had been stuck in traffic….
Note:LA MULTA AUTOMATICA AL SIG HANKINS
Yellow highlight | Location: 2,814
In principle, such technology should not fall victim to the paradox of automation. It should free up humans to do more interesting and varied work – checking the anomalous cases
Note:AZZERATA LA CAPACITÀ D’INDAGINE
Yellow highlight | Location: 2,820
Google unveiled a neural network that could identify house numbers in photographs…what if Google improves its accuracy by a factor of a million?…
Note:GOOGLE CI GUARDA IN CASA
Yellow highlight | Location: 2,832
when someone says the computer made a mistake, we will assume they are wrong or lying.
Note:ERRORI DEL COMPUTER
Yellow highlight | Location: 2,832
What happens when private security guards throw you out of your local shopping centre because a computer has mistaken your face for that of a known shoplifter?
Note:LA FACCIA SBAGLIATA
Yellow highlight | Location: 2,841
Rahinah – visiting her home country of Malaysia – was told at the airport that her US student visa had been revoked without notice. Despite being the mother of an American citizen, she would never be able to return to the United States…Rahinah had been put on a no-fly list by mistake – possibly the result of confusion between Jemaah Islamiyah, a terrorist group, which killed 202 people with a car bomb in Bali in 2002, and Jemaah Islah Malaysia, a professional association of Malaysians who have studied overseas. Rahinah was a member of the second group, not the first. Once that error had entered the database it acquired the iron authority of the computer….
Note:RAHINAH
Yellow highlight | Location: 2,855
Yet automatic systems want to be tidy. Once an algorithm or a database has placed you in a particular category, the black-and-white definitions of the data discourage argument and uncertainty.
Note:LA MALEDIZIONE DEPL BIANCO E NERO
Yellow highlight | Location: 2,858
We are now on more lists than ever before: lists of criminals; lists of free-spending shoppers;
Note:LISTE
Yellow highlight | Location: 2,865
we have not yet acknowledged how imperfectly a tidy database maps on to a messy world.
Note:DATI CHIARI MONDO CAOTICO
Yellow highlight | Location: 2,871
the database and the algorithm, like the autopilot, should be there to support human decision-making.
Note:SOLO LA COPPIA FUNZIONA
Yellow highlight | Location: 2,873
In March 2012, three Japanese students visiting Australia decided to drive to North Stradbroke, guided by their GPS system. For some reason the GPS was not aware that their route was blocked by nine miles of the Pacific Ocean…in thrall to their technology, they drove their car on to the beach and across the mud flats towards the ocean….
Note:GIAPPONESI IN AUSTRALIA
Yellow highlight | Location: 2,880
Automated systems tend to lull us into passivity.
Note:PASSIVI
Yellow highlight | Location: 2,885
This tendency to passively accept the default option turns out to apply to automated decisions too; psychologists call it automation bias.
Note:AUTOMATATION BIAS
Yellow highlight | Location: 2,887
Driving your car into the sea is an extreme example of automation bias, but most GPS users will recognise the tendency in a milder form….Not knowing why the GPS failed me, I have no way of predicting when it might do so again….
Note:GPS
Yellow highlight | Location: 2,901
When the algorithms are making the decisions, people often stop working to get better.
Note:MIGLIORARE
Yellow highlight | Location: 2,904
engineers make the problem worse by deliberately designing systems to supplant human expertise by default; if we wish instead to use them to support human expertise, we need to wrestle with the system.
Note:AFFIANCAMENTO E RIMPIAZZO
Yellow highlight | Location: 2,909
We worry that the robots are taking our jobs, but just as common a problem is that the robots are taking our judgement.
ote:ROBOT E LAVORO
Yellow highlight | Location: 2,917
You could even argue that the financial crisis of 2007–8, which plunged the world into recession, was analogous to absent-mindedly driving a car into the Pacific.
Note:CRISI FINANZIARIA
Yellow highlight | Location: 2,921
if that grizzled market participant had been able to talk to the computers, the computers would have been able to demonstrate the catastrophic impact of such a crash on the value of CDOs. Unfortunately, there was no meeting of minds
Note:AUTOMATISMI LASCIATI A SE STESSI
Yellow highlight | Location: 2,925
veteran meteorologists would make weather forecasts first by looking at the data and forming an expert judgement; only then would they look at the computerised forecast
Note:LA STRATEGIA DEI METEOREOLOGI
Yellow highlight | Location: 2,931
Chris Urmson, who runs Google’s self-driving car programme, hopes that the cars will soon be so widely available that his sons will never need to have a driving licence.
Note:SELF DRIVING CAR
Yellow highlight | Location: 2,933
unlike a plane’s autopilot, a self-driving car will never need to cede control
Note:UN PERENNE PILOTA AUTOMATICO
Yellow highlight | Location: 2,937
we can look forward to a more gradual process of letting the car drive itself in easier conditions…‘There will always be some edge cases where things do go beyond anybody’s control.’…
Note:RAJKUMAR E IL GRADUALISMO
Yellow highlight | Location: 2,946
if we expect the human to leap in and take over, how will the human be able to react appropriately?
Note:L’ASPETTO DIFFICOLTOSO
Yellow highlight | Location: 2,948
Human beings are not used to driving automated vehicles, so we really don’t know how drivers are going to react when the driving is taken over by the car,’ says Anuj K. Pradhan
Note:L‘INCOGNITA
Yellow highlight | Location: 2,952
And when the computer gives control back to the driver, it may well do so in the most extreme and challenging situations.
Note:SITUAZIONI AL LIMITE
Yellow highlight | Location: 2,956
No matter how many years of experience a driver has, her skills will slowly erode if she lets the computer take over.
Note:L’ESPERIENZA CONTA POCO
Yellow highlight | Location: 2,969
‘I wasn’t parked illegally, I was stuck in traffic’; or ‘That’s not a terrorist group, it’s an alumni association.’ Does more efficient service in the majority of cases justify trapping a small number of individuals in Kafkaesque battles against bureaucracy?
Note:BUROCRAZIA KAFKIANA
Yellow highlight | Location: 2,973
Until the late 1970s, one could reliably expect at least twenty-five fatal commercial plane crashes a year. In 2009, Air France 447 was one of just eight crashes, a safety record. The cost–benefit analysis seems clear: freakish accidents like Flight 447 are a price worth paying,
Note:IL TREND
Yellow highlight | Location: 2,977
One priority could be to make semi-automated systems give feedback in a way that humans feel more viscerally.
Note:SOLUZIONE FEEDBACK
Yellow highlight | Location: 2,983
Some senior pilots urge their juniors to turn off the autopilots from time to time to maintain their skills.
ote:SOLUZIONE ALLENAMENTO
Yellow highlight | Location: 2,986
An alternative solution is to reverse the role of computer and human. Rather than letting the computer fly the plane with the human poised to take over when the computer cannot cope
Note:SOLUZIONE INVERTIRE I RUOLI
Yellow highlight | Location: 3,003
Unsurprisingly, the scientists showed that reaction times and other measures of performance dramatically deteriorated as the hours ticked by.
Note:TEMPI DI REAZIONE
Yellow highlight | Location: 3,007
behaviour suggests that when humans are asked to babysit computers, the computers themselves should be programmed to serve up occasional brief diversions. Even better might be an automated system that demanded more input, more often, from the human
Note:UN COMPUER CHE SBAGLIA DI FREQUENTE PUÒ AIUTARE
Yellow highlight | Location: 3,015
Control measures such as traffic lights and speed bumps frustrated drivers, who would often speed dangerously between one measure and another.
Note:LIMITARE LA VELOCITÀ
Yellow highlight | Location: 3,016
He suggested that the road through Oudehaske be made to look more like what it already was: a road through a village.
Note:SOLUZIONE MONDERMAN
Yellow highlight | Location: 3,025
Where once drivers had, figuratively speaking, sped through the village on autopilot – not really attending to what they were doing – now they were faced with a messy situation and had to engage their brains…As Tom Vanderbilt describes Monderman’s strategy, ‘Rather than clarity and segregation, he had created confusion and ambiguity.’…
Note:UNA SITUAZIONE INCASINATA CI FA CONCENTRARE