Wanderings in crisis

Categorie: Risicomanagement (Pagina 1 van 5)

Handreiking Black Swan Analyse

Leestijd: 10 minuten

De handreiking voor een Black Swan Analyse is een poging om de escalatie van een triggerincident te leren voorspellen. Het is geen vastgetimmerd protocol met een zekere uitkomst. Eerder is het een manier om een deel van het crizoom inzichtelijk te maken, teneinde de mogelijke ophef over een gebeurtenis te voorkomen dan wel te beperken.

If nature has thaught us anything, it is that the impossible is probable.

Ilyas Kassam

Aan de opening van het Holocaust museum in Amsterdam zal voor langere tijd een smet blijven hangen. Misschien, als het lang genoeg geleden is, verandert het gevoel nog naar een droge karakteristiek. Een feitelijkheid die in de geschiedenisboeken vermeld zal worden als een onrustige opening, of woorden van die strekking.

Tot het zover is blijft het gevoel van een kater hangen, zoals de Volkskrant schrijft op 16 maart 2024. Daar proberen ze een analyse te maken van wat er gebeurd is, maar echt ver komen ze er niet mee. Wat bij mij na lezing vooral blijft hangen is dat iedereen iets anders vindt en heeft meegemaakt. Alsof er niet één gebeurtenis was, maar vele tegelijkertijd op hetzelfde moment.

En waarschijnlijk is dat ook zo.

Wat verder opvalt: mensen begrijpen niet wat er gebeurd is, zijn overvallen en verrast, hadden het niet verwacht, dachten dat het wel mee zou vallen, ontkenden dat er iets fout was gegaan of rekenen het vooral anderen aan. Omdat zij wel met de beste bedoelingen hun acties hadden voorbereid en meenden in hun recht te staan, ‘de ongeregeldheden zijn de anderen’.

Dit wordt treffend verwoord in het laatste stuk van het artikel:

Yuval Gal, als mede-oprichter van Erev Rav een van de organisatoren van het protest op het Waterlooplein, werd maandagochtend met buikpijn wakker. Aan zondag had hij een goed gevoel overgehouden. Hij had geknuffeld met Palestijnen, een vrouw vertelde hem dat ze nooit verwacht had een protest te bezoeken van een Joodse organisatie. ‘Het was een uitstekende actie’, zegt hij. De volgende ochtend las hij op sociale media dat de demonstraties antisemitisch zouden zijn geweest. ‘Wat is er in de tussentijd gebeurd?

volkskrant 16 maart 2024

Precies, wat is er in de tussentijd gebeurd?

De Black Swan van het crizoom. Tekening Wendy Kiel

Black Swan

Ik denk dat dit de karakteristieke vraag is die bij elke Black Swan hoort. Nicholas Taleb heeft van de schrijvers die ik ken het concept van de Black Swan het duidelijkst gemunt in zijn gelijknamige boek. Alhoewel ik er na meer studie achter kwam dat velen voor en na hem soortgelijke ongewenste gebeurtenissen beschrijven, maar dan in iets andere woorden.

Hij was dus niet de enige. En ook niet de eerste.

Taleb schrijft dat een Black Swan een onverwachte gebeurtenis is met een grote impact die alleen achteraf te verklaren is. Van dat laatste kwam hij later schoorvoetend terug, Taleb is namelijk niet iemand die graag toegeeft dat hij het verkeerd had. Maar voor deze keer wilde hij wel zeggen dat onvoorspelbaarheid ook kan volgen uit niet goed kijken of weten. Don’t be the turkey, noemde hij dat toen, wees geen kalkoen die niet weet wat Thanksgiving voor kalkoenen betekent.

In meerdere blogs heb ik geschreven dat een Black Swan niet de gebeurtenis zelf is, maar het verhaal dat er over gemaakt wordt. Het is een spontane dan wel georkestreerde reactie op een triggerincident.

Want vrijwel elke gebeurtenis is voorzienbaar, zeker in Mediocrestan, maar de reactie van mensen er op niet. Onvoorspelbaarheid en onzekerheid gaan in die zin dus bijna altijd over menselijk gedrag, omdat dat past binnen de kaders van Extremistan: het is onbegrensd. Zie dit blog over de cobra van Extremistan.

Terug naar het verhaal van de Volkskrant en de vraag wat er in de tussentijd is gebeurd. Welnu, op zondagavond was er de gebeurtenis van een demonstratie en maandagochtend was er de Black Swan van het verhaal dat er over werd gemaakt. Dat was mijns inziens echter niet onvoorspelbaar, net zo goed als de ophef over de demonstratie op de Dam van 1 juni 2020 dat niet was.

Grappig genoeg had het onderzoekscomité van die demonstratie indertijd geadviseerd om op zoek te gaan naar de Black Swan in dit soort risicoanalyses. Kennelijk valt dat nog niet mee. Vandaar deze handreiking voor een Black Swan analyse.

Premortem

Eigenlijk is een Black Swan Analyse (BSA) een vorm van voorspellen. En iedereen weet dat voorspellen moeilijk is, vooral de toekomst. Uit dit blog over supervoorspellers blijkt dat het vooral belangrijk is van veel dingen een beetje te weten, in plaats van heel veel over weinig. Doe een BSA dan ook niet in je eentje, maar in een divers team met uiteenlopende invalshoeken.

Tetlock, de schrijver van Supervoorspellers, ziet de egel als superspecialist met één grote truc en de vos als de handige generalist die van heel veel genoeg weet om slim te handelen.

Een Black Swan analyse moet dus ook divergeren, niet convergeren. Ga op zoek naar een wolk, niet naar een stip. Zoek een bos, geen boom alone.

Tweede belangrijk punt: een Black Swan analyse is een vorm van risicoanalyse, maar is wel anders. Je kunt niet zo veel met een vast format van kans maal effect, want door houdt een Black Swan zich niet aan. Bovendien weet je niet wat je zoekt. Je zoekt iets in een hooiberg, misschien is het een speld. En als je het gevonden hebt, zoek je de volgende keer weer naar iets anders wat je niet weet.

Of misschien wel precies hetzelfde. Ik zei al, je weet het niet.

Interpretatie van DALL-E naar een commissie van wijzen die een speld in een hooiberg zoekt

Ik heb dus ook geen uitgewerkt schema voor een BSA, het blijft bij een handreiking. Maar daar zitten wel een aantal vaste elementen in die passen bij de verhalen op deze website.

We maken maar eens een rijtje.

Handreiking

  • Een rizoom is een netwerk dat zich spontaan vormt. Mensen sluiten zich aan omdat zij een verbinding zien of voelen, niet omdat het rationeel verklaarbaar is. Althans, niet altijd.
  • Een Black Swan is een extreem snel escalerend rizoom, meestal in allerlei richtingen die je vooraf niet had verwacht. Daardoor zijn Black Swans vaak ook groter dan je denkt of kan zien, omdat het in het begin niet precies duidelijk is wie er zich bij aansluiten of niet. Dat is de reden dat men zo vaak verrast is door een Black Swan.
  • Achteraf is te herleiden hoe de Black Swan er uit zag. Op het moment zelf is dat moeilijk, zeker als je er midden in zit. Zoom dan uit en koop zo mogelijk tijd. Maar dat is de respons, daar gaat dit blog niet over.
  • Onderzoek uit 1989 van Deborah Mitchell en Edward Russo (onder de titel ‘Back tot he Future’) liet zien dat mensen beter zijn in terug voorspellen (prospective hindsight) dan vooruit voorspellen (foresight). Vooruit denken in scenario’s leidt namelijk tot generieke stromen van abstracte mogelijkheden, terwijl terug analyseren veel concretere aanleidingen en oorzaken van falen oplevert.
  • Daaruit formuleerde Gary Klein in een artikel in Harvard Business Review de premortem als een vorm van risicoanalyse: vraag jezelf af waarom dit project is mislukt als het klaar is.

A premortem in a business setting comes at the beginning of a project rather than the end, so that the project can be improved rather than autopsied. Unlike a typical critiquing session, in which project team members are asked what might go wrong, the premortem operates on the assumption that the “patient” has died, and so asks what did go wrong. The team members’ task is to generate plausible reasons for the project’s failure

Gary klein

Bij een Black Swan analyse onderzoek je dus vooraf waarom het triggerincident uiteindelijk een Black Swan werd. Of concreter: waarom is de opening van het Holocaust museum uit de klauw gelopen? Dat is de start van de premortem. Het uitgangspunt is altijd een triggerincident die zich aankondigt van tevoren, zoals een demonstratie of een dreiging.

Demonstratie tegen de gratie van oorlogsmisdadiger Willy Lages op 12 oktober 1952 in Amsterdam

We zetten het rijtje weer even voort.

  • Laat de W’s los op je premortem. Stel alle vragen die je kan verzinnen rondom wie, wat, wanneer, waarom, welke, enzovoorts. ‘Hoe’ mag ook. Maar wel in de verleden tijd.
  • Dat levert bijvoorbeeld de volgende vragen op: Wie hadden er belang bij de escalatie? Welke middelen stonden tot hun beschikking? Waarom zouden mensen zich aangesloten hebben bij dit rizoom, wat waren de koppelpunten? Wat is er eerder gebeurd wat hier op lijkt? Wanneer escaleerde het? Wat was de onderstroom?
  • Zijn er controversiële onderwerpen en personen bij betrokken die gelinkt kunnen worden aan het triggerincident? Bij de opening van het Holocaust museum was dat zeker het geval. De oorlog in Gaza is controversieel, de president van Israël is controversieel en Burgemeester Halsema is dat ook.
  • Controversieel gaat niet over gelijk hebben, maar over polarisatie. Hans Bouttellier heeft daarvoor een mooie formule in het Nieuwe Westen: P = M x E. Oftewel, polarisatie is mobilisatie maal escalatie.
  • Ondanks het emergente spontane karakter van rizomen en Black Swans kunnen ze wel versterkt en gedempt worden. Crisismakelaars versterken; media die zich als social media gedragen versterken (pack journalism); politici kunnen zowel versterken als dempen.
  • Een speciale vorm van media zijn de talkshows. Die veroorzaken crises, dus versterken de vorming van Black Swans.
  • Influencers kunnen versterken en dempen. Trump is bevreesd dat Taylor Swift zich uitspreekt en van hem afkeert. Dat zal zijn opmars dempen, denkt hij. Dus is hij de tegenaanval alvast begonnen.
  • Let op koppeling van belangen; onwaarschijnlijke verbonden die wel samen tegen zijn, zonder dat ze samen ergens voor zijn.
  • Maar let ook op koppeling van andere crises en risico’s tot een polycrisis. Voor je het weet transformeert je Black Swan van de ene vorm in een geheel andere.
  • Hoeveel weet je niet? Hoe groot acht je de unknown unknown? Wat zijn je blinde vlekken? Loop je kans op een fundamental surprise?
Een premortem kun je ook gebruiken om vooraf te analyseren waarom het wel goed ging. Als je genoeg mensen met verstand van zaken hebt, kun je twee teams maken waarbij de ene de prospective hindsight loslaat op succes en de andere op falen. Daarna kun je beide combineren tot een plan met overkoepelende beheersmaatregelen.

Stap 2

Een Black Swan analyse is geen vast rijtje vragen, ik schreef het al hierboven. Verzin dus vooral veel meer vragen en invalshoeken die je relevant acht om die Black Swan vooraf te verklaren. Maar met deze handreiking BSA heb je wel een indruk welke kant het op moet.

De uitkomst is geen groene, oranje of rode smiley bij een risicogetal. De uitkomst is een indicator voor de waarschijnlijkheid van een Black Swan. Hoe meer verbindingen, koppelingen, onderstromen, controverses, crisismakelaars enzovoorts je vindt, hoe waarschijnlijker het is dat die Black Swan zich openbaart. In één of andere vorm.

En zoals Taleb het zegt, je bereidt je voor op een Black Swan door je organisatie robuust te maken. Daar ga ik hier nu niet verder op in.

Want er is nog een Stap 2. Als je het goed wilt doen.

Samenvatting van de Black Swan Analyse in een graphic note door Wendy Kiel

Stap 2 is de verificatie dan wel falsificatie van je bevindingen. Elke analyse of evaluatie die je maakt, ook een premortem, leidt tot tunnelvisie. Ergens aandacht voor hebben is tunnelvisie creëren; je kijkt namelijk niet meer naar de rest. Maak daarom een premortem van je premortem.

Rek eerst je conclusies van de eerste stap zoveel als mogelijk uit. Gebruik daarvoor bijvoorbeeld de gidswoorden bij crisis scenario’s, zoals ‘sneller’, ‘groter’ en ‘meer’. Uitgangspunt daarbij is dat het altijd erger wordt.

Denk dus niet dat het wel meevalt omdat het altijd wel meevalt of nog nooit is gebeurd. Denk wel: wat als dit nu de eerste keer is dat het uit de hand loopt, wat als er voor het eerst een aanslag op een demonstratie wordt gepleegd, wat als er doden vallen. Je zoekt naar een escalatie, niet naar een confirmatie.

De oplettende lezer zal nu zeggen dat ik in bovenstaande opsomming de escalatie van het triggerincident en die van de Black Swan door elkaar heb gehaald. Dat klopt: bij een BSA loopt ook steeds alles door elkaar. Hoe groter de chaos, hoe groter de Black Swan.

Houd het resultaat daarna tegen de Regel van Hermans: ook dat wat niet mis kan gaan, zal uiteindelijk mis gaan. De Regel van Hermans onderzoekt je eigen aannames. Sommige dingen vind je zo onwaarschijnlijk, dat je aanneemt dat het niet gebeurt. Omdat de kans zo klein is.

Maar wat als het toch gebeurt?


Dit is het tweede blog in de serie over crizoom, het crisismanagementmodel dat crisis en rizoom aan elkaar koppelt. In het vergeten risico wordt het crizoom op hoofdlijnen toegelicht. Dat was het eerste blog met die insteek op Rizoomes.

Het vergeten risico

Leestijd: 5 minuten

Het vergeten risico is het risico dat je zelf veroorzaakt en dat de fragiliteit van je organisatie vergroot. En fragiliteit is één van de vier onderdelen van crizoom. In een naschrift bij dit blog leg ik uit wat dat is, een crizoom. Eerst maar eens dieper in op het vergeten risico.

Soms heb je dat, gedachteloos scrollend langs een rijtje berichten op social media zie je in een ooghoek iets voorbij komen en schuifel je weer terug omhoog. Wat zag ik daar nou?

Deze keer viel mijn oog op een tabelletje global risks uit het jaarlijkse onderzoek van het World Economic Forum. Ik volg dat de laatste jaren, in tegenstelling tot vroeger, niet meer van heel dichtbij. Het lijstje is zelden verrassend en de grootste risico’s ken ik inmiddels wel.

Dus erg veel tijd besteed ik er niet meer aan, ook al vind ik dat elke risicoprofessional en veiligheidskundige ze wel moet kennen. Het hoort bij je vak.

Global risk

Voor deze keer keek ik er eens extra goed naar, want volgens mij was er wat mee. Daar kom ik zo nog op. Eerst een korte samenvatting van de resultaten.

Voor 2024 worden klimaateffecten door de respondenten als toprisico ingeschat. Maar liefst 66% van de respondenten ziet dat als de grootste uitdaging van deze tijd. Met als goede tweede misinformatie door AI, genoemd in 53% van de inzendingen.

Daarna volgen sociale- en politieke polarisatie (46%), toenemende kosten van levensonderhoud (42%), cyberattacks (39%), economische krimp (33%) en nog dertien andere risico’s. Nummer twintig is de angst dat de techbubbel barst, genoemd door slechts 4% van de deelnemers.

Wat valt er op als je door die totale lijst kijkt?

Nou, dat de risico’s van buiten komen, ze zijn allemaal extern. Ik moest zelfs denken aan die vermaledijde act-of-god, indertijd op mijn HVK studie nog zwaar verboden door Walter Zwaard.

Hier, bij het WEF, was sprake van een vergeten risico: de fragiliteit van de eigen organisatie. En dat is misschien wel het grootste risico dat er is. Het enige bovendien waar je echt zelf wat aan kan doen. (Herkent u de karakteristiek van het Stoïcijns crisismanagement al?)

Op mijn website Rizoomes heb ik inmiddels een behoorlijk aantal fenomenen beschreven die bijdragen aan de genoemde fragiliteit. Ik zal er hier een paar noemen, dan krijg je een beetje een beeld.

Fragiliteit

Ten eerste de volledig over zijn grenzen uitgerekte bedrijfsvoering. Systemen draaien op meer dan 100% van hun capaciteit en worden daardoor gevoelig voor disrupties. Voeg daar de globale just-in-time logistiek aan toe en je fragiliteit vliegt omhoog.

James Reason noemde dat ooit het vulnerable system syndrome: denial, blame and the blinkering pursuit of the wrong goals. Die waren niet opgenomen door de respondenten van het WEF.

Verder zijn er veel organisaties waar grote ego’s in de weg zitten van rationele bedrijfsvoering. Dat leidt dan weer tot fundamental surprises en een jarenlang leertraject om de verbinding met de normale wereld weer terug te vinden.

Daar staat tegenover dat sommige andere bestuurders echt geen idee hebben waar ze mee bezig zijn, waardoor ze stomme fouten maken. Zwarte eenden noem ik dat. Als je pech hebt bezitten ze ook nog een groot ego; vlek op vlek.

Ik zal geen namen noemen.

En dan heb je nog het vergeten risico van fraude, slordigheid, ruzies, regeren door vooruit te schuiven en het-met-de-kennis-van-nu-syndroom. Zo kan ik nog wel even doorgaan, maar dat doe ik niet. Mij ging het voor nu even over dat vergeten risico van fragiliteit in het rijtje van de WEF:

Het ligt altijd aan een ander, nooit aan jezelf.


Dit blog verscheen als column in een iets ingekorte vorm in het kwartaalblad van de Nederlandse Vereniging van Veiligheidskunde NVVK. Eerdere blogs voor dat blad vind je hier.

Crizoom

Ik maak van dit naschrift gebruik om heel globaal het crizoom te introduceren. Het verhaal van het vergeten risico is namelijk ook een inleiding op de fragiliteit van organisaties en daarmee op het crizoom.

Een crizoom volgens DALL-E. Zoals Koot & Bie zouden zeggen: het is nog een concept, stoei er wat mee.

Crizoom is een samentrekking van crisis en rizoom. Volgens mij kun je een crisis zien als een complex systeem (een rizoom). Het bestaat uit diverse factoren die met elkaar interacteren en uiteindelijk de frequentie, omvang en escalatie van crises bepalen.

Het crizoom bestaat uit vier hoofddelen. Triggerincidenten, als eerste, leiden een crisis in. Ze leggen een fragiliteit in een organisatie bloot, of appelleren aan een onderstroom in de samenleving die vervolgens luidkeels gaat communiceren, framen, boycotten en cancelen.

Of allebei. Dat zijn de delen twee en drie van het crizoom.

Dat externe deel noem ik de Black Swan, naar Taleb. Volgens mij zijn vrijwel alle risico’s voorzienbaar, alleen weet je niet wanneer en hoe laat ze zich manifesteren. Maar de manier waarop mensen reageren, dat is de onvoorspelbaarheid van de crisis, dat is wat het groot en viral maakt. Corona was dus ook geen Black Swan, de manier waarop de mensen er mee omgingen wel.

Zonder mensen is er geen crisis.

Het vierde deel van het crizoom is Prohairesis: hoe goed ben je voorbereid op jezelf? Want crisismanagers en hun teams zijn onlosmakelijk verbonden met hun crisis. Alle crises ben jezelf. Met andere mensen had het een andere crisis geworden. Jouw handelen doet er dus echt toe.

In de loop van het jaar zal ik deze onderdelen verder invullen. Het is een WIP, Work In Progress. Maar de bovenbalk van de website is er al klaar voor.

De cobra van Extremistan

Leestijd: 6 minuten

Het cobra effect komt uit de economische psychologie en is de metafoor voor een oplossing die het originele probleem juist groter maakt. Als je er iets dieper induikt, zie je dat de cobra uit Extremistan komt en dat je eigenlijk opnieuw naar je grote risico’s zou moeten kijken. Omdat die niet zouden moeten gaan over kansen op een effect, maar over de grenzen van het effect.

Van 1858 tot 1947 was India een kolonie van Engeland. Het Britse bestuur deed er van alles aan om het land in te richten naar Westerse maatstaven. Zodoende moest ook de veiligheid op straat omhoog, wat onder andere inhield dat er een halt zou worden toegeroepen aan de hoeveelheid giftige cobra’s in de bebouwde kom van Delhi.

Cobra effect

Daartoe bedacht men een slim plan. In plaats van zelf op jacht te gaan, gaven ze geld voor elke cobrahuid die bij de overheid werd ingeleverd. De actie kwam langzaam op gang, maar na enkele weken liep het als de gesmeerde bliksem. Sterker nog, de slangenhuiden bleven maar binnen komen, als in een onafzienbare reeks spam.

Vreemd genoeg nam het aantal cobra’s op straat na enkele maanden niet significant af. Waarna het bestuur besloot de actie dan maar te stoppen. Die was toch niet succesvol gebleken, zo oordeelde men. Er werd vanaf dat moment geen geld meer betaald voor cobrahuid.

De cobra van Extremistan
Spuwende cobra in Artis, 1962.

Daarmee was het dossier niet gesloten. In de daarop volgende weken bleek het aantal slangenbeten namelijk sterk toe te nemen. Dat nu was raadselachtig. Hoe kon dat? Wat was er gebeurd? Waren die beesten gek geworden of zo, dat ze opeens iedereen gingen bijten?

Nee, het waren er gewoon veel meer dan voor de actie. De betaling per cobrahuid had hele families aangezet tot het kweken van cobra’s. Per paartje komen er na dik twee maanden 40 nieuwe slangetjes uit hun ei gekropen. Weliswaar is de cobra pas na zo’n vijf jaar geslachtsrijp, maar in de tussentijd kunnen opa en oma slang gewoon door met werpen. Dus het jongt lekker aan.

Toen er geen geld voor de huid meer werd betaald, dumpten de cobraboeren en masse hun slangen. Die waren nu niks meer waard, dus weg ermee.

De Britten stonden genadeloos in hun hemd. Dankzij hun oplossing was het probleem erger geworden dan het voorheen was, een fenomeen dat sinds die tijd bekend staat als het cobra effect.

Rattenstaart

Iets soortgelijks ondervond de Franse regering in 1902, in hun kolonie Indochina. Daar had men in Hanoi een prachtige wijk uit de grond getrokken, compleet met riolering. Die al snel functioneerde als een soort rattensnelweg. Binnen afzienbare tijd regende het klachten over ratten die via toiletten de huizen van welgestelde families betraden. Dat was niet de bedoeling.

Dus werden er rattenjagers geworven onder de bevolking. Die gingen opgewekt aan de slag, al was het maar omdat ze per stuk betaald werden. Michael Vann, een Amerikaans historicus, vond tijdens zijn onderzoek staarttellingen in een archief. Gemiddeld werden er in het begin zo’n 4000 ratten per dag gevangen, wat al snel opliep tot meer dan 10.000. Op 21 juni werden er zelfs 20.121 gevangen.

Moet je nagaan.

Maar toch was het niet genoeg en besloot de regering 1 cent te betalen voor elke rattenstaart die door de bevolking inleverde. Zo konden ze mooi tellen hoeveel ratten er waren gevangen, zonder dat ze met al die lijkjes werden opgezadeld.

En het moet gezegd, deze actie liep crescendo voor de Fransen. Soms zijn het net Engelsen in het begin.

Na enige tijd kwamen er echter verwarrende berichten binnen op het bureau van de Gouverneur. Steeds meer mensen melden dat ze ratten zonder staart zagen rondlopen, naast overigens de reguliere exemplaren met staart.

Handel

Het bleek dat de Vietnamezen de ratten na het amputeren van hun staart gewoon weer loslieten, zodat ze zeker wisten dat er nieuwe ratten bijgemaakt zouden worden en hun handeltje zich in stand zou houden.

Hanoi in 1902

Andere Vietnamezen waren een rattenimport gestart en nog weer anderen begonnen ratten te kweken, zodat uiteindelijk het aantal ratten niet af- maar toenam.

Een cobra effect met een rattenstaart. Er gaan dan ook stemmen op om het cobra effect het rattenstaart effect te noemen. Mij is dat om het even. Het leerpunt is volgens mij namelijk dit: dat zowel de Engelsen als de Fransen niet zagen dat hun prijsvraag was gekoppeld aan een schier oneindige hoeveelheid cobrahuiden en rattenstaarten. Er zit geen eind aan.

Sterker nog, doordat er aan viel te verdienen werd de voorraad alleen nog maar groter.

Extremistan

Het cobra effect wordt in de economie daarom veel gebruikt als voorbeeld hoe perverse prikkels in een complex systeem problemen eerder groter maken dan oplossen. Dan wordt geld verdienen een doel op zichzelf en dat is altijd verkeerd als het gekoppeld is aan nuts- of gezondheidsvoorzieningen. Daarvan is het doel namelijk om de samenleving te verbeteren en te versterken, niet om er zelf rijk van te worden.

Maar dat is niet het enige leerpunt. Vann wijst op de arrogantie van de Westerling in dit soort situaties, door mij in eerdere blogs beschreven als grote ego’s en fundamental surprise:

“It’s sort of a morality tale for the arrogance of modernity, that we put so much faith into science and reason and using industry to solve every problem,” Vann says. “This is the same kind of mindset that lead to World War I—the idea that the machine gun, because it kills so efficiently, is going to lead to a quick war. And what that actually lead to is a long war where many people lost their lives.”

Ik wil er nog een derde leerpunt aan koppelen. En dat betreft de orde van Extremistan.

Extremistan is door Taleb opgevoerd in zijn boek over de Black Swan als tegenhanger van Mediocrestan. In Extremistan, zegt hij, is de onvoorspelbaarheid groot, net als ongelijkheid en onrechtvaardigheid.

Extremen zijn normaal en vormen er geen kleine kans op een groot effect, zoals wel het geval is in Mediocrestan.

Onbegrensd

In Mediocrestan kun je een kamer vullen met 30 mensen en Robert Wadlow, de langste man ooit, en dan wijkt het lengteverschil niet enorm af van het gemiddelde. Als je daarentegen 30 mensen in een kamer zet met Jef Bezos en je kijkt naar het gemiddelde inkomen, dan is dat verschil wel extreem. Sommige dingen houden zich niet aan de aardse wetten van Mediocrestan.

Een foto van Robert Ladlow, de langste man ooit, met zijn vader. Robert werd 2.72 lang en slechts 22 jaar oud.

Dat is de orde van Extremistan.

De essentie daarvan is dat er geen fysieke begrenzing zit aan een eenheid. Dus geld uitgedrukt in gouden staven is per definitie beperkt tot de beschikbare voorraad goud, waar giraal geld schier onbeperkt is. Die begrenzing maakt goud dus ook duur.

Net zo zit er geen grens aan het aantal meningen van mensen, aan besmettingen, aan internet (nou ja, een beetje dan, maar er wordt aan gewerkt) aan cobra’s en aan rattenstaarten.

Ook niet aan overstromingen, bosbranden en hongersnoden.

Risicomanagement

Deze onbegrensdheid van de orde van Extremistan zou een belangrijke factor moeten zijn in je risicomanagement. Niet kijken naar kans, maar naar begrenzing. Is de begrenzing groot, dan is het risico beperkt. Is de begrenzing klein of afwezig, dan is het risico enorm.

Risico’s beperken zich niet alleen tot de aanwezigheid van gevaar, maar ook tot de afwezigheid van essentiële resources. Zoals water, energie, medewerkers. Als er een begrenzing komt aan die resources is het risico ook groot. Is die begrenzing er niet, dan is het risico klein.

Precies omgekeerd dus. Haal het niet door elkaar.

Dus stel dat we alles willen elektrificeren en stroom nog de enige energiebron is, dan is het een single point of failure die de orde van Extremistan flink kan doen opschudden. De begrenzing ervan maakt het een extreem risico.

Dat is volgens mij ook precies wat een Black Swan is: een onbegrensd gevaar of een begrensde resource met een enorme impact als gevolg.

En die dan niet zien aankomen.

Het Onwaarschijnlijkheidsprincipe. Een boekrecensie

Leestijd: 12 minuten

Het Onwaarschijnlijkheidsprincipe is een interessant boek dat laat zien dat de kans op een buitengewoon zeldzame gebeurtenis helemaal zo klein niet is. Sterker nog, het is juist heel logisch dat er vaak iets onalledaags gebeurt, zo illustreren de vijf wetten van onwaarschijnlijkheid ons. Zat Taleb er dan naast, en is zijn Black Swan helemaal niet zo’n  “highly impropable event”?

Zo eenvoudig is het nu ook weer niet en dat past overigens prima bij dit boek. Het leest makkelijk weg maar is tegelijkertijd taaie stof. Steeds als ik een hoofdstuk uit had vroeg ik me af wat ik er nu eigenlijk van onthouden had en wat ik er mee kan in de praktijk. Dat laatste lees je in de laatste paragraaf.

We gaan beginnen met de start van mijn opleiding op de brandweeracademie.

Aan het eind van de 30e opleiding tot brandweerofficier bleef er tijd over. Het was de bedoeling dat de boel 19 maanden zou duren, maar vanwege allerlei herzieningen in het brandweeronderwijs was er tussentijds veel geschoven. Daardoor waren sommige modules versneld, en andere vertraagd. We zaten in 1990 zodoende maanden te wachten op het laatste examen van de module Hoofdbrandmeester Preventie, dat maar niet af kwam.

Luc Quintyn

In de tussentijd verzon Ruud Jonkman, het toenmalige hoofd van de officiersopleiding, van alles om ons bezig te houden. Eén van zijn meer briljante verzinsels was een lezing door Luc Quintyn, een officier uit het Belgische leger die eigenlijk bij toeval betrokken was geraakt bij de traumazorg van medewerkers in de frontlinie. Zijn eerste grote klus was het begeleiden van de bergingswerkzaamheden van de Herald of Free Enterprise in 1987. Daarover kwam hij ons vertellen.

onwaarschijnlijkheidsprincipe

Let wel, in die tijd was traumanazorg nog totaal nieuw. Over emoties sprak je niet. Zeker niet in een groep.

Wij hingen aan zijn lippen. Quintyn was een uitzonderlijk goede verteller en een sympathiek mens die veel had meegemaakt. Over zijn eigen bijdrage was hij zeer bescheiden. Hij deed slechts wat nodig was, zo zei hij, zonder hem was het waarschijnlijk net zo goed gegaan. Wij wisten intussen wel beter.

Zijn verhaal maakte grote indruk, en één deel daarvan in bijzonder. Quintyn vertelde dat hij vaak op de plaats incident aanwezig was, gewoon om te kijken wat er gebeurde en naar bijzonderheden te speuren. Kleine signaaltjes om misschien op te interveniëren. Tijdens één van die rondes had hij zo een fotorolletje gekregen van duikers, dat ze hadden aangetroffen in een hut aan boord.

Quintyn besloot het te laten ontwikkelen. Het bleek een setje vakantiefoto’s te zijn waar als ik me goed herinner voornamelijk een lachende vrouw op stond. Maar hij kon er verder niets mee en bewaarde het mapje afdrukken in een bureaula. Tussen allerlei andere vondsten.

Geruime tijd later, Quintyn maakte weer één van zijn rondes, trof hij daar een man die langs de waterkant liep te dralen. Zijn gedrag viel op en Quintyn sprak hem aan. De man hield het eerst wat af, maar brak toen Quintyn doorvroeg en het onderwerp van zijn bezoek op tafel kwam.

Hij vertelde dat hij een relatie onderhield met een getrouwde vrouw en dat ze beiden op de ferry hadden gezeten. Hij had zich kunnen redden, maar zij niet. Het enige wat hij van haar had waren zijn herinneringen, want hun vakantiefoto’s waren tijdens het ongeval verloren gegaan.

Op dat moment dacht Quintyn aan het fotomapje in zijn bureaula en kwam er met wat vragen achter dat de man voor zijn neus met de vrouw van de foto’s aan boord was geweest. Quintyn besloot de afdrukken aan de man te geven; hij vond het niet zijn taak om te oordelen over de situatie, hij was er alleen maar om geestelijke nood te lenigen en zo kon hij dat doen.

Het Onwaarschijnlijkheidsprincipe

Hoe onwaarschijnlijk is dat verhaal? Toch was het echt gebeurd. Wat een bizar toeval, vonden wij, zonder enige ervaring. Ik dacht er later nog veel aan terug, omdat bij elke ramp en ellende die ik van dichtbij meemaakte dit soort onmogelijke verhalen boven tafel komen.

Brandweermannen die hun dienst ruilden met een collega die vervolgens omkwam. Of mensen die op het allerlaatste moment wel een stoel kregen in een vliegtuig omdat iemand van de airline zijn plek afstond en een latere vlucht nam. Er zijn voorbeelden te over, de één nog onwaarschijnlijker dan de andere.

En bij al die voorbeelden vraag je je af: wat was de kans dat dit zou gebeuren?

Dat is precies waar Het Onwaarschijnlijkheidsprincipe over gaat. Volgens David Hand, de schrijver, zijn extreem onwaarschijnlijke gebeurtenissen juist heel alledaags.

Het komt voort uit een verzameling fundamentelere wetten die er met elkaar onvermijdelijk en onverbiddelijk toe leiden dat zulke buitengewoon onwaarschijnlijke gebeurtenissen plaats hebben. Volgens deze wetten, dit principe, zit de wereld zo in elkaar dat die toevalligheden onontkoombaar zijn.

Ze moeten dus gebeuren, stelt Hand. Er zit niets bovennatuurlijks aan. Hand is emeritus hoogleraar wiskunde aan het Imperial College in London en is gespecialiseerd in statistiek. In dit boeiende boek met veel voorbeelden van onwaarschijnlijke verhalen blijft de wiskundige kant (gelukkig) grotendeels achterwege. Dat maakt het ook voor de niet-beta’s goed te volgen.

Luc Quintyn 1950-2011. Foto Wikipedia

Sterker nog, juist zij zouden dit boek moeten lezen. Om te begrijpen dat onwaarschijnlijke gebeurtenissen helemaal zo onwaarschijnlijk nog niet zijn.

Daartoe beschrijft David Hand vijf wetten, die als strengen op elkaar inwerken. Voor de volledige uitleg moet je natuurlijk in het boek zelf zijn. Maar een korte toelichting is op deze website wel op zijn plaats, als aanvulling op de blogs over Taleb, Averting Catastrophe, Ruis en Predictable Surprise.

Vooral omdat ik met enige voorzichtigheid meen dat het Onwaarschijnlijkheidsprincipe een soort van nuancering van The Black Swan is. Black Swans zijn helemaal niet zo onwaarschijnlijk, maar hun impact is wel heel groot. Ja, ik vind het zelf ook gedurfd. Maar ik schrijf het toch op.

Dit zijn de vijf wetten van het Onwaarschijnlijkheidsprincipe.

1.     De wet van de onvermijdelijkheid

De wet van de onvermijdelijkheid houdt in dat als je een complete lijst maakt van alles wat er kan gebeuren in een bepaalde situatie, er altijd één van die uitkomsten zal plaatsvinden. Al weet je van tevoren niet welke.

Dus als je een golfbal slaat op een green, komt ie altijd ergens uit. Dat is onvermijdelijk. Dat we aan sommige uitkomsten meer waarde toekennen dan aan andere, bijvoorbeeld een hole in one, is wat anders. Dat valt onder de wet van selectie, die komt iets verderop nog terug.

De wet van de onvermijdelijkheid betekent niet dat dan ook maar alles in de praktijk zal gebeuren. Het is theoretisch niet onmogelijk dat een aap op een typemachine een roman schrijft, of dat een marmeren beeld gaat zwaaien als alle moleculen tegelijk één kant op bewegen en dan weer terug. Maar de praktische kans is zo klein, dat je het volgens de Wet van Borel toch als onmogelijk moet beschouwen.

Om zo’n onwaarschijnlijkheid te onderbouwen benoemde Borel een aantal schalen waarop je kansen kan afwegen. Kansen die op een menselijke schaal te verwaarlozen zijn, zijn kleiner dan ongeveer één op miljoen. Dat is een norm die ook in het externe veiligheidsbeleid wordt gebruikt. Desondanks vinden er nog steeds industriële ongevallen plaats, hetgeen overigens geen falsificatie is van de Wet van Borel, maar aantoont dat de veiligheidsmaatregelen niet op orde waren.

2.     De wet van de werkelijk grote aantallen

De wet van de grote aantallen zegt dat het bij een voldoende groot aantal gelegenheden aannemelijk is dat willekeurig welke bizarre gebeurtenis zich voordoet. Alles wat kan gebeuren, zal gebeuren, als we het maar vaak genoeg proberen.

Dus hoe vaker je de straat over steekt, hoe waarschijnlijker het is dat er een keer iets mis gaat. Hoe meer mensen je over een spoor afhandelt, hoe groter de kans dat er een keer een botsing of een ontsporing plaatsvindt. Hoe meer mensen je met zes dobbelstenen tegelijk laat gooien, hoe waarschijnlijker het is dat er iemand bij zit die in één worp zes zessen gooit.

Bekend voorbeeld van survivorship bias, dat veel rondgaat op Twitter. Het is afkomstig van Abraham Wald, een wiskundige. Hij wees er op dat juist de vliegtuigen die niet terugkwamen geraakt waren op kwetsbare plekken. De terugkomers waren wel geraakt, maar niet op cruciale punten. De tekening werd gemaakt door Cameron Moll.

Hier zit natuurlijk al een eerste linkje naar een Black Swan. Hoe meer mensen er door je proces gaan en hoe langer je dat doet, hoe waarschijnlijker het wordt dat er een keer iets onwaarschijnlijks plaatsvindt met een hele grote schade. Ook al ging het nog zo lang goed. Sterker nog, het is niet eens onwaarschijnlijk dat het vlak daarna nog eens gebeurt.

3.     De wet van de selectie

De derde wet van het Onwaarschijnlijkheidsprincipe zegt dat sommige gebeurtenissen pas als onwaarschijnlijk worden betiteld als ze al gebeurd zijn. Omdat we er dan pas betekenis aan geven. Dus een golfer die ballen blijft slaan zal bij elke slag meer of minder tevreden zijn over de uitkomst, maar bij een hole in one zich wellicht afvragen hoe dat mogelijk is.

Je ziet het ook bij ongevallen. In onveilige werksituaties gaat het heel lang goed, omdat mensen zich steeds aanpassen en improviseren om schade te voorkomen. Tot het op een dag wel fout gaat. Dan wordt er achteraf iets mee gedaan, terwijl er eerder ook al voldoende aanleiding was om in te grijpen. Maar toen werd een ongeval nog als onwaarschijnlijk gezien.

Het is overigens nog steeds vaak zo dat de werknemer dan de schuld krijgt. Menselijke fout, roept men dan, maar al die keren dat het dankzij diezelfde werknemer wel goed ging wordt voor het gemak dan maar even vergeten.

Nauw gelieerd aan de Wet van de selectie is de survivalshipsbias. Er wordt naar de oorzaak van ongewenste gebeurtenissen gezocht door de overblijvers te onderzoeken. Francis Bacon schreef er ruim vierhonderd jaar geleden al over in zijn boek Novum Organon.

Het was een goed antwoord dat een man gaf toen ze hem in een tempel een schilderij lieten zien van zeelieden die aan een schipbreuk waren ontkomen door heilige geloften af te leggen en ze wilden weten of hij nu niet de macht van de goden erkende. Jawel, was zijn wedervraag, maar waar zijn de gelovigen geschilderd die na hun geloften zijn verdronken. Alleen de overlevenden van een schipbreuk kunnen je vertellen dat ze vooraf gebeden hebben.

francis bacon

4.     De wet van de kanshefboom

De wet van de kanshefboom zegt dat een kleine verandering in een situatie een heel groot effect kan hebben. Hand maakt de vergelijking met twee mensen op een wip. Die kan in evenwicht blijven, ook als de personen in gewicht verschillen, indien ze op de juiste afstand van het midden zitten. Maar zodra de zwaardere persoon iets naar achteren verschuift, vliegt de lichtste omhoog. Andersom is het effect minder groot. Dat de wip in evenwicht was, betekent niet dat het een stabiel systeem was.

Francis Bacon 1561 – 1621 was een Engels filosoof die veel publiceerde over de wetenschappelijke methode

Hand geeft nog een voorbeeld over water. Als je water van 25 °C vier graden afkoelt, gebeurt er niet zo veel. Maar als je water van 2 °C vier graden afkoelt, gebeurt er heel veel en heb je opeens ijs.

Op die manier kunnen instabiele en metastabiele systemen door een kleine verandering hele grote effecten veroorzaken. Dat lijkt onwaarschijnlijk, maar is door de kanshefboom goed verklaarbaar.

Een andere oorzaak van de kanshefboom is dat een systeem geen normaalverdeling volgt, maar alleen maar lijkt op een normaalverdeling. Hier geeft Hand de beurskoersen als voorbeeld en introduceert daarbij het voor mij nieuwe begrip van de cauchyverdeling. Die heeft veel langere staarten dan een normaalverdeling en ook heel interessant, geen gemiddelde waarde.

Maar veel dieper ben ik daar niet op in gegaan. Dat stuk heb ik gescand.

Wat de wet van kanshefboom dus eigenlijk laat zien is dat we denken een fenomeen te begrijpen, maar in werkelijkheid zitten we er naast. Daar komen we dan achter door een in onze ogen onwaarschijnlijke gebeurtenis, die volgens een cauchyverdeling helemaal niet zo onwaarschijnlijk is.

Daarnaast, schrijft Hand, kan het voorkomen dat het systeem zich wel normaal gedraagt, maar jij niet. Hij geeft het voorbeeld van Roy Sullivan, die tussen 1942 en 1977 zeven keer door de bliksem werd getroffen. Dat lijkt heel onwaarschijnlijk, maar is het niet als je weet dat Sullivan een parkwachter is die tijdens onweer bijna altijd buiten in het bos is.

5.     De wet van het voldoende dichtbij

Dit vond ik eerlijk gezegd de meest lastige van de vijf wetten om in het kort te beschrijven. Gelukkig zijn er dan mensen zoals mijn goede vriend Gabor die mij wijzen op mogelijke verbeteringen. Weet dus, als je dit leest, dat het stukje hieronder, en eigenlijk zelfs het hele blog, een peer review heeft gehad :-).

De wet van het voldoende dichtbij zegt dat als twee gebeurtenissen maar voldoende op elkaar lijken ze als identiek worden beschouwd. Dan zie je opeens patronen die er niet zijn en maak je een waarschijnlijke gebeurtenis onwaarschijnlijk door het ten onrechte te vergelijken met andere onwaarschijnlijke gebeurtenissen.

“Door de criteria van een precieze overeenkomst af te zwakken, kunnen we de kans op kennelijke toevalligheden vergroten. Gebeurtenissen die misschien uiterst onwaarschijnlijk lijken, kunnen bij nadere beschouwing heel plausibel lijken.”

Hand noemt het voorbeeld van Bill Shaw en zijn vrouw, die allebei een treinongeval overleefden waarbij wel vele andere doden vielen. Dat lijkt onwaarschijnlijk, alleen was het niet hetzelfde treinongeluk en zat er vijftien jaar tussen.

Ongetwijfeld zouden de kranten het nieuws ook hebben opgepikt als bij het ene ongeluk Bill betrokken was geweest en bij het andere zijn broer, of zus, of kinderen, of ouders, enzovoorts. En ook als er vier jaar, of twintig jaar tussen de ongelukken had gezeten.

david hand

De onwaarschijnlijkheid van de Black Swan

Het onwaarschijnlijkheidsprincipe laat zien dat onwaarschijnlijke gebeurtenissen niet zo zeldzaam zijn als wel wordt gedacht. In die zin is de verschijning van een Black Swan dus ook niet zo vreemd. Die komen nou eenmaal voor, betoogt Hand. Maar dat betekent niet dat je ze kan voorspellen.

Dat er een Black Swan zal landen is dus niet zo onvoorspelbaar, maar wel welke Black Swan, en wanneer. Dat kan je vooraf niet weten.

De Tay Bridge disaster bij Dundee in 1879. In een gierende storm stortte de brug in en de trein in zee. Er werden 59 lichamen geborgen, mogelijk zijn er nog 16 meer geweest, maar die zijn niet gevonden.

Voor bedrijven en organisaties betekent het dat je je moet voorbereiden op onwaarschijnlijke gebeurtenissen in het algemeen. Niet de kans is leidend op je preparatie, maar het mogelijke effect. Dat is wat de wet van de onvermijdelijkheid en de werkelijk grote aantallen ons vertellen. Er is altijd wat.

De wet van de kanshefboom leert ons dat we ook rekening moeten houden dat het probleem wel eens erger kon zijn dan verwacht. Dat het altijd erger kan moet je dus ook altijd meenemen in je voorbereiding en in je beeldvorming, of accepteren dat nu eenmaal niet alles voorkomen kan worden. Of allebei.

De laatste twee wetten zitten het dichtst tegen de eigenaardigheden van de menselijke psyche aan. Als eerste de wet van de selectie, die laat zien dat onwaarschijnlijkheid vaak verward wordt met onwenselijkheid en dat pas achteraf iets als bijzonder wordt aangemerkt.

De wet van voldoende dichtbij legt bovendien uit dat bepaalde gebeurtenissen te veel op een hoop worden gegooid. Zoals een stroomstoring, een brand en een cyberincident bij één bedrijf, waardoor wordt geframed dat het er een zooitje is.

Zo ontstaat er een verhaal en zo ontstaat er dus ook gemakkelijk een crisis.

Maar da’s logisch.

Kennisveiligheid

Leestijd: 3 minuten

Kennisveiligheid is een betrekkelijk nieuwe loot aan de stam van integrale veiligheid. Ik had er tot voor kort niet in deze termen over nagedacht. Toch is het een zeer relevant onderwerp en onderdeel van het kwetsbaarheidsspectrum van een organisatie waar zomaar eens een crisis uit kan rollen. Daarom beginnen we met Abdul Qadir Khan.

Abdul Qadir Khan was 16 toen hij met zijn ouders van India naar Pakistan emigreerde. Hij kon goed leren en toen hij zijn studie aan de universiteit van Karachi had afgerond, vertrok hij naar Europa om verder te studeren. Na zijn promotie aan de universiteit van Leuven kwam hij in 1972 in dienst bij het Fysisch Dynamisch Onderzoekslaboratorium (FOD), waar hij veel werkte aan projecten voor Urenco.

In 1984 bezocht Pieter van Vollenhoven Urenco. Foto ANP Anefo

Urenco. Misschien dat er nu een belletje gaat rinkelen, want u vroeg zich al af wat u met dit verhaal moest.

Nou, die Khan stal de geheimen van Urenco waarmee Pakistan uiteindelijk een atoombom kon bouwen. Dit soort ontwikkelingen doet wat met de geopolitieke verhoudingen in de wereld. Kennis is een strategisch goed, net zoals grondstoffen en aardgas dat zijn. Met als specifiek kenmerk van kennis: je kan het jatten zonder dat de eigenaar het mist. Dat gaat met aardgas en aardolie niet lukken.

Daarom is er nu de Nationale Leidraad Kennisveiligheid. Daarin wordt de volgende definitie van kennisveiligheid gegeven:

Bij kennisveiligheid gaat het allereerst om ongewenste overdracht van sensitieve kennis en technologie. Overdracht is ongewenst als deze de nationale veiligheid van ons land aantast. Daarnaast gaat kennisveiligheid om heimelijke beïnvloeding van onderwijs en onderzoek door statelijke actoren. Deze inmenging brengt de academische vrijheid en de sociale veiligheid in gevaar (..)

leidraad kennisveiligheid

Dual-Use

De leidraad richt zich met name op zogenaamde dual-use situaties. Onderzoek en kennis naar civiele toepassingen die ook militair gebruikt kunnen worden. Om dat wat verder te concretiseren worden de volgende tien aandachtsgebieden benoemd:

  • Nucleaire goederen;
  • Speciale materialen en aanverwante apparatuur;
  • Materiaalverwerking;
  • Elektronica;
  • Computers;
  • Telecommunicatie en “informatiebeveiliging”;
  • Sensoren en lasers;
  • Navigatie en vliegtuigelektronica;
  • Zeewezen en schepen;
  • Ruimtevaart en voortstuwing.

Niet alle instellingen staan te trappelen om de leidraad toe te passen. Ook de VSNU, het gezamenlijke universiteitsclubhuis, verkondigde dat de universiteiten ten onrechte worden opgescheept met geostrategische en veiligheidsproblemen. Waarmee ze maar weer lieten blijken dat het simpele feit dat je voor een universiteit werkt je niet persé slimmer maakt.

Want wie anders dan de kennissector zelf weet wat de risico’s van een bepaalde technologie zijn? Net zoals je inventariseert op onder andere straling, besmetting en giftigheid check je ook wat je met jouw kennis kunt doen als het in verkeerde handen valt. Dat lijkt mij niet meer dan logisch in een steeds vijandiger wereld.

Overigens gaat de kennisveiligheid verder dan dual-use. Geopolitieke afhankelijkheden zitten ook in concurrentievoordelen of überhaupt de deskundigheid en vaardigheid om bepaalde technologie te bedenken, ontwikkelen en toe te passen. Denk aan ASML maar ook aan innovaties op het gebied van kunstmatige intelligentie. Daar wordt nu ook met strategische blik naar gekeken.

Kennisveiligheid geeft de traditionele risicoanalyse dus een hele nieuwe twist door die ene vraag: hoe kun je de geïnventariseerde risico’s rondom kennis misbruiken? Als die vraag in de jaren 70 was gesteld, had Khan’s diefstal wellicht voorkomen kunnen worden. Het is kennelijk nog steeds zo dat er eerst iets moet gebeuren voor er maatregelen worden genomen. In die zin is de Leidraad Kennisveiligheid zeker belangrijk, maar rijkelijk laat.


Dit blog verscheen in iets gewijzigde vorm als column in de NVVK info. Andere blogs die op het onderwerp van interne kwetsbaarheden ingaan zijn De onnodige crisis, Tot crisis gemaakt en Insider risk, door slordigheid crisis.

Hoe je een ramp voorkomt. Een Boekrecensie

Leestijd: 10 minuten

Hoe voorkom je een ramp? Dat is het onderwerp van een handzaam boekje van Cass R. Sunstein onder de titel Averting Catastrophe. Voor zover ik kon nagaan bestaat er geen Nederlandse vertaling van, maar dat vond ik geen probleem. De tekst is makkelijk te volgen. De vraag die vooral bleef hangen was wat je nou eigenlijk met dit boekje moet. Het antwoord erop verraste mijzelf ook.

Averting Catastrophe explores how governments ought to make decisions in times of imminent disaster.

Zo ronkend laat Cass zijn boek aanprijzen op de kaft, door enkele van zijn geleerde vrienden. Ik stonk erin en kocht het ongelezen. Want wie wil dat nou niet, besluiten kunnen nemen rondom de vraag hoe je een ramp voorkomt?

Voor hen die gehoopt hadden daarop een duidelijk antwoord te krijgen, volgt dan nu alvast de dikke vette spoiler: na lezing van Averting Catastrophe weet je het nog steeds niet. Maar weet je wel beter waarom je het niet weet.

Wat ik ook wel weer geruststellend vond.

Hoe je een ramp voorkomt

Want stel je voor, in 2023 zit ik dertig jaar in het vak van hoe je een ramp voorkomt en dan opeens schrijft iemand een boekje die daar in netto 117 pagina’s een antwoord op heeft. Dat zou wat zijn, zeg.

Maar goed, dat antwoord heeft Sunstein dus niet, maar wat heeft ie dan wel? Nou, enkele inzichten uit de decision theory die mij wel wat meer houvast gaven.

Of laat ik het anders zeggen, die mij bevestigden in een paar aannames die ik uit mijn praktijk had afgeleid, zoals het feit dat de te verwachten schade een belangrijker graadmeter is om op te handelen dan de kans op die schade. Sowieso vind ik ‘kans’ een overschatte parameter die nogal vaak leidt tot het-met-de-kennis-van-nu syndroom.

Nu moet ik eerst nog met een validiteitsdingetje aan de gang.

IYI

Die validiteitskwestie begint met een uitspraak van Jung. “Everything that irritates us about others can lead us to an understanding of ourselves.”

En dat geldt ook voor Nicholas Taleb. Everything that irritates Nicholas Taleb can lead us to an understanding of Nicholas Taleb.

En Cass Sunstein irritates Nicholas Taleb a lot. Zoveel zelfs dat Sunstein model stond voor Taleb’s tirade over IYI in zijn boek Skin in the Game: Intellectual Yet Idiot. Een IYI wordt door Taleb als volgt beschreven:

An inner circle of no-skin-in-the-game policymaking “clerks” and journalists-insiders, a class of paternalistic semi-intellectual experts with some Ivy league, Oxford-Cambridge, or similar label-driven education who are telling the rest of us 1) what to do, 2) what to eat, 3) how to speak, 4) how to think… and 5) who to vote for.

nicholas taleb

De Ivy League is een groep topuniversiteiten in Amerika, waaronder Princeton, Columbia en Harvard. Alumni ervan verkeren in hoge kringen en spelen elkaar volgens Taleb ondershands baantjes toe. Iets vergelijkbaars vind je in Frankrijk met de Grande Ecoles en met Oxbridge in Engeland.

Het is duidelijk dat Taleb er niets van moet hebben, IYI. Wellicht omdat ie zelf niet uit de League komt. Tegelijkertijd lijkt hij erg gevoelig voor erkenning uit dergelijke kringen. De validiteitsvraag is dan hoe serieus je de stellingen van Sunstein moet nemen. Of die van Taleb, natuurlijk. Kan het zijn dat hij zich overschreeuwt?

Want Sunstein is echt niet de eerste de beste. Onder Obama was hij verantwoordelijk voor een programma om de maatschappelijke kosten van fossiele brandstoffen in kaart te brengen, als onderdeel van een groter onderzoek naar de effecten van klimaatverandering.

Dat is ook de link met Averting Catastrophe, naast de schadelijke gevolgen van de Covid pandemie: de vraag hoe je een ramp voorkomt in onzekere omstandigheden.

Ik had DALL-E gevraagd een tekening te maken van een astronaut die een bord schildert met de tekst: watch out, black hole. Dat kwam er niet helemaal uit.

Maar Sunstein is vooral bekend geworden met zijn boeken over ‘nudging’. Dat is het onbewust beinvloeden van menselijk gedrag, bijvoorbeeld door de gezonde broodjes op ooghoogte te leggen en de ongezonde onderaan. Dat zou mensen aanzetten om gezonder te eten. Het wetenschappelijk bewijs erover schijnt mager te zijn, maar zolang supermarkten de gewenste snellopers in hun schappen op ooghoogte blijven leggen weet ik dat het werkt. Anders zouden ze dat niet doen.

Wat dan wel weer een leuk weetje is, is dat Aad Kieboom, een oud collega van mij, de beroemde vlieg in het urinoir heeft bedacht om de schoonmaakkosten van de toiletten op Schiphol in bedwang te helpen houden. Die piesvlieg geldt als de grootvader van alle nudges. Toen ik hem daar een keer over sprak keek hij mij vol verbazing aan; hij wist nergens van en was nooit ergens naar gevraagd of over geïnformeerd. Laat staan dat ie wist wat een nudge was.

Die middag nog kocht Aad het boek over nudging en liep mij de ochtend erna glunderend voorbij, terwijl hij uitgebreid zijn duim opstak en naar het boek wees. Hoe de dingen soms gaan.

Hoe je een ramp voorkomt

Ik vertel bovenstaand verhaal als context bij het boek Averting Catastrophe. Het werk van Sunstein is niet onomstreden, maar hetzelfde geldt voor zijn criticasters. Uiteindelijk is het niet mijn bedoeling aan te wijzen wie gelijk heeft, wel wil ik kort schetsen in welk krachtenveld het zich allemaal afspeelt. Wat je wel of niet voor waar aanneemt is verder aan jezelf. Mij gaf de verbreding in ieder geval meer inzicht in hoe je een ramp voorkomt.

Ga ik nu weer terug naar het boek zelf.

Met zijn boek wil Sunstein hulpmiddelen aanreiken over hoe je een ramp voorkomt. Daarbij sla ik het stukje over risicomanagement en expected value grotendeels over. Risico’s kun je namelijk kwantificeren, door een getal te geven aan waarschijnlijkheid (of frequentie) en effect. Dat geeft voldoende houvast om een besluit te nemen gebaseerd op expected value.

Maar dat is niet altijd het geval, dat je waarschijnlijkheid kunt toewijzen aan een situatie. In dergelijke omstandigheden weten we niet wat er kan gebeuren en ook niet goed wat de effecten kunnen zijn. Knightian uncertainty noemt Sunstein dat, naar de economoom Frank Knight.

Uncertainty must be taken in a sense radically distinct from the familiair notion of risk, from which it has never been properly separated… The essential thing is that ‘risk’ means in some cases a quantity susceptible of measurement, while at other times it is something distinctly not of this character; and there are far-reaching and crucial differences in the bearing of the phenomena depending on which of the two is really present and operating.

frank knight

We simply don’t know, voegde John Maynard Keynes daar aan toe. We weten niet wat de rente is over tien jaar, of er een oorlog komt in Europa, welke uitvindingen de markt zullen veranderen of wat de prijs van koper volgend jaar is. Knight beschreef zijn definitie van onzekerheid in 1933, Keynes die van hem in 1936.

We simply don’t know, hoe je een ramp voorkomt. Of hoe je de hoofdprijs wint. Want dat is wat onzekerheid is. VUCA heet dat ook wel: volatiel, onzeker, complex (of connected) en ambigu. Hier schreef ik er al eens eerder over.

Maximin

In de theorie van decisionmaking zijn een aantal principes benoemd die kunnen helpen om besluiten te nemen in onzekere omstandigheden. Zoals het maximin principe. Dat gaat ervan uit dat je het worst case scenario elimineert en vormt eigenlijk de kern van Averting Catastrophe: je voorkomt een ramp door het worst case scenario uit te schakelen.

DALL-E tekent een hand die een meteoor opvangt. Vind ie.

Toch stelt Sunstein daar wat vragen bij aan de hand van een aantal voorbeelden. Wat zou je kiezen:

  1. 99,9% kans om €10.000 te winnen en 0,1% kans om €60,- te verliezen of
  2. 50% kans om €50 te winnen en 50% kans om €50 te verliezen.

In regulier risicomanagement zou je kiezen voor optie 1. Dat heeft de hoogste te verwachten waarde. Maar als je gaat voor het maximin principe rolt optie 2 eruit. Dan mis je dus de kans op een grote winst. Dat is de waarschuwing van Sunstein: als je de worst case scenario in alle omstandigheden probeert te voorkomen, snij je misschien ook een grote winstkans af.

Nog een voorbeeld. Wat zou je kiezen:

  1. 100% kans om een euro te winnen of
  2. 100% kans om een ton te winnen met een onbekende kans om te sterven

Volgens het maximin principe kies je nu voor optie 1, ook als is de kans op sterven bij optie 2 onbekend. Overigens wordt bij regulier risicomanagement de kans van 1 op een miljoen in voorbeeld 2 acceptabel geacht bij de vergunning van risico opleverende activiteiten.

Maar als die 10-6 kans alleen op jouw betrekking heeft en niet op anonieme persoon, vind je die kans dan nog steeds acceptabel? Dat is de skin in the game vraag.

Er is ook nog het minimax principe. Daar heeft Sunstein het niet over in dit boekje, maar lang geleden kwam ik het tegen in een artikel van Mintzberg. Volgens Mintzberg nemen managers altijd het besluit waar ze achteraf het minste spijt van krijgen; minimaxen van spijt heet dat dan. Misschien is dat nog wel het beste principe om een ramp te voorkomen. Jammer dat Sunstein het daar niet over heeft.

Voorzorgsmaatregel

Dan is er nog een instrument dat het precaution principle wordt genoemd. Dat gebruik je om risico’s te vermijden, met name bij reguleringsvraagstukken. Als je niet weet wat het effect van genetisch gemodificeerde organismen (GMO) in de vrije natuur is, kun je ze maar het beste verbieden volgens de voorzorgsmaatregel. Zie ook het blog over georganiseerde onverantwoordelijkheid en manufactured risks.

Taleb vindt het onverantwoord om GMO’s los te laten in de natuur, omdat het totaal onzeker is wat er daarna mee gaat gebeuren. Daarbij wijst hij op de fat tail; de kans op een extreme gebeurtenis is groter dan je op basis van een normaalverdeling zou verwachten en dat heeft te maken met complexiteit en exponentiële ontwikkeling.

Voor kernenergie is zo’n onzekere uitkomst niet aan de orde, omdat daar veel meer over bekend en meetbaar / berekenbaar is. Dat raakt eerder risicomanagement principes dan onzekerheidsprincipes.

Vluchten voor de vulkaan. Soms is dat de enige manier om een (grotere) ramp te voorkomen

Aansluitend op deze redenatie geldt nog het argument van onomkeerbaarheid. Bepaalde negatieve uitkomsten zijn niet terug te draaien of te herstellen. Een extra argument voor een voorzorgsmaatregel.

Toch, zegt Sunstein, kun je met voorzorgsmaatregelen ook positieve uitkomsten blokkeren. Daarom is hij het niet met Taleb eens. Er zijn voldoende wetenschappelijke artikelen die de kans op een onomkeerbare escalatie met GMO zeer onwaarschijnlijk achten.

Als tweede voorbeeld van geblokkeerde opbrengsten door de voorzorgsmaatregel noemt hij de vergunning voor zelfrijdende auto’s. Die zou je kunnen verbieden, omdat er onherroepelijk doden zullen vallen en dat is onomkeerbaar. Maar het betekent ook misschien dat er juist veel extra slachtoffers te betreuren zijn omdat zelfrijdende auto’s minder ongevallen veroorzaken dan menselijke bestuurders en dus uiteindelijk veiliger zullen zijn.

Je kunt je er dus niet zonder meer met één regel of principe vanaf maken. Het blijft denken in scenario’s, in mogelijkheden, in het vergroten van je situational awareness, zoeken naar kwetsbaarheden maar ook naar kansen. Want in keuzes valt er ook vaak wat te winnen en dat wil je ook niet uitsluiten.

Uiteindelijk concludeert Sunstein dat in situaties van grote onzekerheid waarin het ‘wait and learn’ principe te onvoorzichtig is, het logisch is om toch zware preventieve maatregelen te nemen, of het nu gaat om pandemieën, klimaatverandering of GMO. “Those measures will enable us to sleep better at night. And if we end up buying too much insurance, well, so be it.

Lichtzwarte Zwaan

Gaat Averting Catastrophe nou echt over hoe je een ramp voorkomt, zo vroeg ik me af na lezing. Ten dele, denk ik. Het gaat voornamelijk over het managen van onzekerheid, Knightian Uncertainty. Gebeurtenissen met een zeer kleine kans op een groot effect, waar je geen getallen aan kunt toekennen en zodoende buiten het reguliere risicomanagement vallen.

Highly impropable events with an extreme impact, dus.

Toen pas, bij die definitie, begon bij mij het lampje te banden. Taleb en Sunstein hebben het over hetzelfde in hun boeken. Alleen voegde Taleb wel de achteraf explanatie toe aan zijn definitie van de Zwarte Zwaan en Sunstein niet. Sunstein bespreekt dus eigenlijk een lichtzwarte Zwaan.

Hoe dan ook, de meerwaarde van Averting Catastrophe ligt voor mij in de verbreding van het veld dat Taleb heeft geclaimd als het zijne, het land van de Black Swan, maar waar ook andere denkers hun licht op hebben laten schijnen.

Jung had gelijk; dankzij Sunstein begrijp ik Taleb en het veld van onzekerheidsmanagement beter.  Maar hoe je een ramp voorkomt weet ik nog steeds niet zeker.

Onnodige crisis door fraude of wanbeleid

Leestijd: 8 minuten

De onnodige crisis roept een bedrijf volledig over zichzelf af. Door fraude, het overtreden van regels of verkeerde overnames. Niet zelden is er tegelijkertijd sprake van te grote ego’s en wanbeleid. Maar ook onnodige crises moeten gemanaged worden en dat gaat soms anders dan regulier crisismanagement. Alhoewel het net zoals bij reguliere crises altijd begint met situation awareness en het organiseren van voldoende opties. Dus misschien is het toch niet zo heel erg anders; just don’t be the turkey.

Al jaren volg ik de lotgevallen van Gerard Sanderink, een vermogend ondernemer die onder andere eigenaar is van Oranjewoud, Strukton en Centric. Nadat hij een relatie had gekregen met Rian van Rijbroek, in de media veelal aangeduid als ‘de zelfbenoemde cyberexpert’, ging er opeens van alles mis in die bedrijven. Ruzies, opstappende MT’s en ongerustheid bij klanten over de continuïteit van de dienstverlening.

In alle gevallen was er sprake van een onnodige crisis, veroorzaakt door het eigen handelen van Sanderink en Van Rijbroek. Misschien niet direct van het kaliber Zwarte Eend, maar toch op z’n minst wel een gevalletje ‘tot crisis gemaakt’.

Door Zonnekoningengedrag.

Ik weet nog dat ik eens op een workshop over crisismanagement was, een paar jaar geleden. Veel brandweer en politie aldaar, met spannende verhalen over branden, gijzelingen en rampen. Aan tafel zat ook een vertegenwoordiger van een politieke partij, die zich in eerste instantie wat op de vlakte hield. “Wij maken niet van dat soort crises mee”, zei hij, “het is allemaal veel kleiner.”

Nachtmerrie

Maar na enig aandringen vertelde hij toch over de grootste nachtmerrie van zijn partij: bestuurders en kandidaat-bestuurders die hebben gelogen over zichzelf en/of kwesties waar ze bij betrokken bewaren. Met als goede tweede de partijgenoten die op elkaar gaan jagen en de vuile was buiten hangen. Bijzonder lastig te managen als het eenmaal zover is. Zonnekoningengedrag manifesteert zich namelijk pas als iemand de macht heeft en voor die tijd is het vrijwel niet te herkennen.

Als op het randje over het randje wordt. Interpretatie van DALL-E

Maar het is wel een onnodige crisis.

Bij Centric is Sanderink inmiddels van de troon gehaald door de Ondernemingskamer, een uitzonderlijk besluit. De raadsheren twijfelden of hij nog in staat was rationele beslissingen te nemen over een bedrijf met veel grote belangrijke klanten als de overheid, ASML, De Nederlandse Bank en daarnaast nog eens 2500 werknemers.

Als vervanger werd Peter Wakkie benoemd. Die wordt wel vaker opgetrommeld als bedrijven zich in een benarde positie bevinden. Zoals indertijd bij Ahold, TomTom, ABN Amro en Zed+. Vaak door fraude of wanbeleid, maar ook bij internationale compliance problemen en aansprakelijkheidskwesties. Veelal onbedoelde effecten van bewust beleid; wat op het randje was gaat er dan opeens overheen.

Oeps.

Een onnodige crisis, maar daarom niet minder klein.

Wakkie managet dat soort crises met een advocatenbril. Da’s een andere bril dan die van mij. Juist daarom is het interessant om te zien hoe hij te werk gaat. Ik duinde dus eens wat gras en destilleerde daaruit dit rijtje aandachtspunten. Om het eens van een andere kant te bekijken.

Onnodige crisis

Niet dat daarmee andere tips en werkwijzen opeens onwaar zijn geworden. Zie het meer als een optie, een mogelijkheid. Voor in de toolbox, als je een onnodige crisis tegenkomt. Hoe meer opties je hebt, hoe minder fragiel je wordt.

Volgens Wakkie zijn er diverse soorten crises:

Je hebt de financiële crisis, waarbij het bedrijf er slecht voor staat, convenanten met banken worden geschonden en er liquiditeitsproblemen zijn. Meestal kun je zo’n crisis wel op tijd zien aankomen. Dan heb je de internationale crisis vanwege een schending van sanctiewetgeving, een Liborkwestie, of corruptie dan wel fraude in het buitenland. Een ander soort crisis ontstaat als activistische aandeelhouders een bedrijf willen opsplitsen. En je hebt crises die heel erg sectorgebonden zijn. Een lekkage in de golf van Mexico zal een softwarebedrijf niet snel overkomen.

Die sectorgebonden crises vormen de hoofdmoot van deze website. Over die andere drie heb ik het een enkele keer gehad, zoals hier over de sjoemelsoftware van VW. En nu weer

Het type crises waar Wakkie het voornamelijk over heeft liggen allemaal op het gebied van compliance, frauduleus handelen en license to operate. Die noem ik onnodig; als je je aan de wet houdt zullen ze je niet overkomen. Desalniettemin is het een crisis en die moet wel bestreden worden. Houd er rekening mee dat dat trouwens lang kan duren. Het kost zomaar vier jaar om over een fraudezaak heen te komen.

Het rijtje van Wakkie

Het rijtje van Wakkie is een serie tips die passen bij het type crisis die Wakkie hierboven heeft genoemd. Hij heeft het niet letterlijk allemaal precies zo gezegd; het is een samenvatting uit diverse interviews die er in de loop der jaren verschenen zijn, met zo hier en daar een aanvulling. Voor een handboek Wakkie teken ik ongezien in, maar omdat die niet bestaat moeten we het voorlopig met onderstaande punten doen.

Kalkoenen achtervolgd door bankiers, Andy Warhol style. Interpretatie DALL-E
  • Bereid je voor. Het is een illusie om te denken dat er nooit iets zal gebeuren op het gebied van fraude en compliance in jouw bedrijf. (Denk aan de Regel van Hermans!). Wet- en regelgeving wordt steeds complexer, waardoor je die ook eerder kunt overtreden. Helemaal bij internationaal opererende ondernemingen. Ga daar heen. Kijk hoe men in die vestigingen werkt, of er loyaliteit is, of mensen klagen, of ze de beloning acceptabel vinden. Zoek uit waar de sancties het zwaarste zijn en waar een eventueel falen het ernstigst is, de grootste consequenties hebben. Simuleer dat soort scenario’s in trainingen. Wat als je onvriendelijk wordt overgenomen door een concurrent, wat als je een frauderend bedrijf in Amerika hebt gekocht, wat als je topman wordt ontvoerd tijdens een buitenlandse reis en de aandelenkoers daardoor sterk daalt? Wat als YouToo?
  • Communicatie. Wees terughoudend in je communicatie zolang je niet weet wat er aan de hand is. ‘Zeg dat je het serieus neemt, dat je grondig onderzoek doet, dat je meewerkt met de autoriteiten. En verder niks.’ Beken ook geen schuld, want dat kost je gelijk claims. Van vroegtijdige verklaringen krijg je altijd spijt als het dossier zich verder ontrolt en er nieuwe feiten boven tafel komen die eerdere verklaringen tegenspreken. Dat ondermijnt het vertrouwen nog verder. Al helemaal als er verschillende kwesties tegelijk spelen. Voor je het weet zit je dan in een polycrisis. Let er tot slot op dat degene die communiceert begrijpt waar het over gaat, inhoudelijk deskundig is. Miscommunicatie is veelal de oorzaak van allerlei ellende in het crisismanagement.
  • Excuses. Als je toch excuses wilt of moet aanbieden, laat het dan door je CEO doen en niet een onderdirecteur of iemand van Communicatie. Soms zijn excuses een eis van de toezichthouder in een schikking. De CEO is voor hen het gezicht van het bedrijf en dan wekt het de indruk dat de kwestie serieus wordt aangepakt. Dat is belangrijk voor het vertrouwen, niet alleen voor die van de publieke opinie en toezichthouders, maar ook die van aandeelhouders. Koersverlies op aandelen kan namelijk veel geld laten verdampen en een keten aan andere financiële consequenties veroorzaken.
  • Cash. Cashflow is het belangrijkste middel dat een bedrijf in een financiële crisis nodig heeft. Cash om schikkingen te treffen, je productie op orde te houden, schulden en leningen te financieren, leveranciers te betalen, rechtszaken te voeren, enzovoorts. Zonder cash val je gewoon om, zoals eerder bleek bij Imtech in 2015. Daar weigerden banken nog verder te financieren omdat ze er geen vertrouwen meer in hadden.
  • Crisisteam. Zorg voor een klein team dat snel besluiten kan nemen en wendbaar is in zijn activiteiten. Formeer dat team rondom de CEO. Daarnaast de CFO, een commissaris, iemand van de communicatieafdeling en het hoofd juridische zaken. Die vijf moeten het doen. Zeker de bedrijfsjuristen moeten goed zijn aangesloten, al helemaal als je crisis deels in het buitenland plaatsvindt. “Het procesrisico in Amerika valt niet te onderschatten. Daar hebben we in Europa maar weinig weet van.” Waak er ook voor dat de externe advocaten de boel niet overnemen en houd ze uit de buurt van de commissarissen als het crisisteam er niet bij is.
  • Onderzoek. Laat intern onderzoek verrichten door een advocaat. Die hoeft niet alle gegevens met de autoriteiten te delen. Maak van tevoren duidelijk wie het hele rapport te zien krijgen en wie alleen de conclusies. Slachtoffer geen eigen mensen, want er moet vertrouwen blijven bestaan in het management. Als de overheid ook onderzoek gaat doen dan kan het lang gaan duren. Ondertussen moet het bedrijf wel gewoon door kunnen, dus regel je license to operate met de toezichthouder. En verander je bedrijf niet van naam. In de pers wordt je dan tot in lengte van dagen toch met de oude naam geconfronteerd en daarmee komt het vertrouwen niet echt terug.
  • Denk na. Tijdens een crisis moet je rationeel blijven, het probleem beheersbaar zien te krijgen. Psychologie is dan heel belangrijk. Hoe zitten je mensen in het bedrijf in elkaar, hoe zitten de teams in elkaar; is er vertrouwen, loyaliteit? Je moet blijven nadenken, dat is misschien wel het moeilijkste wat er is. Iedereen wil altijd direct in de actiestand, want dan denk je dat je iets nuttigs aan het doen bent. Maar vaak is dat helemaal niet waar. Als je nadenkt, kun je ook besluiten om dingen juist níet te doen. Of op een ander moment. Nadenken is ook timen. En tijd nemen, want voorlopig ben je er toch nog niet vanaf.

Leef na of leg uit

Naar aanleiding van diverse fraudezaken is in Nederland de code Tabaksblat opgesteld voor beursgenoteerde bedrijven omtrent hun corporate governance. Daar zitten regels in die de kans op fraude moeten verkleinen. Voor deze code geldt ‘leef na of leg uit’.

Onnodige crisis
Nicholas Taleb die een kalkoen achtervolgt. Interpretatie van DALL-E

In meerdere sectoren worden inmiddels de regels steeds strakker getrokken, zoals de witwasregels bij banken. Dat er hierdoor meer fraudezaken aan het licht zullen komen is onvermijdelijk. Wie regels zaait, zal overtredingen oogsten. Maar als je systemen niet wilt laten ontsporen zul je ze moeten reguleren, om excessen te voorkomen. Niets doen is geen optie.

Hierdoor ontstaat een interessante paradox. Door het aantrekken van regels om fraude en een onnodige crisis te voorkomen is de kans juist groter geworden dat die crises zich daadwerkelijk gaan voordoen. Met wel als mogelijk voordeel dat de fraude of non-compliancy eerder wordt ontdekt en de schade zodoende beter beheersbaar blijft.

Dat een crisis onnodig is, maakt het dus niet persé onmogelijk. In die zin is het ook gewoon een crisis als alle andere: één van de dreigingen voor je strategische doelen of zelfs levensvatbaarheid van je organisatie. Als het goed is heb je dat door een goede corporate governance al in de gaten voor de crisis zich ontrolt en kan er geen sprake zijn van een Black Swan.

Of zoals Taleb het zei: don’t be the turkey. En anders kun je altijd nog je boot verkopen.


Over fraude en onnodige crises schreef ik eerder al dit blog over de sjoemelsoftware van VW. Ook gerelateerd hieraan is het verhaal over het vulnerable system syndrom, verraad en vergiftiging en Insider risk, door slordigheid crisis.

Crisis door georganiseerde onverantwoordelijkheid

Leestijd: 5 minuten

Georganiseerde onverantwoordelijkheid is een fenomeen waarbij het directe causaal verband tussen de veroorzakers van risico’s en de gedupeerden is verbroken door een fijnmazig netwerk van instanties en regels. Niemand blijkt verantwoordelijk, de vervuiler betaalt niets. Het is de opmaat naar crisis omdat georganiseerde onverantwoordelijkheid het vertrouwen in het gezag ondermijnt.

In gevarenkwesties is niemand een expert – vooral de experts niet

ulrich beck

De rechtbank van Den Haag oordeelde in september 2022 dat omwonenden van megastallen recht hebben op een schadevergoeding, omdat de overheid hen onvoldoende beschermt tegen extreme stankoverlast. Weliswaar hadden de stallen een valide vergunning, maar de voorwaarden van de vergunning overtreden de rechten van de mens, zo oordeelde de rechter.

Dat komt onder andere omdat de geurbelastingnorm uitgaat van een gemiddelde, niet van een piek. Kleine kuikens stinken niet heel erg, maar de kippen aan het eind van hun levenscyclus wel. Daardoor komt de uitstoot ver uit boven wat normaliter toe wordt gestaan.

Bovendien overlappen de geurcontouren van de stallen elkaar en versterken daarmee de stank. Die stapeleffecten worden in de wet niet genoemd. Iets soortgelijks geldt voor industriegebieden, waar elke installatie op zichzelf voldoet aan de risiconormering, maar waar alle risico’s bij elkaar opgeteld niet als ‘stapelrisico’ genormeerd worden. Ook dat zou je kunnen zien als een opteleffect dat het actuele risico vele malen groter maakt dan het papier suggereert.

Volgens DALL-E is dit een gekke koe (met BSE) op de gracht in Amsterdam, Rembrandt stijl.

Dit zijn niet de enige voorbeelden van grote risico’s met onbedoelde effecten. In de afgelopen jaren was er een BSE-crisis, Q koorts en vogelgriep. We hadden SARS, MERS en Mexicaanse griep. Nick Leeson sloopte eerst de Baringsbank en daarna sloopten de banken zichzelf met ondoorzichtige hypotheekconstructies. En zo kan ik nog wel even doorgaan.

Manufactured Risks

Wat al deze risicogroepen gemeen hebben is dat ze veroorzaakt worden door een alsmaar groeiend industrieel complex dat zo ingewikkeld en groot wordt dat eigenlijk niemand het meer goed kan bevatten. Toezicht schiet bij voorbaat tekort, niet alleen in volume maar ook in deskundigheid.

Het zijn manufactured risks, schreef de Britse socioloog Anthony Giddens daarover in zijn artikel ‘Risk and Responsibility.’ Gemaakte risico’s dus, door activiteiten van mensen.

Manufactured risk is risk created by the very progression of human development, especially by the progression of science and technology. Manufactured risk refers to new risk environments for which history provides us with very little previous experience. We often don’t really know what the risks are, let alone how to calculate them accurately in terms of probability tables

anthony giddens

Ook Taleb mengde zich al eens in de discussie over gemaakte risico’s. Zijn belangrijkste stelling is dat je (nog) onbegrepen risico’s niet in het wild los zou moeten laten. Volgens hem is kernenergie geen probleem, want daarvan weten we precies wat het doet en hoe we het moeten beheersen.

Anders is het gesteld met DNA recombinatie- en nanotechnologie. De effecten daarvan zijn nog zo onvoorspelbaar dat je ze eigenlijk alleen in gecontroleerde omgevingen kan onderzoeken, betoogt Taleb. Alleen volgen veel experts zijn redenering niet en rekenen ze bijzonder kleine kansen toe aan extreme effecten. Wie heeft er dan gelijk? (Ik denk Taleb)

Ulrich Beck ziet dit soort discussies over ‘gemaakte risico’s’ als de basis van wat hij risicomaatschappij noemt. Kenmerkend daarvoor is dat conflicten uitbreken over de definitie van risico’s, omdat diegene die bepaalt wat het risico is, ook bepaalt welke interventies er nodig zijn, waar de verantwoordelijkheid ligt en wie ervoor aansprakelijk gehouden kan worden.

Nanodeeltjes op reis door de natuur over onbekend pad. Volgens DALL-E

En dat is precies waar het om draait bij manufactured risks: wie is verantwoordelijk voor de (onbedoelde) effecten ervan? Oftewel, wie is verantwoordelijk voor de stank van de vergunde megastallen? Wie moet de PFAS opruimen? Is Shell verantwoordelijk voor de CO2 uitstoot, of de automobilist? De autofabrikant? De wetgever?

Georganiseerde Onverantwoordelijkheid

Deze onduidelijkheid is wat georganiseerde onverantwoordelijkheid wordt genoemd: een loskoppeling van de directe relatie tussen de veroorzaker van een risico en de gedupeerde(n). Wie betaalt de compensatie van alle mensen die Long Covid hebben gekregen? Van de mensen met Q koorts? Van het klimaat?

Tooze schrijft in Shutdown dat het eigenlijk vreemd is dat we op Corona keihard, bijna militair, gereageerd hebben, met alle schade van dien, maar dat de bronnen van het risico ongemoeid zijn gelaten.

We kunnen ons maar al te goed een wereldwijde uitbraak van een ebola-achtige ziekte voorstellen, of van een extreem besmettelijk influenzavirus met de morbiditeit van de Spaanse griep. Toch is men niet bereid fundamentele veranderingen in onze voedselketens of transportsystemen door te voeren

adam tooze

Ook dat is georganiseerde onverantwoordelijkheid; niet ingrijpen waar dat wel logisch lijkt.

Volgens Tooze leidt georganiseerde onverantwoordelijkheid daarom tot overbodige sociaaleconomische schade, maar ondermijnt het daarnaast ook het gezag van de zittende machthebbers.

Het veroorzaakt politieke crises, gedoe met experts over de schade van manufactured risks en maatschappelijk onbegrip over de besluiteloosheid rondom grote dossiers als klimaat, gaswinning in Groningen en toeslagenaffaire.

Georganiseerde onverantwoordelijkheid leidt tot polycrisis, impliceert Tooze in hoofdstuk 1 van Shutdown. Maar lang voor hem hadden Beck en Giddens dat al voorspeld. Alleen is er toen niet zo goed geluisterd. Zou dat nu anders gaan?


Dit is het tweede blog in een serie over het boek ‘Shutdown’ van Adam Tooze. De eerste ging over polycrisis. Georganiseerde onverantwoordelijkheid raakt bovendien aan diverse andere blogs op deze site. Bijvoorbeeld die over organized blindness, fundamental risk en kan de overheid crises aan?

De Nieuwe Wet van Murphy

Leestijd: 8 minuten

Van de Wet van Murphy had ik ooit geleerd dat alles wat mis kan gaan, ook mis zal gaan. Er sprak desondanks een bepaalde geruststelling uit; als het niet mis kan gaan, gaat het goed. Tot ik las over de Regel van W.F. Hermans: Alles wat niet mis kan gaan, zal ook mis gaan. Dat verandert de zaak nogal.

De eerste aanvulling op dit blog is van 2 maart 2023 en vind je onderaan

Ergens op een verlaten plankje in de boekenkast staat een onooglijke uitgave van Arthur Bloch. Murphy’s Law heet het, en het gaat, je raadt het al, over de Wet van Murphy.

Deze dus;  “alles wat mis kan gaan zal ook mis gaan.”

Some of your decisions are going to be mistakes. You have to make them anyway.

Picard Management Tip

Het is niet een boekje dat je echt leest, hooguit scan je het, op zoek naar de leukste vondsten. Of je pakt het erbij als je een blog schrijft over de Wet van Murphy. Allebei kan natuurlijk ook. Dan krijg je een rijtje zoals deze, met een paar voorbeelden die ik uit het boekje van Bloch scande:

  • Murphy’s Wet van Crisis; Je zit in een crisis als je niet kan zeggen: zand erover.
  • De Wet van Patton; Een goed plan vandaag is beter dan een perfect plan morgen.
  • De Wet van Sweeney; De lengte van een voortgangsrapportage is omgekeerd evenredig aan de voortgang.
  • De Wet van Smith; Geen enkel werkelijk probleem heeft een oplossing
  • De Wet van Hoare; In ieder groot probleem zit een klein probleem dat zich naar buiten vecht
  • De Thermodynamische Wet van Murphy; De dingen worden onder druk nog erger

Wet van Murphy

De Wet van Murphy is in de praktijk een soort onbewuste onderlegger bij risicoanalyses en scenariodenken. Daarmee zoeken we naar de dingen waarvan we denken dat ze mis kunnen gaan, zodat we maatregelen kunnen nemen om het niet mis te laten gaan, om het te beheersen. Te voorkomen, te beperken, te bestrijden of op te ruimen.

In de loop der tijden zijn er steeds meer professionele tools ontwikkeld voor risicoanalyse en scenariodenken. Denk maar aan Hazops, Vlinderdassen en FMECA. Er zijn er vast veel meer, ik ben er niet erg meer in thuis. Mijn carrière ontwikkelde zich in een andere richting.

Nieuwe Wet van Murphy

Maar één ding weet ik wel en dat hebben alle tools gemeen; het zijn altijd de deskundigen van een bedrijf die de risico’s aandragen.

Die deskundigen zijn meestal ook echt deskundig. Zij weten wat er mis kan gaan in jouw bedrijf of organisatie. Dankzij jarenlange ervaring en vaak ook relevante opleidingen leveren ze de benodigde informatie moeiteloos aan. Ik deed het zelf ook regelmatig. Precies conform de Wet van Murphy inventariseer je alles wat mis kan gaan. Want eens zal dat misgaan, is het niet nu dan ergens in een miljoen jaar.

En dat stoppen we in een lijst, een tool, een programma. Wat overblijft is discussie over kans en effect. Daar schreef ik al eerder over in deze blogs over Geelwassen en Risicomanagement.

Regel van Hermans

Daarmee was het tot voor kort klaar, volgens mij. Tot ik op een onbewaakt ogenblik tegen een column van Michel Krielaars in het NRC aanliep. Hij vertelde over de presentatie van het laatste deel van de verzamelde werken van W.F. Hermans en het boekje dat speciaal ter ere daarvan werd uitgereikt.

Bas Godska, ik ken hem verder niet, had daar volgens Krielaars ook een stukje in geschreven. Godska had ooit als scholier contact gelegd met Hermans en ze waren elkaar daarna blijven schrijven tot Hermans overleed. Kennelijk was Godska daarna geëmigreerd.

Zevenentwintig jaar later schrijft Godska Hermans postuum hoe hij kort voor de Russische invasie in Oekraïne zijn huis bij Kiev heeft verlaten met alleen hun briefwisseling op zak. De oorlog doet hem beseffen dat Hermans’ lessen over beschaving en chaos nooit eerder zo toepasselijk zijn geweest als nu. En dan schrijft Godska tot slot: ‘Maar je regel dat alles wat niet mis kan gaan ook misgaat, blijft geldig.’

Michel Krielaars

Alles wat niet mis kan gaan, zal ook mis gaan; dat is dus de Regel van W.F. Hermans.

Tunnelvisie

Wat er dan gebeurt in mijn hoofd.

W.F. Hermans probeert zijn nieuwe camera uit, 1985. Foto Rob Croes ANP

Als eerste sprong mijn tunnelvisie alert aan na het lezen van Krielaars’ column. Alles wat niet mis kan gaan is nooit input van risicoanalyses. Daar wordt niet naar gekeken en feitelijk is het dus een omissie, een blinde vlek.

Ten tweede ging het Taleb lampje branden. Was dit niet een andere formulering van een Black Swan? Een unknown known? Mogelijk zelfs een fundamental surprise dan wel een fundamental risk? Kan je tunnelvisie hebben voor tunnelvisie; dat je zo in een tunnel zit, dat je niet ziet dat je in een tunnel zit?

Ten derde, wat gaat er op het moment toch allemaal mis wat niet mis kon gaan? Betaalbare energie. Arbeidsmarkttekorten. Hyperinflatie. Drinkwatertekorten. Om er maar eens een paar te noemen.

En wachtrijen voor van alles. Dat alles in een half jaar. Tot eind februari 2022 leefden we nog in een lockdown.

Hypocognitie is geintroduceerd door de antropoloog Robert Levy en sluit aan op de Sapir Whorf hypothese. Het betekent dat je geen linguistische of taalkundige representatie hebt voor een object, een situatie of een idee. Dat kan er toe leiden dat je een unknown unknown ervaart (situation awareness level nul) ofwel dat je iets ziet maar het niet kunt benoemen omdat je er geen woorden voor hebt. Of dat je aan het dunning kruger syndroom lijdt, dat kan ook nog.

De Nieuwe Wet van Murphy

Hermans heeft gelijk.

Het kon niet anders, zo bedacht ik mij verder, dan dat we de input voor risicoanalyses moeten aanpassen. Niet alleen moeten we kijken naar wat er mis kan gaan, we moeten ook kijken naar wat er niet mis kan gaan. Met andere woorden, kijk eerst in je tunnel en daarna nog eens heel goed buiten je tunnel. Want daar zitten je grootste risico’s.

Wat we ook moeten doen is de Wet van Murphy combineren met de Regel van Hermans tot De Nieuwe Wet van Murphy. Want nu weten we dat alles mis kan gaan, alleen nog niet wanneer. Of eigenlijk weten we dat wel: altijd als het slecht uitkomt.

Alles zal misgaan en altijd op het verkeerde moment.

Dat is de Nieuwe Wet van Murphy.

Update 2 maart 2023: Lessen uit B&B

Op 1 maart 2023 publiceerde de Onderzoeksraad voor Veiligheid (OvV) het onderzoek Bewaken en Beveiligen: lessen uit drie beveiligingssituaties. Het is een uitgebreid rapport dat ingaat op wat er allemaal fout ging in de beveiliging van drie personen die betrokken waren bij het Marengoproces. Eén van hen was Peter R. de Vries.

Veel van wat de OvV beschrijft past naadloos in de Nieuwe Wet van Murphy: alles zal mis gaan en altijd op het verkeerde moment. De oorzaken van dat falen zie je ook terug in dit verhaal over de Predictable Surprise; door een combinatie van cognitieve, organisatorische en politieke factoren wordt een systeem zo fragiel, dat een ongewenste gebeurtenis voorspelbaar wordt.

Je creëert gewoon je eigen Black Swan.

Eén van de zaken die mij het meeste trof was een passage over omgaan met onzekerheid en de reactie daarop van de baas van het OM, Gerrit van der Burg. Eerst de conclusie van pagina 115 uit het rapport:

Nou weet iedere crisismanager dat aannames gevaarlijk zijn. Het is namelijk altijd onzeker of ze waar zijn of niet. Aannames moet je dus altijd checken, roep ik tijdens trainingen. Waarbij we tegelijkertijd moeten beseffen dat aannames hardnekkige processen zijn waar iedereen in kan stinken. Vroeg of laat maak je gewoon een verkeerde inschatting , meestal heb je het zelf niet eens door.

Maar als je weet dat mensen kwetsbaar zijn in het hanteren van hun veronderstellingen, kun je als organisatie ook maatregelen treffen. Dat je die verkeerde inschatting dus niet maakt. En als het toch gebeurt, dat je het toegeeft. Want na zo’n fout moet je ook weer verder met elkaar.

De aannames uit de conclusie van de OvV zijn van een ander niveau, een soort van double loop verkeerde aannames, waarover ik toevallig eind februari een kattebelletje naar mezelf had gestuurd als update voor dit blog.

Kan het echt niet gebeuren of denk je alleen maar dat het niet kan gebeuren? Ben jij de enige die dit denkt of doet de hele organisatie dat? That’s the question

In de kern is die vraag de Regel van Hermans: ook dat wat niet mis kan gaan, zal mis gaan. Zodoende raak ik er steeds meer van overtuigd dat je aannames niet alleen moet gebruiken als begrenzing van je beeldvorming, maar ook als escalatie: wat als het erger wordt dan je aannemelijk vindt?

En sla zo’n discussie niet gelijk stuk met opmerkingen over kans. Het gaat er niet om of het kan gebeuren, maar wat je doet als het wel gebeurt.

Dan naar Van der Burg. In het NRC van 1 maart geeft hij antwoord op een paar vragen. Daaruit pikte ik deze vraag van de journalist:

De Onderzoeksraad concludeert dat de gevaren te voorzien waren. Dat het OM alle signalen, die er wel degelijk waren, negeerde of door miscommunicatie heeft gemist.” Daarop zegt Van der Burg het volgende.

‘Achteraf kun je natuurlijk zeggen dat er gebeurtenissen zijn geweest die een voorspellende waarde hebben gehad. Maar ik vind het wel belangrijk om het in de context van toen te plaatsen. Het was nog nooit gebeurd dat de broer van een kroongetuige werd vermoord.’

gerrit van der burg

Het was nog nooit gebeurd, dus we namen aan dat het nu ook niet zo gebeuren, dat is wat de baas van het OM hier durft te zeggen. Waarschijnlijk meent ie het nog ook. Tip aan alle boeven: pleeg een misdaad die hier in Nederland nog nooit gebeurd is. Het OM zal ze in ieder geval niet ontdekken.

Veel duidelijker dan dit zal je een fundamental surprise niet aantreffen.

Overigens bleek vandaag dat de Britse veiligheidsdienst MI5 ook vele signalen gemist had om de bomaanslag in Manchester tijdens een concert van Ariane Grande te voorzien en te voorkomen. Maar die directeur gaf wel toe dat ze fouten hadden gemaakt en verstopte zich niet achter het met-de-kennis-van-nu syndroom.

Hij ontkende het probleem niet. Dat geeft in ieder geval hoop op verbetering.

Nou hier nog.

Geelwassen

Leestijd: 3 minuten

Geelwassen is de concrete handeling om rode risico’s te verzachten, geel te wassen dus. Daardoor drijft een systeem langzaam richting onveiligheid en wordt het fragiel, zonder dat het wordt opgemerkt. En creëer je je eigen fundamental surprise.

Kan je het je nog herinneren, de eerste keer dat iemand je uitlegde dat er een formule bestond voor risico? Risico is kans maal effect. Walter schreef het op het bord, het was in een klein zaaltje ergens in Utrecht. R = K x E stond er en opeens ging het licht aan. Dat was nog eens een handig instrument.

Toch riep het wel allemaal vragen bij mij op over validiteit. Hoe ken je een getal toe aan een kans of een effect? Is kans dan gebaseerd op frequentie of op waarschijnlijkheid? Frequentie kun je uitrekenen, maar waarschijnlijkheid, was dat niet gewoon een gok? Weliswaar gebaseerd op expert judgement, maar hoe weet ik wat een expert is? Hoe bepaal je de kans van datgene wat je niet weet?

Het ene risicogetal is dus nog zomaar het andere niet, zoveel werd mij wel duidelijk. Maar ach, met het relative ranking model kreeg je een rijtje waar in ieder geval het grootste risico bovenaan stond. Daar kon je al best mee uit de voeten. En een mogelijk validiteitsprobleem gold voor alle risico’s in het rijtje hetzelfde, dus echt heel veel kwaad kon het ook weer niet.

Aan de slag! Veilig maken die hap.

Geelwassen
Geelwassen. Tekening Wendy Kiel

Dit was allemaal eind jaren negentig. Soms denk ik er nog wel eens aan terug, hoe veel makkelijker het toen was om een risicoanalyse op te stellen en daarna gewoon aan de slag te gaan. Want inmiddels is er van alles aan die simpele formule toegevoegd. Er kwamen risicomatrices, waarop de risico’s gescoord moesten worden. Dat wekte de indruk dat risico’s opeens absoluut waren geworden, in plaats van relatief. Waardoor dat validiteitsprobleem naar mijn mening alleen nog maar groter was geworden.

Plus dat alles in die heppiedepeppie management newspeak kleurtjes werd gegoten. De complexe werkelijkheid teruggebracht tot drie categorieën.

Groen, geel en rood; OK, misschien OK en niet OK.

Afdrijvende veiligheid

Ik denk dat daar het geelwassen is begonnen. Want die categorie rood, daar was het management nogal allergisch voor. Kon dat niet anders? Door er een kleinere waarschijnlijkheid aan toe te kennen?  Van bijvoorbeeld 10-6  naar 10-8 of zo, dat was allebei heel klein en dan werd het rode risico geel, donkergeel.

Of de criteria voor de matrix, misschien moesten die maar eens geëvalueerd worden. Oh, heet dat ook geelwassen? Rode risico’s geel maken? Waar staat dan dat dat niet mag?

Op zichzelf is het misschien niet eens zo’n probleem om van een lichtrood risico een keer iets donkergeels te maken. Dat hangt natuurlijk ook sterk van het betreffende risico dan wel kwetsbaarheid af. Nee, het grote gevaar is dat je met geelwassen je systeem corrumpeert als je teveel rode risico’s geel wast. Dan lijkt je systeem als geheel met al die groene en gele KPI’s redelijk op orde, terwijl er in werkelijkheid veel meer rode risico’s in zitten. Die niemand ziet.

Zo creëer je je eigen fundamental surprise.

Of zoals Sidney Dekker het noemt, drifting into failure, de normalisatie van afwijkingen. En Patrick Hudson formuleerde in dat verband ooit de regel van drie, drie keer geel is rood.

Ik voeg hier nu geelwassen aan toe. Niet als nieuw construct, maar als een hele concrete handeling die velen misschien niet herkennen als afdrijvende veiligheid, maar het wel is.

En zo ging het licht langzaam weer uit.


Dit blog verscheen onder de titel yellow washing in de NVVK Info 2022-2. Eerdere blogs over veiligheid en risicomanagement vind je hier. Speciaal aanbevolen zijn deze twee: Hoe risicomanagement kan leiden tot een fundamental surprise en Sturen we op kans of op effect bij risicosturing?

« Oudere berichten

© 2024 Rizoomes

Thema gemaakt door Anders NorenBoven ↑