Wanderings in crisis

Tag: Black Swan (Pagina 1 van 4)

Een Black Swan is een onvoorspelbare gebeurtenis met een enorme impact die pas achteraf verklaard kan worden. Het is in één zin de falsificatie van je risicomanagement, voornamelijk veroorzaakt door wat je niet weet. Ook belangrijk: het is een relatief begrip. Als je meer weet, is de kans erop kleiner en/of de impact kleiner.
De essentie van de Black Swan vind je in het onderzoeken van de kwetsbaarheid van je organisatie. Black Swans hebben te maken met verwachtingspatronen. Je wordt verrast omdat je ze niet verwacht. Dat vraagt om onderzoek naar jouw verwachtingspatronen en verrassingen. Wat dit punt ook betekent: een Black Swan is niet voor iedereen hetzelfde. What normal is for the spider, is chaos for the fly.
Zorgwekkend is dat we er niet altijd bewust van zijn. Voor crisismanagement is het dus van belang te weten wat je gaat doen als er iets gebeurt wat je niet verwacht. Situation Awareness is daarbij van groot belang.
De meest essentiële vraag die je aan jezelf moet stellen is: waar heb ik het mis? Waar laat ik me door mijn zelfverzekerdheid om de tuin leiden? Als ik heb geleerd dat alles een normaalverdeling is, hoe laat ik die gedachte dan los? Als ik heb geleerd dat je altijd de deur moet dicht houden bij brand, wanneer weet ik dan dat het soms beter is om het niet te doen? Hoe weet ik dat dit een uitzondering is die de regel niet bevestigt?

Tien jaar Rizoomes; over resilience en kintsugi

Leestijd: 11 minuten

Tien jaar Rizoomes vraagt om een reflectie die verder gaat dan hoeveel lezers er zijn geweest, zo had ik bedacht. Laat het een associatief verhaal zijn, een rizomatisch essay over crisis en resilience. Gewoon ergens beginnen en kijken hoe het eindigt. En dat is het geworden.

Tien jaar Rizoomes had me in een denkproces gebracht waar eerlijk gezegd niet zo heel veel uitkwam in het begin. Ik had me voorgenomen een jubileumblog te schrijven met een reflectie op de website en de wereld (of zo), maar het bleef akelig stil in de hersenpan. Er kwamen geen grote gedachten uit, noch verrassende vergezichten.

Zou het op zijn? Was ik uitgedacht?

Wat riep Kamagurka daar ook al weer over in Zomergasten? Zoek continu je writersblock op en breek daar doorheen. Of zoals de stoicijnen dan zeggen, ‘the obstacle on the path becomes the path.’

Kamagurka kreeg een vel papier onder zijn neus met de opdracht in twee minuten een filosofische cartoon te tekenen. Het werd een poppetje met een tekstballon ‘ik ben niet getekend.’ Waarop Kamagurka grijnzend vroeg of hij nu naar huis mocht.

Ik bladerde daarom nog maar eens terug naar het stukje over Negen jaar Rizoomes en constateerde dat die eigenlijk gewoon een jaar te vroeg was verschenen. Alles stond er toen al in wat ik nu had kunnen opschrijven. Hooguit had ik niet alle plannen uitgevoerd.

Geen Tien jaar Rizoomes blog dan maar?

Ik gaf het nog niet op. Wat voor werk deed ik ook al weer in 2013? Kon ik daar misschien iets mee? Daarop bekeek ik mijn LinkedIn profiel en ontdekte dat ik toen net aan een nieuwe functie zou beginnen als programmamanager CrisisWise.

Na 17 jaar brandweer en 3 jaar security was dat een nieuwe stap met een heel andere invalshoek. En ontdekte ik weer een heel andere wijze van kijken naar het vak. Sommige risico’s hadden bijvoorbeeld een dader, werden geframed, of bleken onderdeel van een maatschappelijke ontwikkeling, de onderstroom.

Die insteek gaf de reflectie in dit blog opeens een heel andere lading. Wat ik met tien jaar Rizoomes had geleerd was om onder de oppervlakte te kijken. Als ik het heb over business continuity management (BCM), gaat het niet over BCM zelf maar over de keuzes die er aan ten grondlag liggen.

Wanneer ik schrijf over vitale infrastructuur, gaat het niet over electriciteit of gas, maar over een keuze tussen vrijhandel en autonomie, zelfstandigheid. Als ik een artikel lees over het opknappen van oude gebouwen, gaat het me niet om het opknappen maar om de manier waarop je zo’n proces ontwikkelt en vormgeeft.

Bij kintsugi gaat het me niet om aardewerk verfraaien, maar om de filosofie achter de niet-financiële waarde van dat wat er is. Zal ik het respect noemen?

Kortom, tien jaar Rizoomes leerde mij, door kijken, lezen, denken en schrijven dat achter elke oppervlakte iets zit wat je niet direct van de buitenkant kan afleiden.

Lees maar, er staat niet wat er staat

martinus nijhof

Met deze constatering ging ik aan het schrijven en maakte dit blog voor de doorzetters onder ons. Want heel eenvoudig is ie niet geworden. Wendy zei zelfs dat het niet één bruine boterham was, maar een hele stapel. Terwijl ik ook snoepjes had kunnen uitdelen voor tien jaar Rizoomes, makkelijk leesbare verhaaltjes.

Maar ja, dat had ik vorig jaar al gedaan en ook eens met de lessen uit 20 jaar crisismanagement. Dat ging ik dus niet nog eens doen. Dus riemen om, we beginnen met het programma CrisisWise waar ik precies tien jaar geleden aan begon. Vrijwel gelijktijdig met Rizoomes.

Vitale infrastructuur

Het programma CrisisWise had als doel het crisismanagement op de luchthaven te verbeteren, maar ik kwam er al snel achter dat het vooral om business continuity management (BCM) ging. Dat bleek een nogal onontgonnen gebied, al was het maar omdat er nauwelijks wettelijke regelingen over BCM bestaan. Het is toch een zaak van bedrijven zelf, vindt de wetgever, daar bemoeien wij ons niet mee.

Dat is een opstelling die ons als Nederland lelijk is opgebroken in het beleid op de vitale infrastructuur. Niet alleen lopen we gigantisch achter de feiten aan, kijk maar naar het elektriciteitsnet, er zijn ook cruciale componenten in handen gekomen van buitenlandse investeerders. Van onze vitale infra. Zo naïef is dit land helaas wel.

Je ziet dat terugkomen in het complexiteitsprincipe van De Rode Koningin. Om de concurrentie de baas te blijven moet je keihard werken teneinde je marktaandeel te behouden. Maar dat is natuurlijk procentueel. In absolute termen groeit een sector als geheel namelijk wel, in bijvoorbeeld het aantal vliegtuigbewegingen.

De onderlinge verhoudingen tussen de concurrenten veranderen daarbij procentueel niet. Zo blijf je in de (rat)race, met weliswaar een gelijk marktaandeel, maar desondanks is er sprake van een absolute groei. Dat is hoe het systeem werkt. De focus ligt dus op all the running you can do.

Het Rode Koningin effect volgens DALL-E

Daarbij wordt makkelijk vergeten dat hoe groter je wordt, hoe meer assets je krijgt, hoe sneller de bedrijfsvoering gaat en hoe complexer de IT infrastructuur wordt. Dat hele contingent aan bestaande infra moet je natuurlijk ook in topvorm houden, zowel op het gebied van gedrag, techniek als organisatie, om de boel draaiende te houden.

Robuust organiseren, moet je. Of nog beter, antifragiel.

Fragiliteit

Maar laat de boel in geen geval fragiel worden. Want dan stort je systeem zomaar opeens in, zegt het complexiteitsprincipe van De Rode Koningin. Terwijl het altijd zo goed ging, leek het, aan de oppervlakte.

U ziet, na een aarzelend begin kwamen de ideeën steeds meer los; van crisis naar continuïteit en door naar complexiteit (Rode Koningin). En toen naar resilience: voorkom een fragiele organisatie, gedrag en techniek. Plus, voorkom ook een fragiele omgeving van je bedrijf. Want als die complexiteitskloof eenmaal gaat groeien, is er een X-event nodig om het evenwicht te herstellen.

Dat hoeft niet eens een explosie of een gifwolk te zijn. Verontruste burgers met een activistische advocaat zijn wellicht al genoeg om je bedrijf te laten sluiten via een rechtszaak. Om dat op de juiste manier te managen is resilience noodzakelijk. En dat moet je al zijn, resilient, voor je het nodig hebt.

Zou Chemours vorig jaar voorzien hebben dat de zaken er zo voor zouden staan als nu?

Overkomt hen dan nu een fundamental surprise, een X-event of een Black Swan? Of is het allemaal hetzelfde? Ik denk dat laatste; als je geen contact houdt met de werkelijkheid verlies je die langzaam uit het oog en is het voorzienbaar dat het een keer faliekant mis gaat.

De relevance gap van de fundamental surprise.

Ik denk ook dat ik dit nu, na tien jaar Rizoomes, wel doorheb, maar dat had ik in 2013 nog niet. Toen ik startte als programmamanager CrisisWise en gelijktijdig begon te bloggen, had ik in geen velden of wegen kunnen voorspellen dat crisismanagement zich deze kant op zou bewegen.

Je ziet het pas als je het doorhebt. Cruyff zei het al.

Kijken

Dat vraagt dus om waarnemen zonder ego, de dingen echt zien zoals ze zijn en dat niet laten beïnvloeden door wat je er van vindt. Of zoals Anne Lacaton het in de Volkskrant zegt, “transformeren begint met heel goed kijken.”

Lacaton is een Franse architect die gespecialiseerd is in het opknappen van oude woningen en gebouwen. De kunst is om iets moois te maken van wat er al is. “Tekenen op een wit vel papier vind ik niet interessant’, zegt Lacaton. Juist als er iets in de weg staat, slaat haar creatieve brein aan.”

Gebouwen van veertig jaar oud zijn goed genoeg om te herstellen en te transformeren, zo is haar ervaring. Waarom dat vaak niet gebeurt, heeft alles te maken met investeerders. Die willen de grond hebben om de sociale huurwoningen en oude kantoren te slopen en daarvoor dure panden terug te zetten.

Ook er is volgens haar gewoon sprake van luiheid en desinteresse. Zwarte eend gedrag dus.

Sloop nooit, is daarom haar stelling. “Heb je ooit een gebouw opgeblazen zien worden, of de sloopkogel erin zien gaan? Dat is waarschijnlijk het beeld waaraan je denkt bij het woord slopen, niet aan de bewoners die ernaar staan te kijken. Ik heb ze zien huilen.”

Want iemands huis is ook iemands leven.

Dit verhaal van Lacaton lijkt ontzettend veel op wat ik erboven schreef, over marktaandelen en concurrentieverhoudingen; slechts aandacht voor groei en nieuw, niet voor dat wat er al is. Daardoor verzwakt de bestaande infrastructuur en ontstaan er ook op sociaal gebied fragiele wijken. Met ook een groeiende complexiteitskloof tot gevolg.

Het is tevens een illustratie van rizomatisch denken. Kijk naar de overeenkomsten tussen processen en situaties, niet naar de verschillen. Maak inclusief. Connect the dots. Je leert patronen en verbindingen beter herkennen door dat wat verbindt, dan door wat uniek maakt.

Uit dergelijke patronen zijn weer principes af te leiden, die toepasbaar zijn in heel verschillende (crisis)situaties als richtlijn om je besturing en besluitvorming op toe te passen.

De Fundatie in Zwolle is een mooi voorbeeld van een gebouw dat is opgeknapt met een passende uitbreiding op het dak.

Inclusiviteit is dus niet woke, het is veerkrachtig, resilient. Het creëert een grotere variëteit aan gezichtspunten en dus opties. Net als kijken naar kunst je een betere (crisis)manager maakt, doet inclusiviteit dat ook.

Hoe pakt Lacaton dat in de praktijk aan?

Ga allereerst op zoek naar het positieve. ‘Dus niet: waar is er een probleem, want je gaat altijd een probleem vinden dat je er vervolgens van weerhoudt om verder te kijken.

Maak die pluspunten dus inzichtelijk en baseer daar je besluitvorming op. Dus niet alleen op geld. En als het al mooi is, doe je niets. Dan laat je het zoals het is.

Kintsugi

Het artikel over het opknappen van oude gebouwen deed mij heel erg denken aan kintsugi. Dat is een oude Japanse techniek om gebroken aardewerk te repareren met goud. Daardoor krijgt het voorwerp een voortgezet leven, met respect voor wat het al door heeft gemaakt. Het is een viering van de tand des tijds.

Voorbeeld van een Kintsugi Bowl uit het Smithsonian

Kintsugi is onderdeel van de wabi sabi filosofie. Die komt er kort gezegd op neer dat alles vergankelijk is, imperfect en ook nooit af. “Nothing lasts, nothing is finished, and nothing is perfect.” Het is zowel de aanvaarding van dat wat er gebeurt, als respect voor dat wat oud en doorleefd is.  

En dat wat geraakt door een ongewenste gebeurtenis. De brand in de Notre Dame was meer dan een brand in een gebouw alleen, zo twitterde ik tijdens de brand. “Met de kathedraal brandt er niet alleen een gebouw af, maar ook de herinnering van miljoenen mensen die er door de eeuwen heen zijn geweest. Er valt een gat in ons collectief (on)bewustzijn.”

Gelukkig viel dat laatste uiteindelijk mee. Het gebouw bleef grotendeels bewaard en wordt nu hersteld. Tot op het niveau dat ze eiken zijn gaan omhakken die groeiden in de tijd van de laatste aanbouw, zo schreef ik in het blog uit het Museum of Accidents:

Inmiddels is bekend dat de afgebrande torenspits van 96 meter hoog wordt herbouwd conform het ontwerp uit 1859. En dat doen ze niet zomaar een beetje herbouwen. Nee, er is een zoektocht gestart naar zo’n 1000 eiken van tussen de 150 en 200 jaar oud. Om de nieuwbouw zo oud mogelijk te laten lijken. Tegelijkertijd is men aan het speuren naar eeuwenoude stenen die in de twaalfde en dertiende eeuw uit de Parijse ondergrond zijn gehaald. Die willen ze gebruiken om de muren te herstellen.

Ik zeg: dat is nog eens kintsugi voor gebouwen.

Volgende tien jaar Rizoomes

Ik zei het al in de inleiding, dit is een rizomatisch essay dat zoekt naar verbanden, overeenkomsten. Over wat er de afgelopen tien bij Rizoomes is gezien en bedacht. De rode draden die gesponnen zijn tussen de dagelijkse praktijk en de bijzondere afwijkingen, de crises en rampen, zoals verzameld in het Museum of Accidents.

Ook over de connectie tussen kintsugi en resilience. Het opknappen van oude gebouwen, dat wat er al is in zijn kracht zetten en het voorkomen van fragiele systemen door er aandacht voor te hebben en variatie toe te staan.

En niet te vergeten: kijk door de oppervlakkigheid heen. Er staat niet wat er staat. Dus als ik schrijf over vitale infrastructuur, gaat het niet over electriciteit of gas zelf, maar over hoe daar mee om wordt gegaan. Welke keuzes maakt men, tussen vrijhandel en autonomie in? Om maar eens een voorbeeld te geven.

Net zo gaat het niet over het opknappen van oude gebouwen zelf, maar hoe je tegen wijken aankijkt en de sociale infrastructuur die daar mee samenhangt. Kintsugi gaat niet over aardewerk, maar over respect en de omgang met de tand des tijds.

Crises gaan ook niet over de gebeurtenis zelf, maar over hoe mensen met elkaar en gebeurtenissen omgaan; corona was geen black swan, de manier waarop de mensen reageerden wel.

Wat betekent dit rizomatisch essay voor de komende tien jaar Rizoomes?

In de eerste plaats contact houden met de werkelijkheid, zowel die van jou (Prohairesis) als van anderen. Goed kijken of je complexiteitskloof niet groeit (Situation Awareness). Voorkomen dat je wordt verrast door onverwachte gebeurtenissen (Black Swans, Surprise).

En goed nadenken over maatregelen die je kunt nemen om de boel op de rit te houden (Antifragiliteit & Resilience). Daar hoort bij dat je aandacht hebt voor wat er al is, niet alleen voor dat wat nog moet komen.

“Er verandert dus niet zo veel,” concludeerde de Rode Koningin, terwijl ze haar sportschoenen vast aantrok.

“Nee,” zei ik. “Het blijft kijken, lezen en schrijven.”

“En denken, natuurlijk.”

“Nee, dat niet”

De Rode Koningin fronste haar wenkbrauwen terwijl ze de veter van haar schoen strak aantrok.

“Geintje”, antwoordde ik.

De zeven complexiteitsprincipes van Casti

Leestijd: 9 minuten

De complexiteitsprincipes van Casti zijn een hulpmiddel om een inschatting te maken van de complexiteit van een systeem. Het is geen exacte maatstaf, maar het geeft een crisismanager wel inzicht in de fragiliteit van een situatie. En dat zegt dan weer iets over de voorzienbaarheid van een Black Swan of een X-event.

In de Perfecte Ramp betoogt John Casti namelijk dat extreme gebeurtenissen het gevolg zijn van een complexiteitskloof. Naarmate de complexiteit tussen twee systemen verder van elkaar gaat verschillen, ontstaat er een instabiliteit die moet worden gecompenseerd. Door een X-gebeurtenis. In dit blog schreef ik er al eerder over.

Waarop ik me afvroeg: is zo’n kloof meetbaar te maken? Zodat je weet wanneer je moet gaan oppassen?

Zeven vinkjes

Dat nu is een begrijpelijke, maar domme vraag, schrijft Casti. Toen hij eind jaren 90 met complexiteitswetenschap begon stelde hij hem overigens zelf ook. In de decennia daarna bleek het hopeloos naïef om met de blik van de oude wetenschap iets over systemen te vertellen.

Maar dat zijn nu eenmaal de doodlopende wegen die je inslaat tijdens het stadium van vallen en opstaan van iedere nieuwe intellectuele onderneming

john casti

Complexiteit wordt namelijk niet alleen bepaald door de karakteristiek van het doelsysteem zelf, maar ook van de systemen waar het mee interacteert en de generieke context van het geheel. Het is dus zowel situationeel afhankelijk als (in zekere zin) grenzeloos. Waar begint en eindigt een systeem en is dat altijd zo of morgenochtend anders? Geef daar maar eens een getal aan.

Vraag aan DALL-E was een foto van een complex electrisch systeem uit de jaren dertig.

Je kan complexiteit echter wel beschrijven in een aantal principes. Casti noemt er zeven in zijn boek, maar hij zegt er wel bij dat er meer zijn. Met dit rijtje kom je als crisismanager echter al een heel eind.

Zelf zie ik de complexiteitsprincipes als hulpmiddel om je situational awareness te vergroten van level 1 naar 2, van zien naar begrijpen. Doe dat dan niet alsof het een checklist is met zeven vinkjes die je serieel afloopt, maar bezie de gelaagdheid van een situatie met behulp van de principes.

En aanvaard de tegenstrijdigheden, paradoxen en onlogica die je zowel ondanks als dankzij de complexiteitsprincipes kunt ervaren. Zodra je denkt dat je complexiteit kunt pakken met een getal of een lijstje is het weg, maar is het er nog steeds.

Snappie?

Laten we beginnen met emergentie.

1. Emergentie

Elk systeem dat uit verschillende individuen bestaat heeft als geheel een aantal unieke eigenschappen die bij de deelnemers afzonderlijk niet aanwezig zijn. Ze komen namelijk voort uit de interactie tussen de groepsleden. Dat noemen we systemische kenmerken.

Maar die kenmerken liggen niet vast. Afhankelijk van hun samenstelling, de generieke context en de situatie zal een groep voetbalsupporters bijvoorbeeld de ene keer braaf blijven zitten en een andere keer de boel op stelten zetten. Dat is nauwelijks vooraf te voorspellen. Alhoewel je bij bekende systemen (door bestudering) wel indicatoren kunt vinden waarmee je een bepaald soort gedrag als meer of minder waarschijnlijk kunt bestempelen.

Hetzelfde geldt voor het managen van een crisis of het blussen van een brand. Met het ene team gaat dat beter dan met het andere. Sterker nog, zoals ik beschrijf in alle crises ben jezelf, is de manier waarop een crisis zich ontwikkelt mede afhankelijk van het emergente gedrag van het crisisteam op dat moment.

Een Complex Adaptief Systeem heet dat.

Daarnaast bepaalt ook de manier waarop eerdere gebeurtenissen zijn aangepakt hoe de onderhavige crisis gaat verlopen. Net zoals jouw crisismanagement zijn schaduw al vooruitwerpt naar de volgende crisis.

Emergent maakt dus onvoorspelbaar, omdat het ter plekke ontstaat.

2. De Rode Koningin

De Rode Koningin is ook al eerder op deze site verschenen met die beroemde zin uit Alice in Wonderland: It takes all the running you can do to keep in the same place.

Tekening van De Rode Koningin is van Wendy Kiel

In de prachtige roman De Tijgerkat wordt het nog iets poëtischer verwoord. “Als we willen dat alles blijft zoals het is, moet alles anders worden.”

Systemen die met elkaar concurreren moeten zich blijven ontwikkelen om niet op achterstand te raken. Casti schrijft dan ook dat systemen altijd topfit zijn tot ze ineens instorten. Omdat ze de energie niet meer hebben om zich aan te passen. Precies zoals Tainter in zijn boek The Collapse of Complex Societies schrijft.

De Tijgerkat beschrijft de instorting van zo’n systeem. De oude adelstand op Sicilië is eind 19e eeuw topzwaar geworden door zijn eigen ornamenten, regels, overvloedige rijkdom en doelloosheid. Ze waren geïmplodeerd zonder dat ze het zelf doorhadden. Op Don Fabrizio, de Tijgerkat, na.

Mocht deze klasse verdwijnen, zoals dat al zo vaak is gebeurd, dan zou er dadelijk een andere opstaan die net zo is, met dezelfde feilen en kwaliteiten. Die zou zich dan wellicht niet meer beroepen op het bloed, maar op, wat zal het zijn, ….op het feit dat iemand langer op een bepaalde plek woont dan iemand anders, of op zogenaamde diepgaandere kennis van de een of andere voor heilig gehouden tekst. (..) Dit alles zou niet zo mogen blijven, maar het blijft zo, altijd: wat de mens altijd noemt, welteverstaan, een eeuw, twee eeuwen. Daarna zal het anders zijn, maar erger

don fabrizio

3. Voor niets gaat de zon op

Dit derde complexiteitsprincipe is eigenlijk heel eenvoudig. Als je een systeem volledig inricht op efficiency, dan zal het bij elke onverwachte gebeurtenis falen. Omdat er geen redundantie of flexibiliteit is ingebouwd, kan het helemaal niks hebben.

In een gecontroleerde, zekere omgeving hoeft dat overigens geen probleem te zijn. Want efficiency betekent ook goedkoper; je krijgt meer voor hetzelfde geld. Dat maakt je concurrerender dan minder efficiënte systemen. Oftewel, er is een metaniveau waarop efficiency soms wel voordelen kent als systemen elkaar beconcurreren, zoals bij het principe van de Rode Koningin.

In onzekere omgevingen is het robuust maken van een systeem met resilience, adaptiviteit en redundantie daarentegen pure noodzaak. Dat werd eens te meer zichtbaar toen tijdens Corona normale distributieroutes opeens verstoord werden. Met allerlei leveringsproblemen van dien, zoals tekorten aan WC papier en mondkapjes.

Goedkoop is duurkoop, zei men dan vroeger.

4. Goudlokje op de rand van chaos

Goudlokje, dat was het meisje dat stiekem van de berenpap at die precies warm genoeg was. De te koude en te hete pap liet ze staan. Dat ze ook nog een stoel sloopte en in iemands bed sliep doet verder niet zo ter zake. Want het vierde complexiteitsprincipe gaat om precies goed: niet te heet, noch te koud.

Je wilt namelijk niet te veel vrijheidsgraden in een systeem, want dan wordt het chaotisch en gebeuren er dingen die je niet wilt. Maar te veel regels is ook niet goed, want zulks verstoort de innovatie en emergentie van een systeem. Op de rand van chaos heet dat.

Daar functioneert de boel het best.

5. Onbeslisbaarheid / onvolledigheid

Het vijfde complexiteitsprincipe is misschien wel het minst eenvoudig te begrijpen vanuit de theorie. Die komt namelijk uit de logica van Kurt Gödel, een wiskundige die stelde dat je de status van een systeem niet kunt verklaren met de informatie die vooraf beschikbaar is in het systeem zelf. Dat is wat onvolledigheid is.

Als je iets wilt voorspellen moet je dus intuïtieve sprongen maken, gaat Casti verder, of je moet over informatie beschikken die niet in het systeem zelf aanwezig is. Dat is onbeslisbaarheid.

Er bestaan beweringen die te complex zijn om door de menselijke geest te worden begrepen

Kurt Gödel

Wat betekent dit principe nu voor de praktijk? Eigenlijk niets anders dan dat je alleen met logica en rationeel redeneren geen X-event of Black Swan kunt voorspellen. Misschien achteraf, zoals Taleb zegt, maar dan heb je informatie die eerst niet beschikbaar was.

Dat je iets niet kunt voorspellen, betekent overigens niet dat het niet voorzienbaar is. Als je de kansrekening maar achterwege laat, dan kom je een eind.

6. Het vlindereffect

Het vlindereffect is bekend geworden via Ed Lorenz, die zei dat in complexe systemen (wat het weer is) een vlinderslag in Amerika kan leiden tot cyclonen in Japan. Nou kan je dat nu net weer niet aantonen, misschien achteraf, maar wat dit zesde complexiteitsprincipe wil laten zien is dat een kleine verstoring grote gevolgen kan hebben.

Groter dan je verwacht.

Soms neemt een windvlaag wraak op de vlinder; beeld van de vensterbank na een stormachtige avond

Dat geldt helemaal voor systemen die strak gespannen staan en op 100% functioneren. Elke hapering leidt tot nulproductie, die later moet worden ingehaald in een systeem dat al op maximaal vermogen draait. Je moet dus altijd productie annuleren, overhouden of op een later tijdstip uitvoeren.

Hierbij moet ik ook altijd denken aan de Wet van Hofstadter: alles duurt langer dan je denkt, zelfs als je rekening houdt met de Wet van Hofstadter. Die past op elk megaproject, nieuw stadhuis, snelweg, brug of ICT project. Op alles wat megalomaan is.

Dat ligt trouwens niet aan het megalomane karakter zelf, maar aan het feit dat de benodigde resources in het project tot bedenkelijke proporties weg worden bezuinigd om de besluitvorming erover mogelijk te maken. Voor een dubbeltje op de eerste rang heet dat, en dat is dom gedrag. Want voor niets gaat de zon op, zei het derde complexiteitsprincipe al.

7. De wet van de vereiste variëteit

De wet van de vereiste variëteit is misschien wel belangrijkste complexiteitsprincipe. Het komt er in het kort op neer dat het besturende systeem meer vrijheidsgraden moet hebben dan het systeem dat bestuurd wordt. Deze wet staat ook bekend als de wet van Ashby.

Een systeem kan alleen voortbestaan wanneer het dezelfde of meer variatie heeft als zijn omgeving.

William Ross Ashby

In het blog over de Perfecte Ramp gaf ik al het voorbeeld van het aantal fietsversnellingen en het gebied waar je doorheen fietst. Hoe chaotischer de ondergrond, hoe meer versnellingen je nodig hebt.

Casti geeft welhaast een nog mooier voorbeeld, over de Griekse belastingen. De omvang van de maatregelen die belastingadviseurs, consultants en advocaten verzinnen om belasting te ontduiken is zo groot dat het besturende systeem dat nooit kan bijbenen.

Je moet dan niet het besturende systeem complexer maken, maar het gecontroleerde systeem minder complex. Eruit met al die regels, toeslagen en uitzonderingen.

Dit betekent dat er gereedschappen nodig zijn om de variëteit aan de zijde van de ontduikers in te perken en dat we niet moeten proberen om achteraf te controleren of er belastingen zijn ontdoken

Vrijwel elke X-gebeurtenis heeft één van deze complexiteitsprincipes als belangrijkste driver. Soms zijn het er twee, of nog somser drie of meer. Er is echter één principe dat vrijwel altijd een rol speelt en dat is de wet van Ashby.

Want alles loopt nu eenmaal het best als er harmonie en evenwicht heerst, schrijft Casti. Zodra het complexiteitsniveau van systemen te ver uiteen gaat lopen, zal het zich proberen te herstellen met een X-gebeurtenis, opdat de kloof weer wordt hersteld.

Complexiteitsprincipes

Dit zijn de zeven complexiteitsprincipes nog eens op een rijtje, van een plaatje uit het boek van Casti.

Het zijn fenomenen die iedereen wel herkent uit de praktijk, als je tenminste goed om je heen kijkt. Er zijn namelijk ook mensen, en het lijken er wel steeds meer te worden, die zien helemaal niks. Die hebben situational awareness nul.

Nog wat anders is of je het na het waarnemen ook een naam kunt geven. Dat is het mooie van deze zeven principes, het geeft woorden aan een patroon en dat is de start van leren. Want dan kan je het herkennen, er over communiceren en er een shared situational awareness van maken.

Zo raak je van onbewust onbekwaam, bewust onbekwaam. Het punt waar het finisterre zich onthult en een nieuw pad begint, met de kans je complexiteitskloof te dichten zonder X-event.


Dit blog is een spin-off van De Perfecte Ramp. Lees ook het blog over de strategie van de toevallige kans; hoe je door bricolage en momentum je eigen mogelijkheden kunt scheppen. En over finisterre, omgaan met onzekerheid.

De Perfecte Ramp

Leestijd: 8 minuten

Tijdens het lezen van de Perfecte Ramp vielen opeens een heleboel lijntjes samen. Eigenlijk ontstaan Black Swans, Fundamental- en Predictable Surprises, crises en X-events (extreme gebeurtenissen) allemaal via hetzelfde patroon. Dat gevoel sluimerde al enige tijd in het boekenblog van Rizoomes, maar werd met dit boek van John Casti bevestigd. Leren is dus niet alleen iets nieuws lezen, soms is het ook bevestigd worden in wat je tussen de regels al wist.

De Perfecte Ramp is de nogal krakkemikkige vertaling van X-events: The Collapse of Everything. Het boek werd al in 2011 geschreven door John Casti, een hoogleraar in de wiskunde. Hij werd vooral bekend door zijn werk bij Rand Corporation en zijn bijdrages aan de complexiteitswetenschappen. In de Perfecte Ramp borduurt hij daar op voort door de oorzaak van extreme gebeurtenissen bij complexiteit te leggen.

X-events zijn uitschieters die complementair zijn aan ‘normale gebeurtenissen’, schrijft Casti in de inleiding. Vrijwel direct schiet dan de associatie met Extremistan en Mediocrestan uit het werk van Taleb door het hoofd. Is een X-event dan ook hetzelfde als een Black Swan?

Niet helemaal.

Wat ze gemeen hebben is de enorme impact op de samenleving en de beleving dat ze vaak onverwachts plaats vinden. Maar, zo betoogt Casti, waar een Black Swan volgens definitie pas achteraf verklaarbaar is, denkt hij dat X-events wel degelijk voorzienbaar zijn. Als er maar een wetenschappelijke onderbouwing voor handen is. Hij ziet zijn boek als een eerste stap in die richting onder de noemer ‘theorie van de verrassing’.

X-gebeurtenissen van de door de mens – en niet door de natuur – veroorzaakte soort zijn het gevolg van een gebrekkig begrip van een teveel aan complexiteit in menselijke systemen. De X-gebeurtenis, of dat nu een politieke revolutie, een crash van internet of de ineenstorting van de beschaving is, is de manier waarop de menselijke natuur een onhoudbare overdaad aan complexiteit reduceert

Complexiteitskloof

De essentie van zijn theorie over de perfecte ramp is het begrip ‘complexiteitskloof.’ Als er tussen twee systemen een steeds grotere afstand ontstaat, dan is een X-gebeurtenis datgene waarmee die kloof moet worden gedicht.

Casti geeft als voorbeeld een regering die steeds meer maatregelen moet nemen om zijn bevolking in toom te houden. De complexiteit van het controlerende systeem wordt dan zo groot, dat het uiteindelijk faalt en er een revolutie zal plaatsvinden. Zoals de Arabische lente in 2010, schrijft Casti.

Inmiddels zijn we tien jaar verder en weten we dat die revolutie anders is verlopen dan menigeen toentertijd gehoopt had. Dat is precies het argument dat ik inbracht in de recensie van Omarm de Chaos: wat nu als de revolutie slechter wordt voor mensen in plaats van beter?

Complexiteit kent immers geen moraal. Het dichten van een complexiteitskloof is dus in wezen apolitiek, ook al had de toenemende complexiteit een politieke achtergrond. X-gebeurtenissen hebben in die zin geen richting, maar krijgen het wel. Achteraf.

Misschien is een Black Swan als je het zo bekijkt toch precies hetzelfde als een X-gebeurtenis.

Ik vroeg Dall-E om een foto te maken van de perfecte ramp. Het resultaat verraste me eerst wel een beetje, er was geen ramp te zien. Maar als je uitgaat van het doorbreken van de vierde wand is het toch wel een aardig serietje met een dubbele bodem, zeker bij de laatste foto: wat zien de fotografen als perfecte ramp?

Ander voorbeeld: fietsen met een versnelling. Op het vlakke land kom je prima met drie versnellingen uit de voeten. Maar als je de bergen in trekt, of gaat mountainbiken, dan wordt de complexiteit van de ondergrond zo groot dat je veel meer versnellingen nodig hebt om niet hijgend onderuit te gaan of af te moeten stappen.

Nou is het volgens Casti niet zo dat uit elke complexiteitskloof een X-gebeurtenis ontstaat. Die zijn immers zeldzaam en hebben een grote impact. Je kunt ze dus ook niet berekenen met reguliere risicomanagement technieken, omdat die gebaseerd zijn op historische gegevens uit een normaalverdeling. Hier verwijst hij net als Taleb deed naar de dikke staarten tabel en schrijft hij kansrekening af voor het voorspellen van de perfecte ramp.

Crisis

Je kunt echter wel anticiperen op een X-gebeurtenis. Daarvoor haalt hij de Franse bioloog Jacques Monod aan, die had beschreven dat elke extreme gebeurtenis een combinatie is van toeval en noodzakelijkheid.

Diens redenatie lijkt veel op wat ik eerder beschreef in de onderstroom van crisis. Op zeker moment verandert er iets in de opvatting van sommige groepen binnen een samenleving. Dat leidt tot schuringen tussen bijvoorbeeld industrie en klimaatpartijen die ook in de (social) media worden uitgevochten.

Die schuringen beschrijft Casti als een sociopsychologisch klimaat die bepaalde soorten gebeurtenissen begunstigd en andere tegenwerkt. Dat is het noodzakelijke deel. Zonder zo’n kantelende omgeving gebeurt er niet zo heel veel.

Je hebt dus altijd goede aarde nodig. Om iets in te kunnen laten vallen.

Want dat is de volgende stap: een toevallige gebeurtenis die de ontlading vormt voor een crisis, of in het geval van Casti, een X-gebeurtenis. Met name die toevalligheid maakt het onvoorspelbaar, terwijl de schurende onderstromen het tegelijkertijd wel voorzienbaar maken.

En dan heb ik het nog niet eens over escalatiefactoren als crisismakelaars en gelegenheidskongsis van onverwacht samenwerkende tegenstanders. Die maken van je toeval een zeephelling.

Bazerman en Watkins beschrijven iets vergelijkbaars in Predictable Surprise, een boek dat ik al eerder besprak.

Wat Bazerman en Watkins laten zien is hoe een systeem steeds fragieler wordt door de cognitieve, organisatorische en politieke factoren. Men schuift alles voor zich uit, waardoor noodzakelijke aanpassingen en veranderingen uitblijven. Langzamerhand gaat alles schuren en wringen en verdwijnen één voor één de opties om een crash van de glazen olifant te voorkomen. Op enig moment zal er hoe dan ook schade zijn, wat je ook doet. Zelfs als je niets doet

Zo alles bij elkaar lijkt het er op dat crises, X-gebeurtenissen, Black Swans en Predictable Surprises conform hetzelfde stramien verlopen. En voeg de Fundamental Surprise daar ook nog maar aan toe.

Door geleidelijke veranderingen in een systeem ontstaat er een complexiteitskloof (onderstroom, sociopsychologisch klimaat, noodzaak) die door een toevallige gebeurtenis wordt getriggerd (brand, incident, storing, krantenartikel) waarna er grote schade ontstaat aan de strategische doelen of levensvatbaarheid van een organisatie of samenleving (impact).

Collapse

Het kan er zelfs toe leiden dat hele beschavingen verdwijnen, zo citeert Casti de archeoloog Joseph Tainter. Tainter schreef het boek The Collapse of Complex Societies, waarin hij uitlegt hoe gemeenschappen steeds weer organisatielagen blijven toevoegen om aan de grillen van hun bevolking het hoofd te kunnen bieden. Elke laag of afdeling kost extra inspanning, geld en moeite. Die de besturing van het geheel steeds moeilijker maakt.

Tainter toont op overtuigende wijze aan dat het gemeenschappelijk betaalmiddel voor al deze kosten energie is en dat de toenemende complexiteit van het systeem die voortkomt uit het toevoegen van deze nieuwe lagen tot de wet van de verminderde meeropbrengst leidt; er wordt steeds meer energie besteed aan het verkrijgen van steeds minder meeropbrengst

Anders gezegd: het kost zo veel moeite om die complexe bende bij elkaar te houden dat je geen middelen meer hebt om op nieuwe veranderingen te reageren. Dan stort de boel gewoon in.

Om die instorting te voorkomen voegen organisaties en samenlevingen steeds meer hiërarchische lagen toe, tot het moment dat geen enkele baas (of besturing) aan de top nog het totaaloverzicht kan houden. Daaruit volgt dan vaak een decentralisatie van besluitvorming over veel verschillende structuren en mensen, die zich als netwerk gaan gedragen.

Dat lijkt een verstandige oplossing op het eerste gezicht, maar volgens de politicoloog Thomas Homer-Dixon is het slechts een tijdelijke.

Aanvankelijk zijn toegenomen verbondenheid en diversiteit nuttig, maar naarmate er meer verbindingen ontstaan, raakt het systeem zo verknoopt dat een fout in één deel door het hele netwerk weerkaatst. (..) De ingewikkelde netwerken die ons nauw met elkaar verbinden – en waar mensen, materialen, informatie, geld en energie zich doorheen bewegen – versterken iedere schok en geven deze door

Om maar een voorbeeld te geven: elektriciteitsnetwerken zijn nauw verbonden met (alternatieve) energiebronnen, internet en betaalsystemen. Storingen van het ene netwerk kunnen makkelijk worden doorgegeven aan elk van de andere. Leidend tot wat Charles Perrow normal accidents heeft genoemd.

Conclusie

Het grootste deel van de Perfecte Ramp gaat verder op aan beschrijvingen van 11 voorzienbare X-gebeurtenissen. Zoals een wereldwijde black-out, instorting van voedselproductieketens, opdrogen van oliereserves, omvallende systeembanken in een financiële crisis en een pandemie. Die zijn leuk om te lezen maar laat ik in deze bespreking verder achterwege.

Belangrijker is te weten hoe je die Perfecte Rampen nou moet voorkomen. Daar gaat Casti nauwelijks op in. Hij geeft drie richtlijnen om complexe systemen mee te verbeteren, die voor de gemiddelde lezer van Rizoomes geen verrassing zullen zijn. Vergroot de redundantie van systemen, maak ze veerkrachtig en adaptief.

Daarnaast, en dat is eigenlijk een vierde richtlijn, is het goed om korte – en lange termijn uit elkaar te houden bij belangrijke besluiten. Waarbij de lange termijn belangen moeten prevaleren.

En dan tot slot merkt Casti op dat we ook zullen moeten leren leven met X-gebeurtenissen. Het is onlosmakelijk verbonden met de menselijke natuur en manier van samenleven. Of zoals ik over corona schreef: niet het virus is de Black Swan, maar de manier waarop de mensheid reageert.

Al met al is de Perfecte Ramp een interessant boek en van harte aanbevolen voor nieuwe lezers in het vakgebied. De gevorderde lezer zal niet heel veel nieuws ontwaren in dit boek, hooguit beschreven in andere woorden. Persoonlijk vond ik dat toch wel een verrijking: het verhaal van Casti bevestigt een rode draad die ik zo langzamerhand uit alle boeken in het boekenblog ontwaar. En die ik ook zelf in mijn eigen praktijk zie gebeuren.

Die koppeling van theorie en praktijk ervaar ik zelf als bijzonder leerzaam. Leren is in die zin niet alleen iets nieuws lezen, maar ook bevestigd worden vanuit een andere invalshoek. Ook dat kan een reden zijn om boeken als de Perfecte Ramp te lezen, al kun je dat meestal pas vaststellen als het uit is. Of als je er eerst een recensie over las.

Cijfer: 7,5

Zou ik het wegdoen als de boekenkasten vol zijn en er geruimd moet worden: niet als eerste, maar ook niet als laatste.

Friendly Fire

Leestijd: 12 minuten

Friendly Fire is een klassiek boek uit de veiligheidswetenschap van Scott Snook. Daarin onderzoekt hij de omstandigheden waaronder twee Amerikaanse Black Hawk helikopters in 1994 door eigen F15’s uit de lucht werden geschoten. Het is een grondige analyse van een original accident die thuishoort in het Museum of Accidents.

At your highest moment, be careful. That’s when the devil comes for you

denzel washington

Dit blog volgt grotendeels de lijn van het boek. Eerst wordt het incident kort beschreven. Daarna volgt de formele analyse van het systeem: de individuele, groeps en organisatiefactoren. Met de conclusie dat het een normal accident in een high reliability organization was.

Dit beschrijvende stuk wordt vervolgd met een discussie over de factor irrationaliteit en in hoeverre je dat zou moeten meenemen in het ontwerp van veilige systemen en werkomgevingen. Dat miste ik namelijk in Friendly Fire toen ik het zat te lezen. Het popte als vanzelf in me op, mede door sommige gebeurtenissen uit mijn eigen praktijk waar ik geen rationele verklaring voor had.

De Shootdown

Op 14 april 1994 doorkruisten twee Amerikaanse F15’s de no-fly zone boven Noord Irak. Het luchtruim daar was onder controle van een Combined Task Force (CTF), die na Desert Storm onder de noemer Operation Provide Comfort veiligheid moest brengen aan Koerdische vluchtelingen.

De opdracht aan de jagers was “to perform an initial fighter sweep of the no fly zone to clear (sanitize) the area of any hostile aircraft prior tot he entry of coalition forces.” De kans op een treffen was niet heel groot. In 50.000 uren vliegen was er geen incident van betekenis geweest.

Rond 10.20 ontdekten de piloten via hun radar een vliegend object dat ze als een vijandelijke helikopter classificeerden. Hun bericht werd door de AWACS, de vliegende verkeersleiding, neutraal beantwoord; copy that. Dat is geen bevestiging van de classificatie, maar ook geen correctie.

De toestellen vliegen richting de helikopters om een visuele check uit te voeren. Die is positief: de leader meent om 10.27 met een vijandige eenheid van doen te hebben. Zelf neemt hij de eerste helikopter op de korrel, de wingman krijgt opdracht daarna de tweede uit te schakelen.

Een bizar moment.

Het is half elf in de morgen als beide helikopters met raketten uit de lucht worden geschoten. Er klinken twee explosies, daarna is het stil. De operatie is geslaagd.

Het waren alleen geen vijandige toestellen, maar Amerikaanse Black Hawks die met 26 VIP’s vanuit Turkije waren opgestegen, nadat ze zich bij de AWACS hadden aangemeld. Aan een periode van drie jaar zonder incidenten was door dit friendly fire een einde gekomen.

Finesterre

Ooit had Luitenant Kolonel Scott Snook zelf onder friendly fire gelegen. Nu was hij een professor op de United States Military Academy en wilde weten hoe dit ongeluk zich zo had kunnen voltrekken. Daarvoor trekt hij alles uit de kast wat er aan wetenschappelijke en praktische kennis te vinden is. Dat maakt het ook een persoonlijk verslag van iemand die uit ervaring weet waar hij het over heeft.

Voor praktijkmensen zoals ik is het daarom een prettig boek om te lezen. Al werkte ik nooit voor defensie zelf, dankzij mijn achtergrond bij de luchthavenbrandweer zat er veel herkenbaars in.

Ook tussen de regels.

Vanaf het begin schoot er zodoende al een alternatieve hypothese door mijn gedachten, die tegen mijn verwachting in niet in het boek voor kwam. Hoewel, misschien impliciet een beetje.

Laat ik eerst beginnen met wat er wel in Friendly Fire staat. Eén van de belangrijkste conclusies van Snook is dat dit een normal accident in een high reliability organization (HRO) is. Daarmee combineert hij de ideeën van Charles Perrow met die van Karl Weick. Ik ben daar zelf ook altijd een groot voorstander van geweest, maar in de wetenschappelijke discipline is dat nog geen gemeengoed.

Bij het zoeken naar foto’s voor dit blog kwam ik deze plaatjes tegen uit Ingen, op de Betuwe. Daar had op 18 juni 1986 een F15 een Conformal Fuel Tank laten vallen met zo’n 3000 liter kerosine. Zie het maar als een verhaaltje dat ik er tussenmeng bij gebrek aan foto’s over de shootdown.

Wat deze combinatie van normal accidents in een HRO oplevert is het besef dat je, wat je ook doet, aan het eind van je maatregelen altijd een stuk onvoorspelbaarheid overhoudt. Die onvoorspelbaarheid volgt uit de complexiteit van een systeem en de strakke koppeling tussen de samenstellende delen. In dat gebied, wat ik maar even Finisterre noem (naar dit blog), spelen toeval, geluk en pech een grote rol.

Dat Finisterre moet je trouwens niet deterministisch opvatten, maar probabilistisch. Er zijn omstandigheden waaronder de kans groter wordt dat het fout gaat. Dat wil dus niet zeggen dat het persé mis zal gaan.

Al zegt de Regel van Hermans dat dat wat niet mis kan gaan, ook mis zal gaan. Laten we ook die voortaan vooral probabilistisch interpreteren.

Snook noemt vier elementen die een groot aandeel hadden in de oorzaak van het ongeval. Dat begint met de piloten, die de helikopters verkeerd identificeerden als vijandelijk. Het tweede punt is dat de AWACS niet corrigeerden. Hun situational awareness was groter dan die van F15’s, toch grepen ze niet in. Dit is feitelijk een escalatiefactor: een beheersmaatregel die faalt.

Ten derde was de radiocommunicatie niet volledig geïntegreerd door verouderde apparatuur. Daardoor was er geen contact mogelijk tussen de F15’s en de Black Hawks. Ook het vierde punt is een technisch falen. Het IFF (Identify Friend or Foe) was stuk, zodat de automatische identificatie faalde.

Practical Drift

Achter deze min of meer directe oorzaken somt Snook vervolgens een groot aantal indirecte oorzaken op. Onervaren personeel in de AWACS, soms niet eens opgeleid. Te weinig mensen om een rooster te lopen. Onduidelijke commanders intent van de CTF. En nog veel meer, beschreven in drie aparte hoofdstukken die respectievelijk gaan over oorzaken op individueel niveau, groepsniveau en organisatieniveau.

Het was nog best een heel apparaat. Er vielen geen slachtoffers, alhoewel volgens het Leids Dagblad van 20 juni tot in de wijde omtrek alle planten door kerosine nevels de geest hadden gegeven. De verontreinigde grond moest worden afgegegraven en gereinigd.

In hoofdstuk zes combineert hij zijn bevindingen vervolgens tot een theorie over practical drift, die naar zijn mening een groot deel van de ongevalsoorzaak verklaart. Practical drift komt er in het kort op neer dat men in loosely coupled systems steeds verder gaat afwijken van de algemeen voorgeschreven regels en procedures. Zolang het systeem loosely coupled is, vormt dat geen probleem.

Maar zodra de boel in een stroomversnelling gaat, zoals bij de gevechtshandelingen in Friendly Fire, worden de koppelingen opeens strak en wordt het systeem gevoelig voor normal accidents. In zijn analyse van de ramp op Tenerife had Weick trouwens ook al eens die conclusie getrokken.

Practical drift lijkt veel op wat Diane Vaughan omschreef als normalization of deviation in haar analyse van de Challenger explosie. Ook drifting into failure van Sydney Dekker is een vergelijkbaar fenomeen, net als practical sailing bij Rasmussen. Om er maar eens paar te noemen.

Alleen al hierom is het voor de praktijk beter om het goede uit verschillende theorieën te combineren; je hoeft geen beste te kiezen.

Mensen uit operationele diensten en bedrijven kennen het verschijnsel van elastieken procedures trouwens ook. Zeker in grotere organisaties met verschillende eenheden of posten die normaliter redelijk autonoom werken. Dat leidt soms tot problemen als bij grote branden of ongevallen verschillende posten opeens moeten samenwerken onder tijdsdruk. Helemaal als er sprake is van interregionale bijstand.

Ongevalsomstandigheden

Vanwege deze practical drift schrijft Snook dat je minder leert van het zoeken naar een oorzaak, dan naar het beschrijven van de omstandigheden waaronder het ongeval zich vertrok.

Sowieso zit er achter elke directe oorzaak weer een andere. Welke je kiest is dus arbitrair. Hierover citeert hij Jens Rasmussen:

In causal explanations of an accidental occurrence, its origin will be backtracked upstream to find the “cause”. No objective stop rule can be devised to terminate this search. It is always possible to go one more step backwards in the search and the decision to stop and to accept an event as “the rootcause” depends on the discretion of the analyst.”

jens rasmussen

(Zo kwam in Nederland iedereen altijd uit bij Rutte. Als ik hem was, was ik al veel eerder gestopt)

In onderstaande afbeelding beschrijft Snook vervolgens om welke omstandigheden het ging bij Friendly Fire:

Dit is een interessante manier van kijken naar ongevallen. Zoek niet naar een directe oorzaak, want die is uiteindelijk toch onvoorspelbaar voor een volgende keer. Zoek daarentegen naar de omstandigheden waaronder de kans op een ongeval groter wordt, dat het systeem fragiel wordt. Want daar heb je altijd wat aan, aan die kennis.

Op deze derde foto is goed te zien hoe er toentertijd over schuimblussing werd gedacht: een klein vaatje SVM met een rechtstreekse inmenging in de straalpijp. Daar heb ik zelf ook nog mee staan knoeien tijdens mijn brandweeropleiding in 1991.

Deze benadering sluit trouwens ook weer naadloos aan op het idee van levenslooppaden en alternatieve geschiedenissen van Taleb. Er kan altijd heel veel gebeuren. Wat er precies gebeurt in een bepaalde situatie is toeval en had net zo goed iets anders kunnen zijn.

Mooi dus dat een boek van 30 jaar oud nog steeds zoveel actuele lessen kan leren. Precies daarom zou iedereen die werkzaam is in het veld van operational resilience en organizational safety dit boek moeten lezen.

Maar toch.

Er bleef bij mij iets knagen, al vanaf het begin. En dat zit bij die piloten. Want al die omstandigheden die Snook beschrijft zouden precies zo zijn als de helikopters niet zouden zijn neergeschoten. En dan was er niets gebeurd. Hoogstwaarschijnlijk tenminste, want de theorie van de alternatieve geschiedenis zegt wat anders.

Irrationaliteit

Wat gebeurde er in die paar minuten dat die piloten op jacht waren? Waarom identificeerden ze die Black Hawks verkeerd? Ze waren immers niet in gevaar en zo’n gevechtshelikopter is geen enkele bedreiging voor een F15. Waarom was er niet meer twijfel bij hen en pakten ze niet meer tijd? Want dat was er wel.

Mijn kortste antwoord is dit: als rationele antwoorden geen verklaring geven, dan blijven irrationele antwoorden over.

En laat ik daarbij gelijk aangeven dat irrationaliteit niet verwijtbaar is. Het is een integraal onderdeel van het mens-zijn. Het hoort erbij. En daarom moet je er ook rekening mee houden.

De mens is namelijk (ook) een irrationeel wezen, dat ie heel goed weet te maskeren met een soort van continue persoonlijkheid, waardoor het lijkt of alles logisch is wat je doet en denkt. Terwijl dat lang niet altijd zo is.

Resten van de Black Hawks. Foto van het Amerikaanse leger.

Dat mensen irrationeel zijn is echter niet algemeen aanvaard als verklaring in ongevalsonderzoek en veiligheidskunde. Desondanks is het een factor van belang, zag ik zelf tijdens onderzoeken van (soms fatale) ongevallen.

Helemaal als de koppelingen strak trekken. Dat vereist 100% rationeel gedrag.

Operationele mensen die betrokken raken bij een zeldzame, grote inzet, ongeacht of het nu defensie, brandweer of politie is, lopen het risico zich anders te gaan gedragen dan normaal. Dat is wat ik in de praktijk verschillende keren heb gezien.

Al helemaal als ze op scherp worden gezet met een commanders intent als in deze kwestie: “to perform an initial fighter sweep of the no fly zone to clear (sanitize) the area of any hostile aircraft prior tot he entry of coalition forces.”

Die irrationaliteit uit zich vervolgens in een kluwen van factoren die elkaar versterken; ze komen in een tunnel terecht, krijgen blindzicht en tijdcompressie, hun metacognitie verdwijnt en de situational awareness hapert. Alleen hebben ze dat zelf niet door. Dat laatste is een cruciale factor bij irrationaliteit.

De focus bij dergelijke situaties is volledig op het doel gericht, ze creëert een eigen werkelijkheid en ziet alleen dat wat de aannames bevestigen. Deze cocktail leidt tot irrationeel gedrag, waar men pas later, met een schok haast, uit ontwaakt. Daarna is er verbijstering (heb ik dat gedaan) en ongeloof, soms zelfs ontkenning en projectie. Dan is het de schuld van de onderzoeker die het verkeerd ziet.

Wat overigens niet altijd valt uit te sluiten, natuurlijk.

Collega’s uit de praktijk kennen het fenomeen ook. Die weten na verloop van tijd van al hun directe collega’s hoe ze zich op de spannende momenten gedragen. Alleen noemen ze het geen irrationaliteit, maar “bij die gaat soms de knikker in de kop.”

Snook heeft zich wel gebogen over de psyche van de vliegers, maar vermijdt de term irrationaliteit. Hij maakte dit plaatje, een keurig wetenschappelijk verantwoord plaatje.

 VID staat voor visual identification. Maar wat mij betreft staat ernaast, daar in het midden van het venn-diagram, irrationality. Want dat is een bijproduct van de factoren die ook de VID bepalen.

In dit blog over ‘alle crises ben jezelf’ noem ik vier factoren die door Weick zijn bestempeld als gevaarlijke omstandigheid waarin je je rationaliteit kunt verliezen. Dat zit hier dicht tegenaan, cq overlapt zelfs.

  • Als je iets verwacht
  • Als je iets graag wilt of een heel sterk doel hebt gezet
  • Als je ergens volledig door in beslag wordt genomen
  • Als je iets aan het afmaken bent

Het probleem van irrationaliteit Is dat je het niet voorspellen kan. Anders was het ook niet irrationeel. Daardoor is het een ramp voor regelmakers, die geen idee hebben hoe ze irrationaliteit moeten verwerken in hun voorschriften. Naar mijn idee zit de pratical drift dus standaard ingebakken in elke organisatie.

Museum of Accidents

Of zoals Virilio het zou zeggen in The Original Accident: de maker van de regel is ook de maker van de regelovertreding.

Dan komt de spreuk van Washington goed van pas; op de highest moment wordt het gevaarlijk, daar komt de duivel. Ken dus de highest moments, daar gaat het mogelijk eerder mis.

Vaak is dat dus een combinatie van factoren zoals tijdsdruk, afwijkingen, hoog ervaren taakopvatting (ik kan dit), weinig tot geen bijsturing horizontaal noch verticaal, tunnelvisie, groupthink en high stakes.

Irrationaliteit vergroot dus, net als alle andere redenen die Snook noemt in zijn boek, de kansen op een normal accident in een high reliability organization. Al noemt hij het misschien zelf niet zo expliciet, maar dat was dertig jaar geleden wellicht ook nog niet aan de orde.

Ik sluit het betoog van Snook af met deze laatste bladzijde van zijn boek; een pleidooi voor een Museum of Accidents. Al noemt hij het een library.

Deze casus van Friendly Fire en de Black Hawks komt er natuurlijk gewoon in. Omdat het de eerste is waar irrationaliteit als factor in is opgenomen. “At your highest moment, be careful. That’s when the devil comes for you.”

Eindoordeel

Friendly Fire is een belangrijk boek dat inmiddels bijna dertig jaar oud is. Dat het nog steeds verkrijgbaar is zegt wel iets over de waarde ervan. Het is geen gemakkelijk boek voor wie niet is ingevoerd in de belangrijkste theorieën uit de veiligheidskunde. Snook is een omgevallen boekenkast die veel van de grote namen voorbij laat komen.

Tegelijkertijd moet je af en toe wel even door de no-blame opvattingen heen kijken, vond ik zelf. Ook zoiets als irrationaliteit laat Snook alleen impliciet voorbij komen, terwijl het in deze casus wel degelijk een grote rol speelde.

Sterker nog, ik weet zeker dat in andere zeldzame situaties op het scherpst van de snede, zoals ook de bemanning van de Maddox ervaarde, irrationaliteit een grote rol speelt. Net als soms in politieke besluitvorming, waar vergaderingen net zo lang gerekt worden tot er iemand rare dingen gaat doen.

Wat heel sterk is aan Friendly Fire is de aandacht verleggen van de directe oorzaken en het zoeken van een rootcause, naar de omstandigheden waaronder een systeem fragiel wordt en daardoor de kans vergroot dat er ongevallen ontstaan. De normal accident in de high reliable organization.

Net zo sterk is dat Snook je tot denken aan zet. Door zijn persoonlijke betrokkenheid is het meer dan een wetenschappelijke verhandeling. Er zijn mensen die Friendly Fire daarom een minder goed boek vonden. Ik vond het er juist veel beter door. En raad het daarom iedereen aan die werkt in omgevingen waar het er regelmatig om spant.

Cijfer: 9

Zou ik het bewaren als de boekenkasten vol zijn en er geruimd moet worden: Zeker!

Internetveiligheid

Leestijd: 5 minuten

In de serie ‘andere veiligheid’ ben ik na kennisveiligheid en psychologische veiligheid aangekomen bij internetveiligheid. Wat vinden we als veiligheidskundigen daar nu eens van?

Lichtelijk uit de heup schietend: een zooitje.

Misschien heeft dat ook wel te maken met de ontstaansgeschiedenis ervan. Internet is begonnen als ARPAnet, een project van de Amerikaanse Defensie. In 1969 werd de eerste koppeling gelegd tussen computers in Los Angeles en San Francisco. Door LOG IN te typen moest de ene computer op afstand de besturing van de andere kunnen overnemen.

Patch

Maar na twee letters liep het systeem vast door een fout in een programma. Toen die hersteld was, kwam de verbinding zoals gepland tot stand. Alsnog een prachtig resultaat natuurlijk en niet voor niets door Taleb een Black Swan genoemd. Wat achter die uitvinding vandaan is gekomen had niemand kunnen voorspellen.

Alleen die patch, hè.

internetveiligheid
DALL-E tekent “a picture of the internet showing a lot of leaks with data pouring on the surface”

Zonder die patch had het toen niet gewerkt en nu nog steeds niet. Het aantal patches is inmiddels zo groot geworden dat je organisatie de hele dag plat zou liggen als je ze allemaal keurig zou installeren. Dat doet dus helemaal niemand en dan is het niet gek als je wel eens tegen zo’n Log4J probleem aanloopt.

Accepteer het dus maar gewoon: uw netwerk is een vergiet, net als het mijne en die van de KNVB.

Gelukkig zijn er te weinig criminelen om alle ongepatchte gaten te misbruiken, anders zou de ene helft van internetgebruikers continu de andere helft zitten te hacken. Wat tot de conclusie leidt dat het allemaal niet zo heel veel uitmaakt. We rommelen gewoon lekker door, zo goed en zo kwaad als het kan en meestal doet bijna alles het dan wel.

Human Error

Grappig genoeg vinden de meeste inbraken plaats omdat mensen op een verkeerde link hebben geklikt, een val gezet door een cyberboef. Die ook liever lui dan moe is en wacht tot zijn slachtoffers in de val lopen, in plaats van er achteraan te jagen.

“Da’s human error”, roepen alle experts dan, “we moeten mensen leren om dat niet te doen. Geef ze een cursus cybersecurity awareness.”

Maar ja, internet is gemaakt om op dingetjes te klikken, dus doe je dat als voorgeprogrammeerd fte’tje. Wij als veiligheidskundigen weten dan dat je de techniek en de organisatie moet verbeteren als je de internetveiligheid wil vergroten.

Don’t fix the user, fix the system.

Hetwelk sowieso niet zal meevallen, want zoals ik al zei, zonder dat er verkeerd wordt geklikt zijn er al te veel patches om de boel preventief op orde te hebben.

Waardoor er nog maar één echte strategie overblijft: recovery.

Opruimen. De VS hebben er een heel land mee gemaakt, dus waarom zouden wij dat ook niet kunnen met internetveiligheid?

Ik typte het op, keek er even naar en vroeg me toen af: zit die strategie eigenlijk wel in onze toolbox? Of doen veiligheidskundigen niet aan recovery?

Nadat ik dit blog (als column in de NVVK-info) had gepubliceerd bedacht ik mij dat ik het ook eens aan Chat GTP zou kunnen vragen. Hoe ziet het dat voor zich, een recovery strategie voor internetveiligheid?

En nog “a picture of the internet showing a lot of leaks with data pouring on the surface”

Na een paar rondjes oppervlakkigheden van GTP te hebben ondergaan kwam het hiermee; over backups als recovery strategie:

Chat GTP

  1. Offsite back-uplocatie: Zorg ervoor dat uw back-ups worden opgeslagen op een externe locatie, gescheiden van de primaire systemen. Dit kan bijvoorbeeld een externe server, cloudopslag of een speciale back-upinfrastructuur zijn. Door de back-ups op een andere locatie te bewaren, minimaliseert u het risico dat ze worden aangetast tijdens een beveiligingsincident.
  2. Realtime of frequente back-ups: Overweeg om gebruik te maken van realtime of frequente back-upoplossingen, zodat wijzigingen in bestanden onmiddellijk of regelmatig worden opgenomen in de back-ups. Dit minimaliseert het gegevensverlies bij een incident, omdat recente versies van bestanden beschikbaar zijn voor herstel.
  3. Versleuteling van back-ups: Om de vertrouwelijkheid van uw gegevens te waarborgen, is het belangrijk om back-ups te versleutelen. Zorg ervoor dat de gegevens zowel in transit als in rust worden versleuteld, zodat ze niet toegankelijk zijn voor ongeautoriseerde personen, zelfs als de back-upmedia in verkeerde handen vallen.
  4. Test het herstelproces: Regelmatig testen van het herstelproces is essentieel om er zeker van te zijn dat de back-ups correct en snel kunnen worden hersteld in geval van een beveiligingsincident. Voer regelmatig hersteltests uit om te controleren of de back-upbestanden integriteit behouden en dat het herstelproces soepel verloopt.
  5. Geautomatiseerd back-upbeheer: Overweeg het gebruik van geautomatiseerde back-upoplossingen en beheertools. Deze kunnen zorgen voor consistente en betrouwbare back-ups, het monitoren van de back-upstatus, het genereren van rapporten en waarschuwingen bij problemen. Automatisering minimaliseert menselijke fouten en verhoogt de betrouwbaarheid van uw back-upproces.
  6. Veiligheidsmaatregelen voor back-upsystemen: Bescherm uw back-upsystemen tegen ongeautoriseerde toegang en manipulatie. Implementeer sterke authenticatiemechanismen, zoals wachtwoorden of multifactorauthenticatie, om ervoor te zorgen dat alleen geautoriseerde personen toegang hebben tot de back-ups. Beperk ook de toegangsrechten tot back-upopslag om ongeautoriseerde wijzigingen te voorkomen.
  7. Monitoring en waarschuwingen: Implementeer monitoringoplossingen om de status van uw back-upomgeving te bewaken. Hiermee kunt u problemen, zoals mislukte back-ups of corrupte back-upbestanden, snel identificeren en aanpakken. Stel waarschuwingen in, zodat u direct op de hoogte wordt gebracht van eventuele problemen met uw back-ups.

Make it so

Tsja…een beetje een stappenplan van een junior consultant internetveiligheid. Veel verder komt GTP niet en dat is niet de eerste keer dat me opvalt dat AI niet veel meer doet dan een PDCA cyclusje opdreunen. Ik begrijp dan ook niet zo goed waar al die zorgen over AI vandaan komen.

Maar misschien stel ik gewoon de verkeerde vragen. Of ligt de lat tegenwoordig wat lager?

Toch nog maar even zelf blijven nadenken over internetveiligheid dus. Want users fixen, dat is risicomanagement op kans. Dat verlies je vroeg of laat altijd. Manage dus het effect; in de robuustheid (of antifragiliteit, zo je wilt) van je systeem.

Make it so.


Een aangepaste versie van dit blog verscheen ook in de NVVK-info. Ik schreef al eerder over cyberveiligheid. Zie o.a. het blog human factors op het internet.

Crisis als complex systeem

Leestijd: 10 minuten

Door crisis als complex systeem te definiëren, kun je de dynamiek die vaak tijdens dat soort processen optreedt veel beter herkennen. De driedeling uit de oratie van Sanneke Kuipers gaf mij het laatste zetje om dat te zien. Tussen veel van mijn blogs bleek namelijk al een impliciet verband te bestaan, een rizoom, dat te herleiden viel tot crisis in, over of voor een organisatie.

Dit blog is niet het eerste waarin ik crisis als complex syteem beschrijf. Eerder deed ik dat in Corona als rizoom, een metafoor voor crisis. Het was echter dankzij de driedeling van Kuipers dat ik de onderliggende verbanden opeens duidelijk voor ogen had.

Dat gebeurde niet zomaar. Het is een stap in een leerproces dat al een paar jaar loopt. Als ik er een beginpunt aan zou moeten geven zou het 2014 zijn. Het jaar waarin de MH17 uit de lucht werd geschoten.

Naast nog een groot aantal andere crises en incidenten op mijn werk. Tussen 2014 en 2019 begon daardoor langzamerhand mijn visie op crisis te veranderen.

Ik ervaarde steeds meer dat een crisis zelf geen incident is, maar een proces. Het ontwikkelt zich in interactie met de omgeving, zowel virtueel als fysiek. Soms merkbaar aanwezig en dan weer eens wat minder.

Crisis is meer een tijdelijke status van de organisatie dan een gebeurtenis op zichzelf, zo stelde ik vast. Bovendien is het een verhaal, een sociaal construct.

Crisis als complex systeem
De schilderijen in dit blog zijn gemaakt door DALL-E. De vraag was om crisis als complex systeem te tekenen in een Mondriaan stijl.

Die constatering leidde vanaf september 2020 tot een serie blogs over crisis en disruptie. De eerste en meest belangrijke uit die reeks was ‘De kleine taxonomie van de ongewenste gebeurtenis’.

De rest diepte de simplex die daarin gepresenteerd werd verder uit, waarin met name de relatie met de omgeving, door mij onderstroom genoemd, veel aan bod kwam; crisis als sociaal construct en als proces zonder begin of eind.

Simplex 4. Dit is de eerste simplex met vier definities die uit het blog ‘Kleine taxonomie van de ongewenste gebeurtenis komt. Deze definities gebruik ik ook in mijn dagelijkse praktijk en we trainen teams in het herkennen van de verschillende soorten ongewenste gebeurtenissen.

Na die serie verschoof mijn focus weer en verdiepte ik mij onder andere in Zwarte Eenden, het met-de-kennis-van-nu syndroom, Black Swans, waarschijnlijkheid en een stapeltje boeken. Met name ‘Kan de overheid crisis aan’ en ‘Shutdown’ hebben veel invloed gehad op mijn denken en kan ik iedereen aanraden.

De Simplex 5. Na de Toekomstverkenning Crisisbeheersing door het NIPV besloot ik de definities iets aan te passen voor gebruik in de context van de overheid. Meest essentiële wijziging is dat ik voor disrupties de huidige definitie van crisis gebruik. Crisis gaat over het verlies van vertrouwen in één of meerdere overheidsinstanties, het verdwijnen van draagvlak en regelcapaciteit en daarmee ook slagkracht en het oplossingsvermogen om wicked problems te managen. En ik heb polycrisis toegevoegd als overtreffende trap van crisis, ietwat gekunsteld gepresenteerd als een serie simplexen.

Maar het was niet zo dat er tussen al die blogs een zichtbaar expliciet verband bestond, anders dan dat ze over crisis gaan. Althans niet als resultante van één of andere planmatige insteek. Zo heb ik er ook nooit naar gekeken. Rizoomes was immers wandering in crisis, rondblieken en ontdekken maar.

Tot ik deze week de inaugurele rede van Sanneke Kuipers las. ‘Erop of eronder: de organisatie in crisis’ is de titel ervan. In al zijn eenvoud is het een briljant verhaal, al weet ik niet of ik het overal mee eens ben. Maar met name haar driedeling van crisis in, over of voor de organisatie was voor mij een eyeopener. Die ik overigens wel anders invul dan zij doet, daarover straks meer.

Crisis als complex systeem

Opeens zag ik namelijk het impliciete verband dat tussen een groot aantal van mijn blogs gespannen was: crisis als complex systeem. Ik zal niet de eerste, noch de enige zijn die daarover schrijft, maar om het uit je eigen blogs te zien ontstaan door de driedeling van Kuipers vond ik toch wel een geinig moment.

Eigenlijk is het heel eenvoudig. Crisis als complex systeem kent drie grote conglomeraten van variabelen. Interne crisis (in de organisatie), externe crisis (over de organisatie) en crisistriggers (voor de organisatie). Die conglomeraten, en misschien zijn het ook wel verzamelingen of rizomen, interacteren met elkaar waardoor de crisis of polycrisis een onvoorspelbaar karakter krijgt.

Zowel binnen die conglomeraten als ertussen.

Te grote ego’s leiden bijvoorbeeld tot een interne crisis met negatieve framing als externe crisis tot gevolg, waarna alsmaar vooruitgeschoven interne besluiten en moeizame communicatie een oproep tot boycotten veroorzaakt. En dat kan je in een plaatje zetten.

De vraag is dan altijd of je eerst het plaatje moet laten zien of eerst de uitleg, ik weet dat eigenlijk nooit, maar vandaag beginnen we met het plaatje van crisis als systeem. Niet gelijk afhaken daarna, hè? Want ik ga het nog uitleggen met een aantal stellingen. Waarbij ik gelijk aanteken dat het nog niet af is. Er valt nog een hoop aan te denken.

crisis als complex systeem

Algemene uitgangspunten

  • Zoals gezegd is crisis een sociaal construct en een proces. Het is een status van je organisatie in een groot veld tussen andere organisaties, stakeholders, mensen, meningen en media. Om er maar een paar te noemen.
  • Het heeft daarom ook wel iets rizomatisch, durf ik te stellen.
  • Mede daarom is crisis tijd en plaats gebonden. Dezelfde situatie in een andere tijd op een andere plek had misschien wel helemaal geen crisis opgeleverd. Of een veel grotere.
  • Zeker weten doe je dat nooit, omdat het een complex en daardoor onvoorspelbaar systeem is.
  • Crisis is altijd perceptie. En perceptie woont in Extremistan. Die volgt dus geen normaalverdeling en kan enorme pieken en dalen vertonen. Er is geen regression to the mean, wel een Onwaarschijnlijkheidsprincipe en ook retrospectieve vertekening.
  • Elke grote ongewenste gebeurtenis is altijd een compound crisis, een samengestelde crisis. Leg de Simplex 4 of de Simplex 5 erop als mal en analyseer je situatie. Waar zit de noodsituatie, waar de disruptie, waar de crisis?
  • Die analyse is tijd en plaats gebonden. Dat betekent dat een vergelijkbaar incident op een andere plek of andere tijd een andere crisis oplevert. Dat schreef ik ook al eens in ‘elke crisis ben jezelf’.
  • Neem als voorbeeld een cybercrisis. De aanval of hack op een systeem is een emergency. Die wordt aangepakt door je SOC als directe respons. De effecten op je bedrijfsvoering en het verlies aan functies is de disruptie. Crisis wordt het als er incompetent is gehandeld naar de mening van externen en de publieke opinie. Bijvoorbeeld omdat je voor de tweede keer bent gehackt. Ziedaar de compound crisis.

Externe crisis

  • Externe crisis gaat over een organisatie. Hij wordt veroorzaakt door bijvoorbeeld schurende waarden tussen milieuorganisaties en grote bedrijven waaruit een discours ontstaat dat uiteindelijk op zichzelf komt te staan, zoals ik beschreef in crisis als meme.
  • Dergelijke memes worden makkelijk in stand gehouden en verspreid via talkshows en social media.
  • Cancelcultuur, boycotten en rechtszaken versterken het karakter van de externe crisis ook steeds verder. En voor sommigen is crisis ook gewoon een strijd. Dat valt niet eens, of nauwelijk, te managen.
  • Als het gaat om overheidscrisis is toenemende fragmentarisering in de politiek ook een factor die versterkt. Net als crisismakelaars, die voorvallen framen en daarmee de crisis vergroten.
  • Externe crisis gaat altijd gepaard met verlies van vertrouwen en draagvlak voor het nemen van moeilijke besluiten. Arjen Boin noemt het een institutionele crisis. Die ook op kan gaan voor niet-overheid organisaties.
  • Uiteindelijk kan de externe crisis leiden tot grote schade aan de strategische doelen, de slagvaardigheid, regelruimte en zelfs levensvatbaarheid van een organisatie.
  • Het is goed zichtbaar dat de organisatie in crisis is, maar de afloop is onzeker. Vandaar de classificatie als known unknown.
  • Een externe crisis in vergevorderd stadium kan gepaard gaan met sterk negatieve framing en analyses in de pers, die door de betrokken partij als zeer gekleurd en onheus overkomen.
  • Als laatste stap wordt de externe crisis gepersonaliseerd, door bestuurders persoonlijk aan te vallen en als incompetent af te schilderen.

Interne crisis

  • Een interne crisis speelt zich af binnen de organisatie zelf en hoeft helemaal geen externe aanleiding te hebben.
  • Het kan wel zijn dat een interne crisis tot een opmerkelijke koers of besluiten van een organisatie leidt, waardoor er ook een externe crisis op volgt.
  • Of ook het niet nemen van besluiten kan tot crisis leiden, zoals ik beschrijf in tot crisis gemaakt.
  • Er is een heel scala aan redenen die tot een interne crisis kan leiden. Grote ego’s, fundamental surprise, domme besluiten (zwarte eenden), verkeerde situation awareness en slordigheid. Om er maar eens een paar te noemen.
  • En het is geen of/of, het kan makkelijk zijn dat de ene oorzaak een andere oproept. Ongeluk komt zelden alleen.
  • Daarnaast kan een interne crisis bewust ontstaan door fraude of andere wederrechtelijke activiteiten. Dit soort crises zitten op het randje tussen intern en extern.
  • Er zijn nog veel meer redenen voor een interne crisis. Kern ervan is dat ze allemaal de organisatie verzwakken en minder goed bestand maakt tegen grote verstoringen.
  • Wat ooit goed genoeg was om een club te leiden, schiet opeens tekort.
  • Dat is ook de boodschap van de blogs over de predictable surprise en het vulnerable system syndrome. De organisatie wordt fragiel, heeft steeds minder opties en wordt uiteindelijk tot een zugzwang gedwongen.
  • Interne crisis typeer ik daarom als unkown knowns. Bij interne betrokkenen is als het goed is bekend dat er iets niet klopt, maar bij het grote publiek is dat onbekend.
  • Vandaar de waarschuwing voor de oversprong van interne crisis naar externe crisis. Dat leidt tot een crisis als complex systeem en maakt het onbeheersbaar; want dan gaan alle betrokken variabelen op elkaar reageren.
  • Voor een organisatie in polycrisis is crisis als complex systeem natuurlijk nog onvoorspelbaarder en destructiever.

Crisistriggers voor organisaties

  • Zoals gezegd is crisis een proces, een status van de organisatie die het systeem fragiel maakt.
  • Grote incidenten, disrupties en / of rampen worden al heel gauw crisis genoemd, maar zijn dat op zichzelf niet.
  • De fragiliteit van de organisatie leidt ertoe dat zo’n ongewenste gebeurtenis niet goed gemanaged wordt, waardoor de organisatie opeens zichtbaar in een crisis belandt.
  • Dat zaten ze al, maar nu wordt het versterkt door een grote gebeurtenis die de capability van de organisatie ver te boven gaat.
  • Verwar dus niet het incident met de crisis
  • Er zijn allerlei redenen waarom een incident veel aandacht krijgt. De omvang ervan, het aantal slachtoffers, een slechte respons, moeizame crisiscommunicatie, de complexiteit van de situatie en ga zo maar door.
  • Fischhoff heeft veel onderzoek gedaan naar risicoperceptie en die spelen allemaal een rol om een ongewenste gebeurtenis als trigger te laten fungeren voor crisis.
Een serie factoren van risicoperceptie zoals beschreven door Baruch Fischhoff. Grootste risico’s worden in het kwadrant rechtsboven ervaren.
  • Uiteindelijk functioneert een groot incident dus als een trigger voor crisis, intern of extern dan wel allebei. Het maakt zichtbaar wat er al was.
  • Bovendien versterkt het incident de processen die al bezig waren. Dat is onderdeel van feed back en feed forward processen bij crisis als complex systeem.
  • Externe crisis wordt daarbij een complicatiefactor: de beeldvorming en mening over de organisatie maakt het incident groter dan het zou hoeven zijn.
  • Interne crisis is een escalatiefactor. Omdat de organisatie er slecht voor staat, wordt het incident slecht aangepakt wat de externe crisis nog verder versterkt. En daar kan de interne crisis al helemaal niks mee, wat als incompetent wordt betiteld en zo gaat het van kwaad tot erger.
  • Ook intern zullen er messen worden geslepen, al dan niet door ontslag of onder curatelestelling van topbestuurders. Zoals onlangs met Sanderink.

Compound crisis

Crisis als complex systeem bestaat altijd uit een onvoorspelbare combinatie van factoren uit de blokken interne crisis, externe crisis en crisistriggers. Voor een crisis heb je ze niet alle drie nodig, maar ze versterken elkaar wel. Als er eentje begint, doet de rest al gauw mee.

En soms is een grote gebeurtenis of een ramp gewoon een grote gebeurtenis. De Watersnoodramp werd geen crisis, maar een enorme disruptie was het wel. Een catastrofe.

Als de Watersnoodramp nu zou plaatsvinden was het zowel een ramp, een disruptie als een crisis.

De conclusie aan het eind van dit verhaal is dan ook dat een crisis altijd is samengesteld en een sociaal construct is. Niet alleen zit in een crisis een emergency, disruptie en/of dreiging verstopt; er zitten ook allerlei losse variabelen uit een interne- en externe crisis in verborgen die allemaal op elkaar reageren en de boel steeds verder opslingeren.

Dat het een sociaal construct is, maakt het niet persé tot een statisch gegeven. Het is het dynamisch proces van een complex systeem.

Daarmee is het verhaal nog niet af, maar de basis staat er nu wel. Wordt vast vervolgd, maar wanneer weet ik niet. Ik blijf namelijk gewoon wanderen in crisis, dus het komt pas als het komt.


Voor meer achtergronden over externe crisis kan ik je van harte de blogs is crisis een fout of een stijd en externe crisis als strijd aanbevelen.

Supervoorspellers. Een boekrecensie

Leestijd: 11 minuten

Voorspellen is moeilijk, vooral als het om de toekomst gaat. Deze uitspraak wordt algemeen toegeschreven aan Niels Bohr, de Deense natuurkundige. Toch meent Philip Tetlock dat het wel degelijk mogelijk is over bepaalde onderwerpen een adequate toekomstvoorspelling te doen. Sterker nog, sommige mensen kunnen dat zo goed dat hij ze supervoorspellers noemt. Omdat supervoorspellen mij een heel handige vaardigheid in het crisismanagement lijkt, las ik Tetlock’s boek. Eens checken of er iets af te kijken valt.

En ja, dat is er. Supervoorspellers gaat zowel over de techniek van het voorspellen als wel de persoonlijke eigenschappen die daar bij horen. Daar steek je altijd iets van op als crisismanager. Ik heb daarom geprobeerd de rode lijn uit het boek te filteren en hier samen te vatten.

Dat viel niet mee. Tetlock gooit op z’n zachtst gezegd alles door elkaar. Hij maakt er een soort puzzel van, wier stukjes weliswaar allemaal aanwezig zijn maar niet persé in een logische volgorde. Hij lardeert dat dan weer wel met tal van voorbeelden en anekdotes uit zijn onderzoekspraktijk, wat het een levendig boek om te lezen maakt.

Dus zeker geen verloren tijd, al helemaal niet als hij tussen de regels door over de controverse tussen Klein en Kahneman begint (failure to disagree, eerder besproken in dit blog) en zijn gedachten laat varen over Black Swans en Taleb’s mening over Supervoorspellers. Dat vind ik persoonlijk leuke extra’s die dit boek verbindt met blogs als Kahneman’s Ruis, Het Onwaarschijnlijkheidsprincipe, Taleb’s Toeval en The Black Swan.

Onzekerheid

Maar we beginnen met de gasvoorraden in Nederland. Want toen Rusland Oekraïne binnenviel, werd de leveringszekerheid van aardgas opeens heel laag. Daarom kreeg Energie Beheer Nederland de opdracht om de leegstaande ondergrondse ruimte zo veel als mogelijk te vullen. Daarbij werd ingecalculeerd dat het de Nederlandse Staat wel eens 7 miljard zou kunnen gaan kosten.

Maar dat viel totaal anders uit. Er werd zelfs 9,8 miljard mee verdiend.

Kennelijk is het lastig om de gasprijs goed te voorspellen, omdat die markt soms bijzonder volatiel kan zijn. Het is dan een aleatorische onzekerheid, schrijft Tetlock, iets wat je niet weet en het kan ook niet geweten worden. Net als het weer van volgend jaar; beter dan het seizoensgemiddelde wordt zo’n voorspelling niet.

Daartegenover staat epistemische onzekerheid. Dat zou in theorie weetbaar kunnen zijn, als je de onderliggende mechanismen weet te vinden en uiteen te rafelen. Supervoorspellers weten heel goed het verschil tussen die twee typen onzekerheid en wat ze wanneer moeten doen.

Als ze aanvoelen dat een vraag – over de valutamarkt bijvoorbeeld – met onherleidbare onzekerheid is beladen, weten ze dat ze voorzichtig moeten zijn door hun eerste inschattingen binnen de misschienzone tussen 35 en 65 procent te houden en die alleen heel behoedzaam te verlaten

philip tetlock

Voorspelbaarheid

Want ze weten dat er sowieso iets moet gebeuren, maar dat het vooral toeval is wat het dan uiteindelijk wordt. Taleb noemt dat alternatieve geschiedenissen als het al is gebeurd en steekproefpaden als het nog moet komen. Hij schaart het onder de opaciteit van de geschiedenis, zie ook dit blog over de retrospectieve vertekening.

Helderziende Gerard Croiset heeft de plek aangewezen, waar volgens hem de drie in januari 1966 van het strand van Glanelg (Australië) verdwenen kinderen liggen onder een 7,5 cm dikke betonlaag van een nieuw warenhuis in Adelaide. Gerard Croiset in contact met de moeder van de verdwenen kinderen. Het warenhuis werd gedeeltelijk afgebroken om de plek te vinden, maar zonder resultaat. De zaak is nooit opgelost en de kinderen zijn nooit gevonden. Foto ANP

Tetlock is het daar maar ten dele mee eens. Volgens hem lopen stochastische en deterministische processen gewoon door elkaar heen. “Onvoorspelbaarheid en voorspelbaarheid leven ongemakkelijk met elkaar samen in de complex met elkaar vervlochten systemen die onze lichamen, onze samenlevingen en het heelal vormen. Hoe voorspelbaar iets is, hangt ervan af wat we proberen te voorspellen, hoe ver het zich in de toekomst bevindt en onder welke omstandigheden we die voorspelling doen.”

Voor crisismanagers en incidentbestrijders is het goed om te beseffen dat in de werkelijkheid die voorspelbare en onvoorspelbare processen zich als een soort verstrengelde eenheid aandienen. Er zijn daardoor altijd scenario’s die je met grotere stelligheid kunt voorspellen dan andere. Het is dus zaak die te herkennen en uit elkaar te houden.

Oftewel, van Situation Awareness Level 2 naar 3 te springen.

Waar het op neer komt is dat je bewust bent van de betrouwbaarheid van je voorspelling dan wel scenario; hoe verhoudt zich het voorspelbare met het onvoorspelbare?

Hoe minder betrouwbaar je inschatting is, hoe meer opties en redundantie je moet inbouwen om onverwachte wendingen te kunnen managen. Dan treedt je dus defensiever op. Hoe zekerder je bent, hoe offensiever je kunt zijn. Omdat je dan namelijk altijd opties hebt om af te wijken, je hebt een plan plus. Misschien zelfs nog wel meer.

Als je onzeker bent over je voorspelling heb je die opties waarschijnlijk niet. Defensief optreden is dan de manier om redundantie en ruimte creëren om tegenvallers op te kunnen vangen. Het levert misschien minder op en duurt langer, maar het kost ook minder als het fout gaat.

Het is van de andere kant soms niet eens zo heel relevant, als je midden in een crisis zit, of je de toekomst wel of niet kan voorspellen. Ook in die gevallen moet je nu eenmaal een besluit nemen en dat doen aan de hand van een scenario, een hypothese, een voorspelling. Mogelijk kan de techniek van supervoorspellers dan behulpzaam zijn. Zoals de oplossing van Fermi.

Fermi

Enrico Fermi ergens tussen 1943 en 1949. Foto van Wikipedia

Om een vraagstuk te kunnen managen is het belangrijk het te zagen in lagen en te hakken in vakken, om het daarna weer op te bouwen tot een antwoord. Precies zoals veel brandweermensen en crisismanagers een incident aanpakken. Fermiëren noemt Tetlock dat, naar de Italiaans Amerikaanse fysicus Enrico Fermi

Die heeft een grofmazige methode bedacht, nog voordat er zoiets bestond als internet en Google, om ‘orde van grootte’ problemen op te lossen. Onder het motto: beter ongeveer goed dan precies fout.

Uiteindelijk is niet intelligentie doorslaggevend, maar hoe je ermee omgaat, is zijn stelling. Het oplossen van Fermi-problemen vraagt dan ook om een combinatie van logica, redenering en schatting. Daarvoor doorloop je de volgende stappen:

  1. Identificeer het probleem: Begrijp wat je wil oplossen en wat er aan je wordt gevraagd. Wanneer ben je succesvol met je antwoord?
  2. Stel de belangrijkste gegevens en parameters vast.
  3. Formuleer de juiste vragen: vraag jezelf af welke gegevens belangrijk zijn voor het probleem en welke aannames je kunt maken.
  4. Vraag jezelf ook af welke beperkingen er zijn en wat er mogelijk over het hoofd wordt gezien. Denk aan de Regel van Hermans.
  5. Maak schattingen van de gegevens die je nodig hebt. Gebruik logica en redenering om te bepalen welke schattingen het meest waarschijnlijk zijn.
  6. Controleer en reviseer: Controleer je schattingen en beoordeel of ze redelijk zijn. Herhaal de stappen totdat je een antwoord hebt dat goed genoeg is.

Het doel van het oplossen van Fermi-problemen is niet om een precies antwoord te krijgen, maar om een idee te krijgen van wat een realistische schatting zou kunnen zijn. Door regelmatig met Fermi-problemen te oefenen, kun je je logische en redeneervaardigheden verbeteren en je intuïtie ontwikkelen voor het oplossen van complexe problemen.

Dat maakt het ook een mooie training voor incidentbestrijders en crisismanagers. Wanneer is deze bosbrand verdubbeld in omvang? Wat als we een offensieve communicatiestrategie hanteren? Moeten we een deel van het bedrijfsproces stil leggen, of juist doorgaan? Dat soort vragen.

Eén van de beroemdste opgaven van Fermi gaat over het aantal pianostemmers in Chicago. Om die vraag te beantwoorden heb je minimaal de volgende feiten nodig:

  1. Het aantal piano’s in Chicago
  2. Hoe vaak een piano gestemd moet worden per jaar
  3. Hoe veel tijd je nodig hebt om een piano te stemmen
  4. Wat de gemiddelde arbeidstijd van een pianostemmer is.

Volgens Tetlock zijn het er 63. In Supervoorspellers legt hij precies uit hoe hij daartoe komt.

Vraagstukken

Voor de gemiddelde crisismanager die niet over een ontstemde piano beschikt is het natuurlijk een nauwelijks relevant vraagstuk. Maar in het verlengde van de Toekomstverkenning Crisisbeheersing zijn er wel wat vragen over bijvoorbeeld bottlenecks in de kritieke infrastructuur te verzinnen die het rapport een stuk concreter kunnen maken. Ik zet er een paar onder elkaar ter illustratie:

  • Hoe vaak zal de stroom uitvallen per jaar in 2050?
  • Wat is de hoeveelheid water dat een gemiddeld gezin te beschikking heeft in 2050 per dag?
  • Hoeveel significante hacks met ransomware zullen er per week plaatsvinden in 2050? En ja, die van de KNVB past daar in.
  • Kunnen in 2050 alle reizigers in de spits vervoerd worden met het OV?
De egel weet één groot ding, maar de vos weet vele kleine dingen. En de aap gooit pijltjes op goed geluk. Dat zijn de drie smaken in het voorspellen, volgens Tetlock. En ze sluiten elkaar niet eens uit.

Supervoorspellers vinden dus niet alleen emplooi tijdens repressie, maar ook in de preparatiefase en toekomstverkenningen.

Tetlock geeft nog een leuk voorbeeld van een techniek om te leren voorspellen. Deze keer gaat het over de familie Renzetti.

De Renzetti’s zijn omstreeks 40 en hebben een kind van vijf, Tommy. Ze hebben een klein huis aan de Chestnut Avenue. Vader is boekhouder en moeder werkt in een kinderdagverblijf. Oma Camilla woont bij hen in. De vraag is: hoe waarschijnlijk is het dat de Renzetti’s een huisdier hebben?

Volgens Tetlock gaan de meeste mensen nu inschattingen maken over die informatie. Wat betekent het dat het een Italiaanse naam is (gezelligheid en veel familie), hoe beoordeel je een klein huis (weinig ruimte), wat zou Tommy er van vinden (jottum) en niet te vergeten Oma Camilla (al die haren).

Elk feitje kan de waarschijnlijkheid groter of kleiner maken of de Renzetti’s wel of geen huisdier hebben. Conform Kahneman noemt Tetlock deze invalshoek het binnenaanzicht van het vraagstuk.

Maar daar zullen supervoorspellers niet mee beginnen, zo gaat hij door. Die beginnen met het buitenaanzicht en zoeken een anker, een basispercentage: wat is het percentage Amerikaanse huishoudens met een huisdier?

Dat blijkt 62% te zijn en dat is het startpunt om het antwoord verder te preciseren met het binnenaanzicht, zoals hiervoor beschreven. Dat leidt tot een nieuwe inschatting, bijvoorbeeld 67%.

Waarzegster op de markt in Petticoat Lane, Londen 1947. Foto ANP

Maar dan ben je nog niet klaar. Want je kunt het antwoord nog verder tweaken.

Vossen, egels en apen

Bijvoorbeeld door anderen om advies en raad te vragen, je eigen aannames kritisch te bevragen, meer informatie te zoeken en open te staan voor verbeteringen en twijfel. Wat heb ik over het hoofd gezien? Kan ik buiten mijn tunnel kijken? Hoe zou X dit probleem aanpakken?

Deze eclectische instelling vergelijkt Tetlock met de vos, naar de allegorie van Archilocus.

De vos weet vele dingen, maar de egel weet één groot ding

archilocus

Egels weten één groot ding en dat is hun ideologie, die ze halsstarrig blijven verdedigen en uitleggen. Vaak kunnen ze een goed verhaal vertellen, dat logisch is geconstrueerd en vol staat met woorden als ‘daarenboven’ en ‘bovendien’.

Vossen daarentegen gebruiken veel meer woorden als ‘echter, maar en aan de andere kant.’ Ze zijn genuanceerder en daardoor niet mediageniek. De egels komen dus op TV en presenteren zich als de expert. Zij weten het namelijk zeker.

De experimenten van Tetlock met zijn Good Judgement Project wezen echter heel wat anders uit. Gedurende enkele tientallen jaren vergeleken ze de juiste score op voorspellingen tussen de egels en de vossen.

De egels deden het niet beter dan een pijltjes gooiende aap. Maar onder de vossen bleken zich enkele supervoorspellers te bevinden, die significant beter scoorden dan het toeval. Op epistemische onzekerheidsproblemen, vanzelfsprekend.

Supervoorspellers hanteren dus niet alleen diverse technieken, maar zijn ook als persoon eclectisch. Hun ego is klein, ze durven te twijfelen en stellen zichzelf kritische vragen. Net als de bij de Stoa en Prohairesis gaat het er niet om hoe slim je bent of wat je overkomt, maar om wat je er mee doet.

Wat voor de lezers van deze website geen verrassing zal zijn, maar wel een bevestiging.

Supervoorspellers

Tetlock verwerkt doorheen zijn boek allerlei eigenschappen van supervoorspellers, veel daarvan ben je ook al in dit blog tegen gekomen. Dan op bladzijde 184 en 185 somt hij opeens dit rijtje op dat ik te mooi vond om niet te plaatsen.

Voor de liefhebbers van Klein, Kahneman en Taleb is dit een prima boek. Het raakt veel onderwerpen die ook door hen worden beschreven. Is je intuïtie betrouwbaar, hoe ga je om met onvoorspelbare gebeurtenissen en wat is de beste manier om ingewikkelde problemen aan te pakken? Om er maar eens een paar te noemen.

Want er komt nog veel meer voorbij, zoals gezegd creatief verpakt in een amalgaam van anekdotes, voorbeelden en verwijzingen naar andere theorieën. Dat maakt dit boek uitermate geschikt als vakantielectuur. Zit je toch in het zonnetje en doe je nog iets nuttigs ook.

Wat wil een mens nog meer?


Tetlock heeft de tien geboden voor de aankomende supervoorspeller als bijlage in zijn boek opgenomen. Enkelen daarvan spreken voor zich, helemaal na lezing van dit blog. Voor de rest zul je Supervoorspellers toch echt zelf moeten lezen.

Tien geboden van Tetlock

  1. Triage. Kies dan wel definieer het juiste vraagstuk
  2. Deel schijnbaar onoplosbare problemen op in kleinere, oplosbare subproblemen
  3. Vind het juiste evenwicht tussen buitenaanzicht en binnenaanzicht
  4. Vind het juiste evenwicht tussen overreageren en ondereageren op nieuwe feiten
  5. Zoek bij elk probleem de met elkaar strijdige causale krachten
  6. Streef ernaar net zo veel gradaties van twijfel te onderscheiden als het probleem toelaat, maar niet meer
  7. Vind het juiste evenwicht tussen te veel en te weinig zelfvertrouwen, tussen behoedzaamheid en besluitvaardigheid
  8. Zoek de fouten achter je vergissingen, maar wees op je hoede voor retrospectieve vertekening en hindsight bias
  9. Breng het beste in anderen naar boven en laat anderen het beste in jouw naar boven brengen
  10. Leer rijden op de fouten balancerende fiets
  11. Behandel geboden niet als geboden

Retrospectieve vertekening bij ongevalsonderzoek

Leestijd: 8 minuten

Retrospectieve vertekening betekent dat je met de kennis van achteraf een oordeel velt over een incident of een situatie. Het wordt ook wel hindsight bias genoemd. Deze vertekening speelt een grote rol bij het onderzoek naar ongevallen en rampen. Achteraf voorspellen (want dat is retrospectieve vertekening) houdt namelijk de mythe van maakbaarheid in stand. En dat is een venijnig probleem.

In de week dat ik dit blog zat te schrijven gebeurde er een ernstig treinongeluk bij Voorschoten. Toen al wist ik dat dit blog met retrospectieve vertekening een andere lading zou gaan krijgen dan zonder die aanrijding. Uiteindelijk vond ik het toch geen reden om er mee te stoppen, omdat het wel degelijk een venijnig probleem is dat ook nog eens lastig te beschrijven is.  

Een deel van het venijn zit in de aard van de retrospectieve vertekening zelf. Als je kritiek levert op een rapport door te zeggen dat het aan hindsight bias lijdt, kun je je er als onderzoeker haast niet tegen verdedigen.

Een beetje zoals Freudianen anderen betichten van het hebben van afweermechanismen en zodra je daar tegenargumenten op geeft triomfantelijk roepen: zie je wel!

retrospectieve vertekening
DALL-E heeft een aantal illustraties gefabriceerd van wijze mensen die een hooiberg doorzoeken. Het is onduidelijk wat ze zoeken voordat ze het gevonden hebben. Als het gevonden is, weten ze daarna precies hoe je een speld in een hooiberg zoekt. In ieder geval deze speld in deze hooiberg.

Dat is, enigszins paradoxaal, tegelijk ook het grootste verdedigingsmechanisme dat je hebt om het verwijt van hindsight bias naast je neer te leggen.

Daarmee blijft het wel een ongemakkelijke olifant in de kamer.

Onderzoeksraad

Zo ook bij het rapport van de Onderzoeksraad naar de moorden op Peter R. de Vries en Derk Wiersum. Daarvan werd direct door journalisten gezegd dat die voorkomen hadden kunnen worden. Hoe heftig die situatie ook is, het is maar de vraag of dat ook echt zo is.

Want de hindsight bias in het rapport laat weliswaar zien wat er nu mis is gegaan, maar vertelt niet wat er anders zou zijn gebeurd. Taleb benoemt dit argument in zijn boek ‘Misleid door toeval’ ook, onder de noemer alternatieve geschiedenis en steekproefpaden. Ik schreef daar in een eerder blog al wat over.

Voor nu volsta ik met te zeggen dat als er bepaalde elementen uit het rapport van de Onderzoeksraad in de werkelijkheid te voorkomen zouden zijn geweest, er onherroepelijk iets anders zou zijn gebeurd. En niet noodzakelijkerwijs beter. Want dat weten we dus niet, wat er in de toekomst gebeuren zal.

Vrijwel tegelijkertijd verscheen er in Engeland een rapport over de aanslagen tijdens het concert van Ariane Grande in Manchester op 22 mei 2017. Ook daarover zei men dat die aanslagen voorkomen hadden kunnen worden.

Net als bij het rapport van de OvV roep ik dan terug dat er sprake is van hindsight bias. Je kan niet zeggen dat de aanslagen voorkomen hadden kunnen worden, vanwege het bestaan van alternatieve geschiedenissen en steekproefpaden.

Misschien was er dan een aanslag gepleegd op een andere plek, een andere plaats. We weten het niet.

Je kan wel zeggen dat op de manier waarop de boel nu georganiseerd is, het in ieder geval niet gelukt is om de ongewenste gebeurtenis te voorkomen. Hoe meer de cognitieve, organisatorische en politieke factoren falen, hoe voorspelbaarder een ongewenste gebeurtenis is; alleen de aard, omvang en tijdstip zijn niet voorspelbaar. En dus eigenlijk ook niet te voorkomen.

Zelfs over 9/11 wordt gezegd dat het voorkomen had kunnen worden, maar daarvoor geldt hetzelfde. En zelfs nog eerder, over Pearl Harbor, waren er stemmen die zeiden dat de aanval tegengehouden had kunnen worden. Alhoewel de onderzoekers daar zich wel bewust waren van de retrospectieve vertekening, al kende men de term toen nog niet.

Pearl Harbor

In zijn boek The Drunkard’s Walk beschrijft Leonard Mlodinow welke signalen door de Amerikanen zijn gemist voor de aanval op Pearl Harbor. Niet dat het er zo veel zijn, dat niet. Maar het is ook niet zo dat alles geheim is gehouden, wat je wellicht zou verwachten in een oorlog.

Zo informeerde een Japanse spion zich over de positie van de schepen in de haven, met bijzondere aandacht voor de oorlogsbodems. De Japanse zendercodes werden opeens per maand veranderd, in plaats van eens per half jaar, zoals de gewoonte was. En er bleek een ambtsinstructie te zijn afgegeven om geheime stukken te verbranden.

Maar al deze signalen kregen pas achteraf betekenis, na de aanval. Vooraf waren het loze signalen in een enorme brei van ruis; duizenden berichtensnippers die met elkaar concurreren om aandacht. Je weet niet eens dat je zoekt naar een speld in een hooiberg. Hoe kan je dan iets vinden?

En als je wel iets vindt, hoe weet je dan dat het waar is en geen afleidingsmanoeuvre?

Roberta Wohlsetter was één van de historici die onderzoek deed naar Pearl Harbor. Over die gemiste signalen zei zij in 1962 al het volgende:

After the event, of course, a signal is always crystal clear; we can now see what disaster it was signaling….But before the event it is obscure and pregnant with conflicting meaning.

roberta wohlsetter

Retrospectieve vertekening dus. David Hand schaart deze bias in zijn boek over het Onwaarschijnlijkheidsprincipe onder de Wet van de selectie. Oftewel, pas achteraf geven mensen betekenis en een kans aan een gebeurtenis. Daardoor wordt de kans op het voorval groter ingeschat.

Anders gezegd: omdat Pearl Harbor is gebeurd, zal men achteraf de kans op Pearl Harbor groter inschatten dan als het niet was gebeurd.

Taleb

Ook Taleb schrijft over retrospectieve vertekening, in The Black Swan. Het houdt kennelijk veel mensen bezig die zich verdiepen in kleine kans, groot gevolg incidenten. Volgens Taleb is het niet goed mogelijk om precies te achterhalen welke processen tot welk resultaat hebben geleid. Daarom noemt hij de geschiedenis opaak, ondoorzichtig.

Je ziet wel de dingen die gebeurd zijn, maar niet hoe ze gebeurd zijn. Zoals je ook kan zien wat je eet, maar niet hoe ze het in de keuken gemaakt hebben. Je ziet wel een resultaat, maar niet hoe het proces verlopen is. Dat is wat de opaciteit van geschiedenis betekent.

Die opaciteit bestaat uit drie elementen, schrijft Taleb. Retrospectieve vertekening is er één van.

Gebeurtenissen in het verleden interpreteren met kennis achteraf, waardoor de waangedachte ontstaat dat deze gebeurtenissen te voorspellen waren

nicholas taleb

Een andere is de illusie van kennis, waardoor we in een enorm complexe wereld menen te weten hoe de dingen zullen gaan. De laatste van het triplet benoemt hij als de overwaardering van feitelijke informatie en de handicap van geleerde mensen om categorieën te bedenken waardoor de werkelijkheid er opeens logisch en voorspelbaar uitziet. Terwijl dat helemaal niet zo is, vindt Taleb.

Als je net als Taleb meent dat de causaliteit tussen hoe iets gebeurd is en wat er gebeurd is mede veroorzaakt wordt door toeval, krijg je twee variabelen die je los van elkaar in een tabelletje kunt zetten. Dat ziet er dan zo uit:

Omdat er vrijwel nooit een onderzoekscommissie wordt ingericht op een goed resultaat, vallen er twee mogelijke uitkomsten van alternatieve geschiedenissen en steekproefpaden gelijk al af. Wat overblijft is pech gehad of fout gedaan.

Complexiteit

De retrospectieve vertekening zorgt er vervolgens voor dat men meent dat een foute uitkomst ook het gevolg zal zijn van een fout proces met foute besluiten. Na uitgebreide studie zal het college van wijze mensen ook daadwerkelijk allerlei signalen vinden en die met backward tracking construeren tot een keten of een netwerk van met elkaar samenhangende stapjes die uiteindelijk hebben geleid tot het noodlottig voorval. Dat voorkomen had kunnen worden.

Zoals je ook kunt zien op onderstaand plaatje; een logische reconstructie achteraf.

Deze tekening is afkomstig uit het werk van Richard Cook, bekend geworden door zijn onderzoek naar veiligheid en complexe systemen.

Wat het plaatje ook laat zien is de situatie voor het ongeval, voor de schade. Als je op basis van de informatie die je dan hebt moet bedenken wat er zal gebeuren, sta je eigenlijk voor een onmogelijke opdracht. Allerlei signalen en variabelen verschijnen en interacteren met elkaar en zorgen voor een onvoorspelbare uitkomst. Dat is wat complexiteit is, onvoorspelbaarheid.

Je hebt geen idee hoe het zal aflopen. Het is VUCA: volatiel, onzeker, complex en ambigu. Het is, zoals gezegd, een hooiberg waarin je niet weet wat je zoekt. Waarvan je achteraf de speld kunt laten zien die je had moeten ontdekken, inclusief het pad om ‘m te vinden.

Dat is vooraf, dus zonder hindsight, natuurlijk niet te doen. Anders dan door toeval. Voorspellen is erg moeilijk, vooral als het om de toekomst gaat, zei Niels Bohr al. Een klein rijtje foute voorspellingen ter illustratie.

retrospectieve vertekening
Rijtje foute voorspellingen uit Het Onwaarschijnlijkheidsprincipe

Dit principe, de onvoorspelbaarheid van de toekomst, raakt de kern van het venijnige probleem van retrospectieve vertekening: als we voordat er een ongeval gebeurt zeggen dat de toekomst onvoorspelbaar is, hoe kun je dan na dat ongeval zeggen dat de toekomst wel voorspelbaar was?

Mythe

De manier waarop onderzoekscommissies nu werken houdt de mythe in stand dat als je maar het juiste proces volgt, het resultaat voorspelbaar goed zal zijn. Dat wijst het onderzoek namelijk uit, gedaan door knappe koppen. Dus het moet wel waar zijn. Dat is de mythe van maakbaarheid.

Terwijl iedereen die een beetje logisch en non-egocentered nadenkt weet dat het niet zo is. Zeker als een gebeurtenis grotendeels wordt veroorzaakt door een boef. Als die een aanslag wil plegen zal hij dat doen, linksom of rechtsom. Welke acceptabele maatregelen je ook neemt.

Acceptabel in de zin dat het moet passen bij onze democratische rechtsstaat en mensenrechten. Natuurlijk kun je op de minste verdenking iedereen oppakken en opsluiten. Dat zal de kans op een aanslag onherroepelijk kleiner maken. Maar die tactiek botst enorm met de vrijheden die we in onze samenleving verworven hebben. En ja, die schuren soms met veiligheid.

Het lijkt mij dus logisch dat onderzoekscommissies en journalisten zich bescheiden opstellen en niet meer roepen na een ongevalsrapport dat het te voorkomen was geweest. Hetgeen niet betekent dat je geen zaken kunt verbeteren, want dat kan natuurlijk wel. Maar dan moet je HRO gaan organiseren, dat kan ik zonder ongevalsonderzoek vooraf voorspellen.

Al heb je ook dan geen garantie dat er geen Black Swan bij je neer zal strijken.


Dit is de tweede spin off van Het Onwaarschijnlijkheidsprincipe. De eerste ging over regressie naar het gemiddelde in de oefenpraktijk. Nauw gelieerd aan dit onderwerp is het blog over Taleb’s Toeval. Andere blogs over ongevalsonderzoek zijn De Barmhartige Onderzoeker, Elk ongeval heeft zijn eigen verhaal, je moet het alleen nog zien te vinden en Over het gelijk van de Onderzoeksraad voor Veiligheid

Het Onwaarschijnlijkheidsprincipe. Een boekrecensie

Leestijd: 12 minuten

Het Onwaarschijnlijkheidsprincipe is een interessant boek dat laat zien dat de kans op een buitengewoon zeldzame gebeurtenis helemaal zo klein niet is. Sterker nog, het is juist heel logisch dat er vaak iets onalledaags gebeurt, zo illustreren de vijf wetten van onwaarschijnlijkheid ons. Zat Taleb er dan naast, en is zijn Black Swan helemaal niet zo’n  “highly impropable event”?

Zo eenvoudig is het nu ook weer niet en dat past overigens prima bij dit boek. Het leest makkelijk weg maar is tegelijkertijd taaie stof. Steeds als ik een hoofdstuk uit had vroeg ik me af wat ik er nu eigenlijk van onthouden had en wat ik er mee kan in de praktijk. Dat laatste lees je in de laatste paragraaf.

We gaan beginnen met de start van mijn opleiding op de brandweeracademie.

Aan het eind van de 30e opleiding tot brandweerofficier bleef er tijd over. Het was de bedoeling dat de boel 19 maanden zou duren, maar vanwege allerlei herzieningen in het brandweeronderwijs was er tussentijds veel geschoven. Daardoor waren sommige modules versneld, en andere vertraagd. We zaten in 1990 zodoende maanden te wachten op het laatste examen van de module Hoofdbrandmeester Preventie, dat maar niet af kwam.

Luc Quintyn

In de tussentijd verzon Ruud Jonkman, het toenmalige hoofd van de officiersopleiding, van alles om ons bezig te houden. Eén van zijn meer briljante verzinsels was een lezing door Luc Quintyn, een officier uit het Belgische leger die eigenlijk bij toeval betrokken was geraakt bij de traumazorg van medewerkers in de frontlinie. Zijn eerste grote klus was het begeleiden van de bergingswerkzaamheden van de Herald of Free Enterprise in 1987. Daarover kwam hij ons vertellen.

onwaarschijnlijkheidsprincipe

Let wel, in die tijd was traumanazorg nog totaal nieuw. Over emoties sprak je niet. Zeker niet in een groep.

Wij hingen aan zijn lippen. Quintyn was een uitzonderlijk goede verteller en een sympathiek mens die veel had meegemaakt. Over zijn eigen bijdrage was hij zeer bescheiden. Hij deed slechts wat nodig was, zo zei hij, zonder hem was het waarschijnlijk net zo goed gegaan. Wij wisten intussen wel beter.

Zijn verhaal maakte grote indruk, en één deel daarvan in bijzonder. Quintyn vertelde dat hij vaak op de plaats incident aanwezig was, gewoon om te kijken wat er gebeurde en naar bijzonderheden te speuren. Kleine signaaltjes om misschien op te interveniëren. Tijdens één van die rondes had hij zo een fotorolletje gekregen van duikers, dat ze hadden aangetroffen in een hut aan boord.

Quintyn besloot het te laten ontwikkelen. Het bleek een setje vakantiefoto’s te zijn waar als ik me goed herinner voornamelijk een lachende vrouw op stond. Maar hij kon er verder niets mee en bewaarde het mapje afdrukken in een bureaula. Tussen allerlei andere vondsten.

Geruime tijd later, Quintyn maakte weer één van zijn rondes, trof hij daar een man die langs de waterkant liep te dralen. Zijn gedrag viel op en Quintyn sprak hem aan. De man hield het eerst wat af, maar brak toen Quintyn doorvroeg en het onderwerp van zijn bezoek op tafel kwam.

Hij vertelde dat hij een relatie onderhield met een getrouwde vrouw en dat ze beiden op de ferry hadden gezeten. Hij had zich kunnen redden, maar zij niet. Het enige wat hij van haar had waren zijn herinneringen, want hun vakantiefoto’s waren tijdens het ongeval verloren gegaan.

Op dat moment dacht Quintyn aan het fotomapje in zijn bureaula en kwam er met wat vragen achter dat de man voor zijn neus met de vrouw van de foto’s aan boord was geweest. Quintyn besloot de afdrukken aan de man te geven; hij vond het niet zijn taak om te oordelen over de situatie, hij was er alleen maar om geestelijke nood te lenigen en zo kon hij dat doen.

Het Onwaarschijnlijkheidsprincipe

Hoe onwaarschijnlijk is dat verhaal? Toch was het echt gebeurd. Wat een bizar toeval, vonden wij, zonder enige ervaring. Ik dacht er later nog veel aan terug, omdat bij elke ramp en ellende die ik van dichtbij meemaakte dit soort onmogelijke verhalen boven tafel komen.

Brandweermannen die hun dienst ruilden met een collega die vervolgens omkwam. Of mensen die op het allerlaatste moment wel een stoel kregen in een vliegtuig omdat iemand van de airline zijn plek afstond en een latere vlucht nam. Er zijn voorbeelden te over, de één nog onwaarschijnlijker dan de andere.

En bij al die voorbeelden vraag je je af: wat was de kans dat dit zou gebeuren?

Dat is precies waar Het Onwaarschijnlijkheidsprincipe over gaat. Volgens David Hand, de schrijver, zijn extreem onwaarschijnlijke gebeurtenissen juist heel alledaags.

Het komt voort uit een verzameling fundamentelere wetten die er met elkaar onvermijdelijk en onverbiddelijk toe leiden dat zulke buitengewoon onwaarschijnlijke gebeurtenissen plaats hebben. Volgens deze wetten, dit principe, zit de wereld zo in elkaar dat die toevalligheden onontkoombaar zijn.

Ze moeten dus gebeuren, stelt Hand. Er zit niets bovennatuurlijks aan. Hand is emeritus hoogleraar wiskunde aan het Imperial College in London en is gespecialiseerd in statistiek. In dit boeiende boek met veel voorbeelden van onwaarschijnlijke verhalen blijft de wiskundige kant (gelukkig) grotendeels achterwege. Dat maakt het ook voor de niet-beta’s goed te volgen.

Luc Quintyn 1950-2011. Foto Wikipedia

Sterker nog, juist zij zouden dit boek moeten lezen. Om te begrijpen dat onwaarschijnlijke gebeurtenissen helemaal zo onwaarschijnlijk nog niet zijn.

Daartoe beschrijft David Hand vijf wetten, die als strengen op elkaar inwerken. Voor de volledige uitleg moet je natuurlijk in het boek zelf zijn. Maar een korte toelichting is op deze website wel op zijn plaats, als aanvulling op de blogs over Taleb, Averting Catastrophe, Ruis en Predictable Surprise.

Vooral omdat ik met enige voorzichtigheid meen dat het Onwaarschijnlijkheidsprincipe een soort van nuancering van The Black Swan is. Black Swans zijn helemaal niet zo onwaarschijnlijk, maar hun impact is wel heel groot. Ja, ik vind het zelf ook gedurfd. Maar ik schrijf het toch op.

Dit zijn de vijf wetten van het Onwaarschijnlijkheidsprincipe.

1.     De wet van de onvermijdelijkheid

De wet van de onvermijdelijkheid houdt in dat als je een complete lijst maakt van alles wat er kan gebeuren in een bepaalde situatie, er altijd één van die uitkomsten zal plaatsvinden. Al weet je van tevoren niet welke.

Dus als je een golfbal slaat op een green, komt ie altijd ergens uit. Dat is onvermijdelijk. Dat we aan sommige uitkomsten meer waarde toekennen dan aan andere, bijvoorbeeld een hole in one, is wat anders. Dat valt onder de wet van selectie, die komt iets verderop nog terug.

De wet van de onvermijdelijkheid betekent niet dat dan ook maar alles in de praktijk zal gebeuren. Het is theoretisch niet onmogelijk dat een aap op een typemachine een roman schrijft, of dat een marmeren beeld gaat zwaaien als alle moleculen tegelijk één kant op bewegen en dan weer terug. Maar de praktische kans is zo klein, dat je het volgens de Wet van Borel toch als onmogelijk moet beschouwen.

Om zo’n onwaarschijnlijkheid te onderbouwen benoemde Borel een aantal schalen waarop je kansen kan afwegen. Kansen die op een menselijke schaal te verwaarlozen zijn, zijn kleiner dan ongeveer één op miljoen. Dat is een norm die ook in het externe veiligheidsbeleid wordt gebruikt. Desondanks vinden er nog steeds industriële ongevallen plaats, hetgeen overigens geen falsificatie is van de Wet van Borel, maar aantoont dat de veiligheidsmaatregelen niet op orde waren.

2.     De wet van de werkelijk grote aantallen

De wet van de grote aantallen zegt dat het bij een voldoende groot aantal gelegenheden aannemelijk is dat willekeurig welke bizarre gebeurtenis zich voordoet. Alles wat kan gebeuren, zal gebeuren, als we het maar vaak genoeg proberen.

Dus hoe vaker je de straat over steekt, hoe waarschijnlijker het is dat er een keer iets mis gaat. Hoe meer mensen je over een spoor afhandelt, hoe groter de kans dat er een keer een botsing of een ontsporing plaatsvindt. Hoe meer mensen je met zes dobbelstenen tegelijk laat gooien, hoe waarschijnlijker het is dat er iemand bij zit die in één worp zes zessen gooit.

Bekend voorbeeld van survivorship bias, dat veel rondgaat op Twitter. Het is afkomstig van Abraham Wald, een wiskundige. Hij wees er op dat juist de vliegtuigen die niet terugkwamen geraakt waren op kwetsbare plekken. De terugkomers waren wel geraakt, maar niet op cruciale punten. De tekening werd gemaakt door Cameron Moll.

Hier zit natuurlijk al een eerste linkje naar een Black Swan. Hoe meer mensen er door je proces gaan en hoe langer je dat doet, hoe waarschijnlijker het wordt dat er een keer iets onwaarschijnlijks plaatsvindt met een hele grote schade. Ook al ging het nog zo lang goed. Sterker nog, het is niet eens onwaarschijnlijk dat het vlak daarna nog eens gebeurt.

3.     De wet van de selectie

De derde wet van het Onwaarschijnlijkheidsprincipe zegt dat sommige gebeurtenissen pas als onwaarschijnlijk worden betiteld als ze al gebeurd zijn. Omdat we er dan pas betekenis aan geven. Dus een golfer die ballen blijft slaan zal bij elke slag meer of minder tevreden zijn over de uitkomst, maar bij een hole in one zich wellicht afvragen hoe dat mogelijk is.

Je ziet het ook bij ongevallen. In onveilige werksituaties gaat het heel lang goed, omdat mensen zich steeds aanpassen en improviseren om schade te voorkomen. Tot het op een dag wel fout gaat. Dan wordt er achteraf iets mee gedaan, terwijl er eerder ook al voldoende aanleiding was om in te grijpen. Maar toen werd een ongeval nog als onwaarschijnlijk gezien.

Het is overigens nog steeds vaak zo dat de werknemer dan de schuld krijgt. Menselijke fout, roept men dan, maar al die keren dat het dankzij diezelfde werknemer wel goed ging wordt voor het gemak dan maar even vergeten.

Nauw gelieerd aan de Wet van de selectie is de survivalshipsbias. Er wordt naar de oorzaak van ongewenste gebeurtenissen gezocht door de overblijvers te onderzoeken. Francis Bacon schreef er ruim vierhonderd jaar geleden al over in zijn boek Novum Organon.

Het was een goed antwoord dat een man gaf toen ze hem in een tempel een schilderij lieten zien van zeelieden die aan een schipbreuk waren ontkomen door heilige geloften af te leggen en ze wilden weten of hij nu niet de macht van de goden erkende. Jawel, was zijn wedervraag, maar waar zijn de gelovigen geschilderd die na hun geloften zijn verdronken. Alleen de overlevenden van een schipbreuk kunnen je vertellen dat ze vooraf gebeden hebben.

francis bacon

4.     De wet van de kanshefboom

De wet van de kanshefboom zegt dat een kleine verandering in een situatie een heel groot effect kan hebben. Hand maakt de vergelijking met twee mensen op een wip. Die kan in evenwicht blijven, ook als de personen in gewicht verschillen, indien ze op de juiste afstand van het midden zitten. Maar zodra de zwaardere persoon iets naar achteren verschuift, vliegt de lichtste omhoog. Andersom is het effect minder groot. Dat de wip in evenwicht was, betekent niet dat het een stabiel systeem was.

Francis Bacon 1561 – 1621 was een Engels filosoof die veel publiceerde over de wetenschappelijke methode

Hand geeft nog een voorbeeld over water. Als je water van 25 °C vier graden afkoelt, gebeurt er niet zo veel. Maar als je water van 2 °C vier graden afkoelt, gebeurt er heel veel en heb je opeens ijs.

Op die manier kunnen instabiele en metastabiele systemen door een kleine verandering hele grote effecten veroorzaken. Dat lijkt onwaarschijnlijk, maar is door de kanshefboom goed verklaarbaar.

Een andere oorzaak van de kanshefboom is dat een systeem geen normaalverdeling volgt, maar alleen maar lijkt op een normaalverdeling. Hier geeft Hand de beurskoersen als voorbeeld en introduceert daarbij het voor mij nieuwe begrip van de cauchyverdeling. Die heeft veel langere staarten dan een normaalverdeling en ook heel interessant, geen gemiddelde waarde.

Maar veel dieper ben ik daar niet op in gegaan. Dat stuk heb ik gescand.

Wat de wet van kanshefboom dus eigenlijk laat zien is dat we denken een fenomeen te begrijpen, maar in werkelijkheid zitten we er naast. Daar komen we dan achter door een in onze ogen onwaarschijnlijke gebeurtenis, die volgens een cauchyverdeling helemaal niet zo onwaarschijnlijk is.

Daarnaast, schrijft Hand, kan het voorkomen dat het systeem zich wel normaal gedraagt, maar jij niet. Hij geeft het voorbeeld van Roy Sullivan, die tussen 1942 en 1977 zeven keer door de bliksem werd getroffen. Dat lijkt heel onwaarschijnlijk, maar is het niet als je weet dat Sullivan een parkwachter is die tijdens onweer bijna altijd buiten in het bos is.

5.     De wet van het voldoende dichtbij

Dit vond ik eerlijk gezegd de meest lastige van de vijf wetten om in het kort te beschrijven. Gelukkig zijn er dan mensen zoals mijn goede vriend Gabor die mij wijzen op mogelijke verbeteringen. Weet dus, als je dit leest, dat het stukje hieronder, en eigenlijk zelfs het hele blog, een peer review heeft gehad :-).

De wet van het voldoende dichtbij zegt dat als twee gebeurtenissen maar voldoende op elkaar lijken ze als identiek worden beschouwd. Dan zie je opeens patronen die er niet zijn en maak je een waarschijnlijke gebeurtenis onwaarschijnlijk door het ten onrechte te vergelijken met andere onwaarschijnlijke gebeurtenissen.

“Door de criteria van een precieze overeenkomst af te zwakken, kunnen we de kans op kennelijke toevalligheden vergroten. Gebeurtenissen die misschien uiterst onwaarschijnlijk lijken, kunnen bij nadere beschouwing heel plausibel lijken.”

Hand noemt het voorbeeld van Bill Shaw en zijn vrouw, die allebei een treinongeval overleefden waarbij wel vele andere doden vielen. Dat lijkt onwaarschijnlijk, alleen was het niet hetzelfde treinongeluk en zat er vijftien jaar tussen.

Ongetwijfeld zouden de kranten het nieuws ook hebben opgepikt als bij het ene ongeluk Bill betrokken was geweest en bij het andere zijn broer, of zus, of kinderen, of ouders, enzovoorts. En ook als er vier jaar, of twintig jaar tussen de ongelukken had gezeten.

david hand

De onwaarschijnlijkheid van de Black Swan

Het onwaarschijnlijkheidsprincipe laat zien dat onwaarschijnlijke gebeurtenissen niet zo zeldzaam zijn als wel wordt gedacht. In die zin is de verschijning van een Black Swan dus ook niet zo vreemd. Die komen nou eenmaal voor, betoogt Hand. Maar dat betekent niet dat je ze kan voorspellen.

Dat er een Black Swan zal landen is dus niet zo onvoorspelbaar, maar wel welke Black Swan, en wanneer. Dat kan je vooraf niet weten.

De Tay Bridge disaster bij Dundee in 1879. In een gierende storm stortte de brug in en de trein in zee. Er werden 59 lichamen geborgen, mogelijk zijn er nog 16 meer geweest, maar die zijn niet gevonden.

Voor bedrijven en organisaties betekent het dat je je moet voorbereiden op onwaarschijnlijke gebeurtenissen in het algemeen. Niet de kans is leidend op je preparatie, maar het mogelijke effect. Dat is wat de wet van de onvermijdelijkheid en de werkelijk grote aantallen ons vertellen. Er is altijd wat.

De wet van de kanshefboom leert ons dat we ook rekening moeten houden dat het probleem wel eens erger kon zijn dan verwacht. Dat het altijd erger kan moet je dus ook altijd meenemen in je voorbereiding en in je beeldvorming, of accepteren dat nu eenmaal niet alles voorkomen kan worden. Of allebei.

De laatste twee wetten zitten het dichtst tegen de eigenaardigheden van de menselijke psyche aan. Als eerste de wet van de selectie, die laat zien dat onwaarschijnlijkheid vaak verward wordt met onwenselijkheid en dat pas achteraf iets als bijzonder wordt aangemerkt.

De wet van voldoende dichtbij legt bovendien uit dat bepaalde gebeurtenissen te veel op een hoop worden gegooid. Zoals een stroomstoring, een brand en een cyberincident bij één bedrijf, waardoor wordt geframed dat het er een zooitje is.

Zo ontstaat er een verhaal en zo ontstaat er dus ook gemakkelijk een crisis.

Maar da’s logisch.

Predictable Surprise. Een Boekrecensie

Leestijd: 12 minuten

Ergens in het landschap van de Zwarte Zwaan, de Grijze Neushoorn en de Zwarte Eend bevindt zich ook de Predictable Surprise. Na het lezen van Max Bazerman’s boek ben ik geneigd de voorspelbare verrassing een olifant in de kamer te noemen. Een glazen olifant om precies te zijn. Eentje waar je dwars door heen kunt kijken, maar die als je hem verkeerd raakt met donderend geraas versplintert.

predictable surprise

Ik had stiekem een beetje gehoopt dat Bazerman in zijn boek alles zou onthullen over de geheime kunst van het voorspellen van verrassingen tijdens crises. Dat je ergens aan je Dikke BOB een checklistje kan toevoegen waardoor je nooit meer verrast zal worden. Naar zo’n soort uitgave zal ik nog verder moeten zoeken, weet ik nu.

Toch schreef Bazerman met zijn maatje Michael Watkins een herkenbaar boek. Beiden waren indertijd hoogleraar, Bazerman op Harvard en Watkins in Lausanne. Ook al is het 15 jaar oud, het boek is nog steeds zeer actueel. Logisch, met zo’n tijdloos onderwerp als het menselijk onvermogen om rationele besluiten te nemen in grijs gebied en vage omstandigheden. Daar kan je nooit genoeg over leren.

Predictable is in dit kader dan ook echt voorspelbaar: als je situation awareness op orde is en je ruggengraat recht wordt je niet zo snel verrast, zo is de algemene strekking. Frequente lezers van Rizoomes wisten dat natuurlijk al wel.

Maar er is meer over te vertellen.

Predictable surprise

Laten we beginnen om die voorspelbare verrassing eens wat nader uit te werken. Bazerman onderscheidt zes karakteristieken van een predictable surprise.

  1. De leiding weet dat er een probleem is dat zich niet vanzelf oplost, maar doen er niets aan. Regeren is immers vooruitschuiven. Bazerman geeft als sprekend voorbeeld dat de Amerikaanse overheid bekend was met het feit dat de aviation security voor 9/11 niet op orde was. Net als het stikstofprobleem in Nederland nu.
  2. Ondertussen zien ze op de werkvloer wel dat het probleem steeds groter wordt. En omdat het zichzelf niet oplost, wordt de voorspelbaarheid van de verrassing steeds groter. Daar komt ook die beroemde oneliner naar voren: het is niet de vraag of het gebeurt, maar wanneer het gebeurt. Da’s de opmaat naar een voorspelbare verrassing.
  3. Een derde kenmerk van predictable surprise is dat de kosten om het probleem op te lossen in het heden vallen, in jouw regeerperiode, terwijl de baten in de toekomst geoogst gaan worden tijdens iemand anders’ bewind. Daar hebben veel bestuurders geen zin in.
  4. Daaraan gerelateerd is dat de kosten om een voorspelbare verrassing te voorkomen vaak wel goed uitgerekend kunnen worden (en heel hoog zijn), maar dat de omvang van de vermeden schade niet goed is in te schatten.
  5. Het vijfde kenmerk van een predictable surprise is dat besluitvormers falen in hun preparatie omdat ze graag de huidige status quo handhaven. Anders gezegd, als er nog geen duidelijke crisis is, is de tendens om maar niet in te grijpen groot.
  6. Tot slot is er ook altijd een groepje die wel lekker vaart onder de situatie en er dus baat bij heeft om de eerste vijf kenmerken te versterken en grote veranderingen tegen te houden of zelfs te ondermijnen.

Hindsight Bias

De zes kenmerken zie je terugkomen in de hoofdstukken over 9/11 en Enron, waarin Bazerman uitpluist wat er allemaal al bekend was voor die rampzalige gebeurtenissen zich afspeelden. Dat leidt tot waarnemingen als deze:

People tend to ignore the harm that comes from inaction. When the benefits of actions are vague, such as a long term reduction in air disasters, individuals will be unwilling to accept sure losses, such as security fees and long lines at airports.

bazerman & watkins

Wat Bazerman en Watkins goed doen is het vermijden van hindsight bias. Sterker nog, ze laten goed zien op welk moment welke informatie al bekend was en hoe er expliciet niet ingegrepen is. Daardoor krijgt het met-de-kennis-van-nu-syndroom geen poot aan de grond. Eigenlijk wist men alles, zo blijkt, behalve het precieze tijdstip en de omvang van de aangekondigde ramp. Dat was dan ook de enige verrassing, de rest was voorspelbaar.

Ik had DALL-E gevraagd om een foto te maken van een glazen olifant met een zwarte eend en een Black Swan in een boardroom. Daar had ie moeite mee, zoals het systeem eigenlijk altijd moeite heeft met abstracte en conceptuele begrippen in een plaatje om te zetten. In deze tekst zie je drie probeersels van DALL-E, drie predictable surprises zou je kunnen zeggen.

Wortels van het kwaad

Na deze rampenanalyse buigen Bazerman en Watkins zich over de cognitieve, organisatorische en politieke wortels van het kwaad. Dat neemt het grootste deel van het boek in beslag, maar is samen te vatten in een paar hoofdlijnen. Lekker handig.

Bazerman onderscheidt vijf soorten irrationaliteit die hij betitelt als de cognitive roots van predictable surprise. Waarschijnlijk zou Kahneman ze als human bias bestempelen

  • Mensen schatten hun wereld en de naaste omgeving vaak positiever in dan de rest van de wereld. Daarnaast vindt iedereen zich een betere chauffeur dan het gemiddelde, schat men zich slimmer in dan de meeste anderen in het land (“ben ik nou zo slim of zijn jullie zo dom”) en zien we onszelf als een deskundiger vakmens dan de gemiddelde collega.
  • Wat we ook vaak doen: de credits pakken als iets goed ging, en de schuld afschuiven naar een ander. De fout is de ander; ik doe het goed. Mensen redeneren dus egocentrisch, schrijft Bazerman.
  • Waar ook Kahneman al op wees is dat mensen de neiging hebben liever voor iets zekers in het nu te gaan, dan voor een mogelijke beloning in de toekomst. Present bias, heet dat. Het mechanisme erachter zorgt er onder andere voor dat goede voornemens voor straks stralen vanwege de verleidingen in het nu.
  • We houden graag de bestaande status quo in stand en zijn niet erg geneigd iets te veranderen met te grote gevolgen, al helemaal als ze negatief kunnen uitpakken. Don’t fix what isn’t broken.
  • Tot slot willen mensen niet graag iets doen om een probleem te voorkomen dat ze niet zelf herkennen of waar ze zelf geen last van hebben. “Dat gebeurt alleen daar, wij zijn beter, wij weten wel hoe het moet.”

En zo worden ongewenste gebeurtenissen dus langzamerhand steeds meer in de hand gewerkt. Want het is niet dat deze vijf eigenaardigheden zich stuk voor stuk aandienen, het is een setje van vijf dat altijd samen werkt.

Dan wordt het opgeteld ongeveer zo. Mensen zien de toekomst te rooskleurig in, gaan liever voor iets zekers nu dan wat onzekers later, denken dat ze zelf de betere besluiten nemen en dat het heden dus helemaal nog zo slecht niet is en menen dat problemen die elders spelen hier niet zullen gebeuren.

Morgen begin ik meteen is een liedje van Huub van der Lubbe die de cognitieve factoren treffend vertolkt in het uitstellen van de goede voornemens

Organisatorische factoren

Komen we bij de organisatorische roots. Volgens Bazerman moet een organisatie over vier vaardigheden beschikken om voorspelbare verrassingen zo veel als mogelijk te voorkomen.

In de eerste plaats moet je continu de omgeving blijven scannen op mogelijke dreigingen. Voorkom dat je de onderstroom mist, denk nooit dat iets niet zal gebeuren en zorg voor een situational awareness niveau drie. Hier huist namelijk ook de fundamental surprise en die moet je zien te voorkomen.

Combineer en analyseer de informatie uit de verschillende bronnen in je organisatie tot een integraal geheel waar je op kan acteren. En doe dat dan ook, zo schrijft de derde vaardigheid voor, waarna je de resultaten van je acties opnieuw analyseert. Weak signals, hard response noemt Weick dat.

Tot slot moet je structureel op dit proces blijven reflecteren, het steeds weer herhalen en de resultaten opslaan in een organisatorisch geheugen. Om te voorkomen dat je de fouten uit het verleden gaat herhalen.

Hoe eenvoudig dit ook klinkt, er gaat onderweg erg veel fout. Om te beginnen door scanning failures, zegt Bazerman. Mensen hebben last van tunnelvisie en missen daardoor een stuk van het plaatje, vaak zonder dat ze het door hebben.

Dat wordt versterkt door ruis, zoals ik onlangs in dit blog schreef, plus een information overload. Er is te veel en de hoofd- en bijzaken worden door elkaar gehaald.

Ook bij de verwerking van de informatie gaat er veel mis in organisaties. Ten eerste als er te veel in silo’s wordt gewerkt. Afdelingen werken dan langs elkaar heen en wisselen nauwelijks data uit. Los daarvan houden mensen ook sommige kennis geheim. Informatie is volgens hen handel en dat geef je niet gratis weg, denkt men dan.

Verder zijn er ook gewoon belangentegenstellingen; waar veel mensen werken zijn veel verschillende belangen. Niet iedereen kan immers promotie maken, ‘maar die hansworst uit die kamer hiernaast al helemaal niet.’ Daar zorgen de collega’s onderling dan wel voor in hun krabbenmandjes. Individuele bonusregelingen werken dit gedrag trouwens in de hand.

Ook niet onbelangrijk: organisaties die voldoen aan de kenmerken van het vulnerable system syndrome hebben nogal eens last van illusionaire consensus, oftewel de gedachte dat iedereen het met elkaar eens is. In werkelijkheid houden mensen op cruciale momenten hun mond omdat ze weten dat ze anders een hoop gezeik krijgen.

Lerende organisatie

De laatste van de vier vaardigheden is leren. Bazerman kijkt naar de lerende organisatie vanuit twee variabelen. Ten eerste op de as van individuele kennis versus groepskennis. En ten tweede van tacit knowledge tot explicit knowledge. Het levert vier vlakken op met een verschillend kennisprofiel, zie hieronder.

Het kwadrant linksboven is het makkelijkste te realiseren en wekt de illusie van control. Daarom zijn veel bedrijven en organisaties daar ook zeer druk mee en gooien hun medewerkers vol met gedragsregels, geboden en verboden. Dat is overigens niet verkeerd, maar het is maar een deel van wat een lerende organisatie nodig heeft.

Helaas gaan veel organisaties niet verder dan het linker bovenkwadrant en roept men bij wat mis ging dat het een menselijke fout was.

Tacit knowledge is veel lastiger te managen. Het is de ervaring die mensen opdoen in de praktijk, de oude bootsman die weet waar te slaan om de boel weer aan de praat te krijgen.

Think of the employees responsible for mainitaining production equipment in a manufacturing plant. They come to know all of the idiosyncrasies of many, seemingly similar systems – a knowledge that is very difficult to codify and transmit.

bazerman & watkins

Het meest lastige vak om te managen is die rechtsonder. Daar zit teamervaring. Mensen die veel samenwerken, weten hoe de anderen zullen handelen in de praktijk, wat ze gaan doen in verschillende omstandigheden. Het zijn ervaringen die moeilijk zijn om te zetten in explicit knowledge en daarom gebeurt het meestal ook niet.

Bij reorganisaties worden teams vaak door elkaar gegooid en verliest men de tacit – relational knowledge, wat pas later in de praktijk duidelijk wordt als de performance opeens schrikbarend daalt. Het is een predictable surprise op zich. Hetzelfde zie je gebeuren als ervaren mensen en masse een bedrijf verlaten en er grote gaten vallen in de opgebouwde expertise; dan ben je een bedrijf met geheugenverlies, een vergetende organisatie.

En het interessante van vergeten is dat het in principe oneindig is. Het houdt niet op, niet vanzelf.

Glazen Olifant

De derde categorie wortels van het kwaad is de politiek. Bazerman schrijft een hoofdstuk vol over het Amerikaanse politiek systeem en hoe dat bijdraagt aan predictable surprise door voornamelijk de status quo van het land in stand te houden en grote veranderingen tegen te houden. Zijn bevindingen zijn niet zonder meer op ons land over te zetten, maar zijn niettemin wel interessant en ook herkenbaar.

Het twee partijen systeem maakt de Amerikaanse politiek kwetsbaar voor belangengroeperingen, lobby’s en beïnvloeding vanuit industrie en heersende macht. Wie aan de macht wil komen, moet veel geld hebben of regelen en tracht daarna die macht ook te houden. Dat proces voorkomt noodzakelijke veranderingen en vergroot de kans op een voorspelbare verrassing.

Foto is van Quakeltje op glasblazer.com

A core problem is that the decisionmakers who must act to prevent the surprise are benefitted, at least in the short term, by the failure to expense stock options. Preventing predictable surprise requires changing traditional approaches to problems, and change inevitably creates winners and losers. Yet when the gains far exceed the losses, change should occur. The challenge to leaders is to block the destructive political behavior of those who will be negatively affected by change – even if these people are the leaders themselves.

bazerman & watkins

Dat is nog eens een glazen olifant in de kamer. Bazerman zette hem er in 2008 in. Toen ik laatst keek stond hij er nog steeds, op precies dezelfde plaats.

Ongoing predictable surprise, zo noemt Bazerman dat. Als voorbeeld geeft hij het systeem van landbouwsubsidies en visserij in Europa, die altijd zijn verantwoord om traditionele systemen in stand te houden en te voorkomen dat het platteland leegstroomt. Daar is niks op tegen, schrijft hij, maar inmiddels krijgen boeren veel geld om een hoeveelheid voedsel te produceren die groter is dan wat de wereld nodig heeft. Dat zulks tot milieuproblemen zal leiden noemt hij een predictable surprise.

Vijftien jaar geleden dus al.

Black Swan

Andere voor hem toekomstige predictable surprises zijn global warming, de kosten van vergrijzing en exploderende frequent flyer programs. Ook die komen niet onbekend voor. Hetgeen niet betekent dat daarmee het probleem is opgelost, laat Bazerman met zijn boek zien. Tussen droom en daad staan praktische bezwaren en diep ingesleten gedragspatronen. Problemen veranderen wel, maar de menselijke aard niet. Dat maakt uiteindelijk elke verrassing voorspelbaar, lijkt het.

Wat Bazerman en Watkins laten zien is hoe een systeem steeds fragieler wordt door die cognitieve, organisatorische en politieke factoren. Men schuift alles voor zich uit, waardoor noodzakelijke aanpassingen en veranderingen uitblijven. Langzamerhand gaat alles schuren en wringen en verdwijnen één voor één de opties om een crash van de glazen olifant te voorkomen.

Op enig moment zal er hoe dan ook schade zijn, wat je ook doet. Zelfs als je niets doet. Dat is zugzwang, schreef ik hier. De crises en rampen die daar uit voortkomen zijn in die zin dus voorspelbaar. Niet de precieze omvang en tijdstip van zo’n voorval; wel dat de boel zo wankel staat dat er een keer iets mis zal gaan.

De vraag is nu of het ook Black Swans zijn, die predictable surprises. Black Swans kun je immers slechts achteraf voorspellen, zegt Taleb, terwijl Bazerman nu claimt ze vooraf te kunnen voorzien. Als je maar goed om je heen kijkt.

Tegelijkertijd schreef Zvi Lanir over de fundamental surprise. Dat crises ontstaan door een te groot ego en een fout wereldbeeld. Daaruit concludeerde ik dat elke fundamental surprise wel een Black Swan is, maar niet elke Black Swan een fundamental surprise. Overigens kwam Taleb later wel iets terug van zijn rigide opvatting over de onvoorspelbaarheid van de Black Swan.

‘Don’t be the Turkey’, zei hij daarover, waarmee hij bedoelde dat in ieder geval je situation awareness op niveau moet zijn om een Black Swan te voorkomen.

De vraag die nu nog rest is of er ook echt onvoorspelbare verrassingen zijn? Hoe ziet een unknown unknown eruit voor hij zich onthult? En als je hem kunt zien, is het dan geen known unknown?

We zoeken door.

« Oudere berichten

© 2023 Rizoomes

Thema gemaakt door Anders NorenBoven ↑