Crisis Awareness

Categorie: Risicomanagement (Pagina 1 van 5)

Vier vormen van onzekerheid bij crisis

Leestijd: 8 minuten

Onzekerheid is de mens een gruwel. Voor velen geldt dat ze liever zekerheid hebben over een slechte afloop, dan onzekerheid over een goede. Laat staan dat je niet weet hoe het afloopt, of nog erger, dat het misschien niet eens afloopt. Tenminste, niet dat je weet.

Toen ik in 1991 naar de brandweeracademie ging was ik daar nog helemaal niet mee bezig, onzekerheid. Ja, misschien de eigen onzekerheid, als ik iets spannends moest gaan doen. Maar niet over onzekere uitkomsten van incidenten.

Hoe ingewikkeld een brand ook mocht zijn, we kregen hem altijd uit. Net zoals we die technische hulpverlening ook altijd wisten op te lossen. De enige onzekerheid deed zich misschien voor met ongevallen gevaarlijke stoffen (OGS), dat om mij nooit opgehelderde redenen opeens incidentbestrijding gevaarlijke stoffen bleek te heten (IBGS).

Risicomodellen

Die onzekerheid van OGS werd kunstig gevangen in risicomanagementmodellen. Geef er een kans en een effect aan, vermenigvuldig die met elkaar en vergelijk dat getal met een risicomatrix en dan kan je de grootte van het risico vaststellen. Daarnaast hadden we modellen voor het vaststellen van schadecirkels, dispersiemodellen en F-N curves.

Om er maar een paar te noemen.

Een voorbeeld van een F-N curve. Afkomstig van Michael Porter, Landslide Risk Evaluation Canada, juni 2012. Gedownload van ResearchGate.

Waar ik toen nog niet bij stil stond: modellen zijn manieren om onzekerheid te boetseren, er mallen van te maken die het niet-weten omzetten naar een intersubjectieve zekerheid. Naar taal waarmee we met elkaar net kunnen doen of we het over hetzelfde hebben en de werkelijkheid maakbaar is.

En daar is op zichzelf niks mis mee.

Alleen moet je wel beseffen dat het een middel is, geen doel. En dat een doel-middel omkering op de loer ligt, omdat in oefeningen altijd alles klopt, waardoor je het gevoel krijgt dat je het onder controle hebt. Slechts één keer kreeg ik een oefening die ondanks alle modellen volledig ontspoorde en waarvan ik pas later begreep dat het de bedoeling was die te verliezen. Ik schreef er over in De kunst van verliezen.

Het idee dat incidenten een voorspelbare afloop hebben is bij mij heel lang blijven hangen, omdat het in de praktijk zo bleek te gaan. Dat het af en toe toch mis ging was na onderzoek altijd te wijten aan een fout in gedrag, techniek of organisatie. Met de juiste analyse bleek elke omissie te herstellen en de werkelijkheid kloppend te maken; de zekerheid weer hersteld.

Onzekerheid

Toen ik in 2001 op Schiphol ging werken kwam ik er achter dat sommige incidenten helemaal zo’n zekere afloop niet hadden. Je weet niet hoe het eindigt als de stroom uitvalt, een kritiek IT systeem faalt of de kerosinetoevoer stokt. Hoe lang het duurt, met welke schade en of er door de ontstane fragiliteit niet nog meer ellende op komst is. Pas toen snapte ik wat onzekerheid is.

Rijkelijk laat.

Want in 1921 had de econoom Frank Knight al het verschil tussen onzekerheid en risico op papier gezet. Daarvandaan komt ook de term Knightian Uncertainty; een volledige onbekendheid met hoe een situatie zich zal ontwikkelen, fundamenteel onmogelijk om er voorspellingen over te doen. In deze boekrecensie van Averting Catastrophe vind je er meer over terug.

In de praktijk loopt het met de Knightian Uncertainty zo’n vaart niet, hetgeen niet weg neemt dat complexiteit en VUCA de voorspelbaarheid van incidenten wel hebben verminderd. Toch is er wel iets meer over te zeggen, zo is mijn ervaring.

Ik doe dat aan de hand van vier basisgrafieken, die ik vroeger gebruikte in mijn trainingen. Grappig genoeg kwam ik laatst één van de toenmalige cursisten tegen, die gelijk over die grafiekjes begon en hoe vaak hij het nu nog gebruikte. Beleefdheid wellicht, maar toch leuk om ze in dit blog nog eens te presenteren.

Basisonzekerheid

Basisonzekerheid is het standaardmodel van onzekerheidsverloop tijdens een incident. Bij aanvang is de onzekerheid het grootst, zeker bij onervaren mensen. Daarna, door verkenning en beeldvorming met de dikke BOB, krijg je steeds meer grip op de zaak en neemt de onzekerheid af. Hoe snel de onzekerheid afneemt zal per incident verschillen. Ik heb dat grafisch weergegeven met de stippellijntjes.

De kern van basisonzekerheid is dus dat het afneemt, zij het in wisselende snelheden afhankelijk van het incident en van je ervaring. In het Museum of Accidents voldoet eigenlijk alleen de crash met de Turkish Airlines aan die eis. Op zich ook logisch; het museum is niet ingericht op standaardincidenten.

Escalatieonzekerheid

Zoals wij weten van de reis van de held is er altijd wel ergens tegenslag te verwachten. Dat betekent dus dat de onzekerheid weer toe kan nemen. Net als bij basisonzekerheid is de daalsnelheid van de grafiek per incident verschillend. Houd er rekening mee dat het niet bij één tegenslag blijft. Hoe langer een incident duurt, hoe vaker de onzekerheid opnieuw kan opleven. Let er ook op dat je na enkele uren vermoeid raakt en moeilijker om kan gaan met opnieuw een toenemende onzekerheid. Laat je dus op tijd aflossen, of rek de boel iets verder uit.

De kern van escalatieonzekerheid is dat na een aanvankelijke afname, het weer terugkomt. Misschien wel meerdere malen. Dat repetitieve karakter wordt bijvoorbeeld expres aangejaagd door meerdere aanslagen vlak achter elkaar zodat er een structureel gevoel van onzekerheid ontstaat. In dit blog over de resilience game van RIVM gaat het trouwens ook over escalarende onzekerheid.

Creeping onzekerheid

Creeping onzekerheid vind je vooral bij disrupties, dreiging en crises, minder bij emergencies. Daarbij speelt ook de kromming van de hockeystick een rol, zoals besproken in Beginselen van disruptiemanagement. De onzekerheid neemt langzamerhand toe, maar zeker in het begin zijn zware maatregelen lastig te verkopen omdat de weak signals ook nog wel heel weak zijn. Dat betekent dat bij creeping disruptions de onzekerheidsopbouw in het begin juist toeneemt, in plaats van dat hij keldert zoals bij de grafiek van basisonzekerheid.

Dat is de kern van creeping onzekerheid: het bouwt op, en misschien ook nog wel met een escalarend karakter. Die heb ik hier niet getekend, maar je kunt het je vast voorstellen.

Langdurige onzekerheid

Het kenmerk van langdurige onzekerheid is dat het na een geleidelijke opbouw voor langere tijd hoog blijft. Denk bijvoorbeeld aan het verloop van Covid, maar ook aan de huidige van unpeace en hybride oorlog. Ook voor deze grafiek geldt dat het precieze verloop situationeel afhankelijk is. De essentie is dat de onzekerheid niet afneemt en in die zin raakt dit scenario het meest aan Knightian Uncertainty.

Wat de vier grafieken laten zien is dat er verschillende vaardigheden nodig zijn voor de crisismanager om met onzekerheid om te gaan:

  • Je moet bestand zijn tegen veel onzekerheid in één keer
  • Wees bewust dat onzekerheid niet alleen afneemt & dat het terug kan komen
  • Laat je niet van de wijs brengen als onzekerheid gestaag blijft toenemen
  • Besef dat onzekerheid lang kan duren en geruime tijd hoog blijft
  • Elke mogelijke combinatie van bovenstaande vaardigheden

In opleidingen voor crisismanagement en incidentbestrijding zouden deze vaardigheden eigenlijk opgenomen moeten zijn. Zodat je er niet pas veel later in je loopbaan per ongeluk tegen aanloopt.

Onzekerheidsreductie

Wat kan je zelf doen om onzekerheid te reduceren? Daar is denk ik wel een boek over te schrijven. Ik maakte voor de tussentijd dit rijtje voor je, met verwijzingen naar andere blogs.

  • Als je niet zeker weet wat te doen, kun je altijd een hengeltje uitgooien; even kijken wat het systeem doet. Probe – sense – respond heet dat in Cynefin termen Het is een standaard manier van optreden in complexe omgevingen.
  • Bedenk dat je zelf onderdeel bent van de crisis. Want alle crises ben je zelf.
  • Wees ervan bewust dat besluitvorming onder tijdsdruk wat anders is dan besluitvorming onder grote druk, alhoewel het soms hetzelfde is.
    • Grote druk leidt ertoe dat mensen bang zijn fouten te maken; vooral als er nog veel te verliezen valt en je besluiten het verschil kunnen maken. Als de schade eenmaal daar is neemt de onzekerheid af en begint de recovery.
    • Besluitvorming onder tijdsdruk gaat onder andere over Recognition Primed Decisionmaking en de rol van ervaring daarin.
  • Ken het verschil tussen de circle of control en die van influence. En accepteer de rest. Een Stoïcijns basisbeginsel. Het gaat er niet om wat je overkomt, maar om wat je ermee doet.
  • Ken de grenzen van je bedrijfsvoering, weet wanneer je erover heen gaat en heb de middelen om terug te sturen. Niet onbelangrijk: doe het dan ook. Dit is een aangepaste versie van Sydney Dekkers definitie van veerkracht.
  • Ergens op de as van prudentie en ‘volle bak erin’ moet je een keus maken. Denk dus in scenario’s.
  • Gebruik gidswoorden bij langdurige incidenten om de robuustheid van je scenario te testen. Denk aan de regel van Hermans.
  • Stel tijd tempo factoren vast en hang daar je opschaling aan. Blijf niet achter de feiten aan lopen maar pak initiatief.
  • Waak voor tunnelvisie.
  • Wees bewust van de reeks; dit incident is er één in een serie, het staat niet op zichzelf. Check de territory blogs maar eens.
  • Ken de factoren van het personal resource management.
  • Houd je Situational Awareness op orde.
  • Weet wat triggerincidenten zijn en hoe die zich verhouden in het Crisis Awareness Framewerk met fragiliteit en territory.

De laatste aanbeveling uit het lijstje betekent eigenlijk dat je de hele website moet kennen. Ik zou dat zeer aanraden, maar of het ook echt werkt is onzeker.


Dit blog is onderdeel van het hoofdstuk prohairesis. Daar vind je nog veel meer verhalen en mentale modellen over jezelf prepareren op crisis.

Hoe de Chaos Kings een Black Swan uitbroedden

Leestijd: 12 minuten

In zijn boek Chaos Kings beschrijft de journalist Scott Patterson in welke omgeving het denken over de Black Swan tot stand kwam. Die invalshoek gaf mij het inzicht dat een Black Swan geen gebeurtenis is, maar een mindset. Een metafoor voor het ultieme doel van de crisismanager. Het is ook een paradox: als je de Black Swan niet hebt, heb je hem. Zodra je hem hebt, ben je hem weer kwijt. Dan is de vogel gevlogen.

In mijn zoektocht om meer grip te krijgen op de Black Swan kwam ik langs de Chaos Kings, een boek van Scott Patterson. Patterson is een journalist die met name schrijft over de beurs op Wall Street. Twee eerdere boeken van hem, Quants en The Dark pool, werden bestsellers in Amerika. Dat opent deuren die voor anderen gesloten blijven. Zoals de deuren van de Chaos Kings.

Speculeren

How Wall Street traders make billions in times of crisis is de ondertitel. Daar weer onder staat een plaatje van een Black Swan in een kristallen bol. Dan heb je het thema van dit boek beeldend te pakken: kun je een Black Swan nu wel of niet voorspellen?

Om dat uit te zoeken gaat Scott Patterson achter de Chaos Kings aan; de mannen (ja, het zijn allemaal mannen) die van onrustige markten en chaos hun verdienmodel bouwden. Onder andere de Beurskrach van 2008 en Covid maakten hen rijk, door te speculeren met putopties op het verlies van aandeelwaarde. Hoe volatieler de markt, hoe meer zulke beleggingsproducten opleveren.

Remember, we’re pirates! Not the Navy!

– Mark Spitznagel

Nicholas Taleb is zo’n handelaar in chaos en ook zijn beleggingsmaatje Mark Spitznagel komt ruim aan bod in het boek. Verder nog mensen als de complexiteitswetenschappers Yaneer Bar-Yam en Didier Sornette. Ik ga ze hier niet allemaal opnoemen, daarvoor zijn het er te veel.

Maar je krijgt wel inzicht in de cultuur van de Chaos Kings en de manier waarop ze denken. Ik moest daarbij gelijk denken aan Bruno Latour, de onlangs overleden wetenschapsfilosoof, die er op gewezen had dat kennis een sociaal construct is dat per definitie in een bepaalde context tot ontwikkeling komt. Met andere mensen en cultuur had de kennis er anders uit gezien.

Precies als bij crisis, zo schreef ik al eens in dit blog.

Black Swan

Het boek van Patterson gaf mij zodoende nieuwe inzichten in de Black Swan en dat maakte het lezen van de Chaos Kings zeker de moeite waard. Niet alle 466 pagina’s zijn echter even zinvol en je moet ook wel veel van zo’n vette Amerikaanse schrijfstijl houden om het van voor tot achteren te lezen. Dat werd dus veel scannen op relevante inhoud, om alle overbodige vorm te kunnen overslaan. Voor die momenten is een e-book wel lekker.

In de rest van dit blog schrijf ik op wat ik van de Chaos Kings over de Black Swan heb geleerd, in aanvulling op wat ik er eerder op Rizoomes al eens over geschreven heb. Daarmee is mijn zoektocht nog niet ten einde, maar het wordt wel weer een klein beetje duidelijker.

De basisgedachte van de Black Swan zie je in dit citaat over put opties al terug.

He realized options had a curious trait —they were nonlinear. Profits that could be made on certain trades seemed far out of whack from the risk taken, the one or two bucks you paid for the contract. The risk was all held by the seller of the option. The buyer only risked losing his one or two bucks. What looked especially interesting, thought Taleb, were options for highly unlikely events—the big crashes that rattled markets or bankrupted companies. Such options were very cheap indeed. Their sellers were acting like tomorrow would be just like today. Taleb knew that was a foolish bet.

Wat ik hier lees is, is dat de Black Swan eigenlijk over twee hoofdzaken gaat: risicobewustzijn (in de vorm van situational awareness) en schadebegrip.

Risicobewustzijn

Taleb zegt dat de meeste mensen van de ene naar de andere dag leven in de verwachting dat alles ongeveer gelijk zal blijven. Meestal verandert er ook niet zo veel in de normale wereld, die Taleb Mediocrestan noemt. Maar schijn kan bedriegen. Want onder de rustige oppervlakte gaat soms een grote volatiliteit schuil, die aanleiding kan zijn voor een onverwacht grote gebeurtenis.

In de Black Swan maakt Taleb deze vergelijking tussen Mediocrestan en Extremistan.

Een uitschieter.

Het is met dergelijke uitschieters waarmee Taleb en Spitznagel hun fortuin vergaarden. Door eerder dan de rest te begrijpen dat de non-lineariteit van een situatie tot een zeer snelle escalatie zou kunnen leiden.

Panic early, zeggen ze daarom ook, want de tijd wordt je vijand bij zo’n ontwikkeling. Dan gaat alles opeens zo hard dat je het niet meer bij kunt houden en de boel uit de klauwen loopt.

De hockeystick, noem ik dat in mijn trainingen. Na lang sudderen kan een suboptimale (volatiele) situatie opeens volledig ontsporen. Dergelijke irops (irregular operations) hebben we creeping disruptions gedoopt. Weak signals vragen dan om een hard respons. Weick zei het al.

Een crisisteam hoort daar ook gemandateerd voor te zijn door de directie, want zonder die bevoegdheid zullen weinig mensen hard durven ingrijpen en dan gaat het dus fout. Soms wordt er dan ook voor niets hard ingegrepen, blijkt dan achteraf. Dat is de reden dat Taleb vindt dat je Black Swans niet kan voorspellen, alleen achteraf kunt verklaren.

Maar je kunt wel de situatie herkennen waarin Black Swans mogelijk kunnen landen. Dat is situational awareness. En dat is ook de reden dat goed crisismanagement alleen uit je eigen organisatie kan komen. Want jij weet als geen ander wat normale bedrijfsvoering is en wanneer er afwijkingen optreden, wanneer de hockeystick op de loer ligt.

Kennis doet er dus toe. Zowel over je eigen bedrijfsvoering als over de mensen die het uitvoeren. En in welke valkuilen ze kunnen lopen, zoals de Regel van Hermans. Daarover lees je meer in dit blog over de nieuwe wet van Murphy. De Handreiking Black Swan Analyse houdt ook rekening met die regel, die sluit daar goed op aan.

Tekening door Wendy Kiel

Schadebegrip

In tegenstelling tot veel bestuurders vond ik het dus ook helemaal geen verrassing dat fatbikes zo’n groot probleem zijn gaan vormen. Dat had je kunnen zien aankomen, net als de ontspoorde statiegeldregeling. Allebei zijn het regelingen die in een fragiel systeem werden geïmplementeerd en aan alle onderdelen van het systeem raken, waarbij tegelijkertijd het menselijk gedrag feitelijk onbegrensd is en dus ongehinderd kan escaleren.

The study of complex systems is anti-reductionist—you have to study the whole colony, the whole team. As complexity scientist Peter Dodds put it: “There’s no love in a carbon atom, no hurricane in a water molecule, no financial collapse in a dollar bill.”

Dit is ook het moment om iets verder op het schadebegrip in te gaan. Zo legt Taleb uit dat als je de helft van je aandelen verliest, je daarna 100% moet terugwinnen om weer op hetzelfde niveau terug te komen. Door verlies en schade wordt je positie fragieler, zodat je extra hard moet werken om weer terug te komen op je oorspronkelijke waarde.

Volgens Taleb snappen de meeste mensen daarnaast onvoldoende dat de schade van een uitschieter veel groter is dan je zou verwachten op basis van je ervaringen met kleine schades.

Precies wat Norman Maclean schreef in Young men and fire: “There’s not much to learn in fighting big fires from fighting small fires.”

In de Chaos Kings vergelijkt Patterson het ook met kleine steentjes. “If I am hit with a big stone I will be harmed a lot more than if I were pelted serially with pebbles of the same weight,” he wrote.

Bovendien kunnen kleine schades een systeem sterker maken. Dat is immers de gedachte achter antifragility. Uit de praktijk blijkt dit hersteleffect soms groter dan verwacht, zo leerde ik uit de kernrampen van Tsjernobyl en Fukushima. Daar bleef het daadwerkelijk aantal directe slachtoffers door blootstelling aan straling ver achter bij de verwachtingen. Mogelijk omdat het lichaam beneden een bepaalde grenswaarde beter kan herstellen dan men dacht.

Omgekeerd las ik dat de gezondheidsschade bij de hulpverleners van 9/11 en de Grenfell Towers veel groter is dan verwacht. Waarschijnlijk door de enorme blootstelling aan stof en rook. Kennelijk is daar het omgekeerde proces van kracht: na een uitschieter wordt een grenswaarde overschreden die mogelijk onherstelbare schade veroorzaakt. Ik heb beide cases uit het Museum of Accidents inmiddels aangevuld met deze informatie.

Als ik het bovenstaande samenvat in één zin, dan is het probleem van de Black Swan dat je risicobewustzijn en schadebegrip in mediocrestan zitten, terwijl de werkelijkheid in extremistan huist. Die mismatch leidt mogelijk tot een onvoorspelbare gebeurtenis met grote impact, die je slechts achteraf kan verklaren.

Dragon King

Alleen is Didier Sornette het daar helemaal niet mee eens, las ik in de Chaos Kings. Sornette is een Zwitserse complexiteitswetenschapper en wiskundige die onderzoek heeft gedaan naar crashes. Zowel fysieke crashes als beurscrashes. Zijn voornaamste kritiek is dat de aanvaarding van Black Swans leidt tot inactiviteit op grote risico’s. Hij noemt ze daarom zelfs gevaarlijk, omdat er geen maatregelen worden genomen terwijl dat wel had gekund.

Iets dergelijk vond ik destijds ook na herlezing van de Black Swan. Eigenlijk is het fenomeen nutteloos als je hem alleen maar achteraf kunt verklaren, schreef ik toen in dit blog. Sornette gaat verder in zijn kritiek. Volgens hem baseert Taleb zich teveel op statistiek en fat tails, terwijl de werkelijkheid beter wordt begrepen in termen van complexiteit.

Any organization designed to solve complex problems needs to match (or exceed) the complexity of the problem itself. That means single individuals by definition are unable to solve very complex problems. Solving very  complex problems takes a village. Bar-Yam wrote: “The underlying challenge of this book is the question: How do we create organizations that are capable of being more complex than a single individual?”

Complexe systemen evolueren, waardoor er soms door feedback loops een bubble ontstaat, een gespannen ballon die met een kleine speldenprik uit elkaar kan spatten. Sornette verwijst daarbij onder andere naar het boek van Joseph Tainter over de Collapse van Complex Societies. Wat inderdaad een heel goed boek is.

Bovendien, zo zegt hij, ontstaan de grote crashes voornamelijk door endogene factoren, interne problemen van een organisatie of systemen. Terwijl Taleb juist exogene factoren aandraagt als de voornaamste reden van impactvolle gebeurtenissen. Of in termen van het Crisis Awareness Framewerk: de fragiliteit van een systeem leidt veel eerder tot een crisis dan een triggerincident.

Zelf deed hij onderzoek naar de drukbestendigheid van de Ariane brandstoftanks. Daarin ontdekte hij dat vlak voor zo’n tank bezwijkt ze een signaal afgeeft, een weak signal zogezegd. Precies hetzelfde vond hij bij aardbevingen en de beurs. Dat moment, wat hij een pocket noemt, is feitelijk een voorspeller voor een Black Swan.

Hic sunt dragones. Daar zijn draken, een oud Romeinse aanduiding van het Finisterre en de onbekende risico’s die je daar mogelijk aantreft.

Alleen noemt hij het Dragon Kings, geen Black Swan. Dragon Kings kun je vinden als je weet waar je moet zoeken, schrijft Sornette. En je moet data hebben om patronen te ontdekken. Als voorspeller.

Allemaal goed en wel, vindt Taleb, maar wat Sornette beschrijft zijn Grey Swans. Die kun je inderdaad voorspellen, maar dat zegt nog helemaal niks over Black Swans. Ze sluiten elkaar niet uit, zo veel wil hij maar zeggen. En ja, er is natuurlijk het turkey problem, waarbij de slager wel weet wie er geslacht gaat worden en de kalkoen nog niet. Dat is echter meer een kwestie van hoe je situational awareness tot shared situational awareness krijgt.

Ook dat zegt niets over Black Swans.

Het ei van de Chaos Kings

Welk ei hebben de Chaos Kings nu eigenlijk uitgebroed? Een grijze of een zwarte? Misschien zelfs wel een groene, die vloog aan het eind van het boek opeens voorbij maar valt buiten de focus van dit blog. Daar zeg ik nu dus verder niets over, wie weet in een ander blog.

Mijn belangrijkste inzicht na het lezen van de Chaos Kings was dat een Black Swan geen gebeurtenis is, maar een mindset. Een metafoor voor het ultieme doel van de crisismanager: zoeken naar wat je niet weet, beseffen dat alles per definitie incompleet is en daar vervolgens toch naar handelen.

Dat handelen maakt een organisatie vervolgens antifragiel. Antifragiel is daarmee volgens mij dus ook een mindset, een handelingskader, en geen gebeurtenis of een actie. Het is een becoming, een structurele adaptatie en soms zelfs transformatie. Zoals ik beschrijf in het Framewerk Crisis Awareness.

Let wel, dit vind je zo niet letterlijk terug in het boek. Het is mijn conclusie op basis van dit boek en mijn eerdere speur- en schrijfwerk. Sornette heeft wat mij betreft dus geen gelijk; een Black Swan mindset voorkomt niet dat mensen handelen, het is juist de stuwende kracht achter het handelen.

Foto van Ricardo Weewer

Daarnaast is de Black Swan een paradox. Als je hem niet hebt, heb je hem. Zodra je hem wel hebt, ben je hem weer kwijt. Want de Black Swan is de unknown unknown. Wanneer je het weet, is het geen unknown meer, maar is er nog steeds een unknown unknown.

Het is ook belangrijk om te beseffen dat een Black Swan geen absolute grootheid is, hij is relatief en afhankelijk van wat je wel weet. “Normal is an illusion. What is normal tot he spider, is chaos to the fly”, zei Morticia Adams van The Adams Family. Precies zo formuleerde Taleb zijn Turkey problem. Wees niet de kalkoen, maar de slager.

De Black Swan is zodoende het symbool voor de eindigheid van je kennis. Het finisterre, zoals ik in dit blog schreef. En de antibibliotheek, de ongelezen boeken die laten zien wat je niet weet. Dat vraagt om blijven zoeken naar nieuwe kennis, naar jezelf kritisch bevragen over je situational awareness, je schadebegrip en risicobewustzijn. Want op die grens van je kennis, daar zit de Black Swan.

Net als de horizon, je bent er altijd naar op weg maar je komt er nooit.

Eindoordeel

Chaos Kings is een dikke Amerikaanse pil waar tussen de vette schrijfstijl en het namedropping toch de nodige pareltjes te vinden zijn. Bij mij gaf het de doorslag om te zien dat een Black Swan geen gebeurtenis is, maar een mindset. Een mooie aanvulling op het Crisis Awareness Framewerk. Steeds weer een stapje verder.

Op deze manier geformuleerd, is de Black Swan een uitstekende missie voor het Crisis Awareness Framewerk. Want dat heb ik immers uitgewerkt als hulpmiddel om jouw crisisbewustzijn verder te helpen ontwikkelen.

Dat maakte het voor mij de moeite waard om Chaos Kings te lezen, maar je moet zelf wel een hele hoop werk verzetten om er iets van te maken. Ik weet niet of dat ook voor iedereen zal gelden. Als je weinig tijd hebt om te lezen, kun je misschien beter Fluke pakken. Leuker en leerzamer.

Voor liefhebbers van Taleb en complexiteitdenkers ligt dat mogelijk anders. Voor hen is het een aanrader, al was het maar om te zien uit welke subcultuur dit denken vandaan komt. Een invalshoek die je niet terug vindt in het werk van de heren zelf.

Cijfer: 7

Zou ik het bewaren als de boekenkasten vol zijn en er geruimd moet worden: nee. Maar ik heb een electronische versie, dus die bewaar ik wel.


Handreiking Black Swan Analyse

Leestijd: 10 minuten

De handreiking voor een Black Swan Analyse is een poging om de escalatie van een triggerincident te leren voorspellen. Het is geen vastgetimmerd protocol met een zekere uitkomst. Eerder is het een manier om Crisis Awareness te realiseren, teneinde de mogelijke ophef over een gebeurtenis te voorkomen dan wel te beperken.

If nature has thaught us anything, it is that the impossible is probable.

Ilyas Kassam

Aan de opening van het Holocaust museum in Amsterdam zal voor langere tijd een smet blijven hangen. Misschien, als het lang genoeg geleden is, verandert het gevoel nog naar een droge karakteristiek. Een feitelijkheid die in de geschiedenisboeken vermeld zal worden als een onrustige opening, of woorden van die strekking.

Tot het zover is blijft het gevoel van een kater hangen, zoals de Volkskrant schrijft op 16 maart 2024. Daar proberen ze een analyse te maken van wat er gebeurd is, maar echt ver komen ze er niet mee. Wat bij mij na lezing vooral blijft hangen is dat iedereen iets anders vindt en heeft meegemaakt. Alsof er niet één gebeurtenis was, maar vele tegelijkertijd op hetzelfde moment.

En waarschijnlijk is dat ook zo.

Wat verder opvalt: mensen begrijpen niet wat er gebeurd is, zijn overvallen en verrast, hadden het niet verwacht, dachten dat het wel mee zou vallen, ontkenden dat er iets fout was gegaan of rekenen het vooral anderen aan. Omdat zij wel met de beste bedoelingen hun acties hadden voorbereid en meenden in hun recht te staan, ‘de ongeregeldheden zijn de anderen’.

Dit wordt treffend verwoord in het laatste stuk van het artikel:

Yuval Gal, als mede-oprichter van Erev Rav een van de organisatoren van het protest op het Waterlooplein, werd maandagochtend met buikpijn wakker. Aan zondag had hij een goed gevoel overgehouden. Hij had geknuffeld met Palestijnen, een vrouw vertelde hem dat ze nooit verwacht had een protest te bezoeken van een Joodse organisatie. ‘Het was een uitstekende actie’, zegt hij. De volgende ochtend las hij op sociale media dat de demonstraties antisemitisch zouden zijn geweest. ‘Wat is er in de tussentijd gebeurd?

volkskrant 16 maart 2024

Precies, wat is er in de tussentijd gebeurd?

De Black Swan van Crisis Awareness. Tekening Wendy Kiel

Black Swan

Ik denk dat dit de karakteristieke vraag is die bij elke Black Swan hoort. Nicholas Taleb heeft van de schrijvers die ik ken het concept van de Black Swan het duidelijkst gemunt in zijn gelijknamige boek. Alhoewel ik er na meer studie achter kwam dat velen voor en na hem soortgelijke ongewenste gebeurtenissen beschrijven, maar dan in iets andere woorden.

Hij was dus niet de enige. En ook niet de eerste.

Taleb schrijft dat een Black Swan een onverwachte gebeurtenis is met een grote impact die alleen achteraf te verklaren is. Van dat laatste kwam hij later schoorvoetend terug, Taleb is namelijk niet iemand die graag toegeeft dat hij het verkeerd had. Maar voor deze keer wilde hij wel zeggen dat onvoorspelbaarheid ook kan volgen uit niet goed kijken of weten. Don’t be the turkey, noemde hij dat toen, wees geen kalkoen die niet weet wat Thanksgiving voor kalkoenen betekent.

In meerdere blogs heb ik geschreven dat een Black Swan niet de gebeurtenis zelf is, maar het verhaal dat er over gemaakt wordt. Het is een spontane dan wel georkestreerde reactie op een triggerincident.

Want vrijwel elke gebeurtenis is voorzienbaar, zeker in Mediocrestan, maar de reactie van mensen er op niet. Onvoorspelbaarheid en onzekerheid gaan in die zin dus bijna altijd over menselijk gedrag, omdat dat past binnen de kaders van Extremistan: het is onbegrensd. Zie dit blog over de cobra van Extremistan.

Terug naar het verhaal van de Volkskrant en de vraag wat er in de tussentijd is gebeurd. Welnu, op zondagavond was er de gebeurtenis van een demonstratie en maandagochtend was er de Black Swan van het verhaal dat er over werd gemaakt. Dat was mijns inziens echter niet onvoorspelbaar, net zo goed als de ophef over de demonstratie op de Dam van 1 juni 2020 dat niet was.

Grappig genoeg had het onderzoekscomité van die demonstratie indertijd geadviseerd om op zoek te gaan naar de Black Swan in dit soort risicoanalyses. Kennelijk valt dat nog niet mee. Vandaar deze handreiking voor een Black Swan analyse.

Premortem

Eigenlijk is een Black Swan Analyse (BSA) een vorm van voorspellen. En iedereen weet dat voorspellen moeilijk is, vooral de toekomst. Uit dit blog over supervoorspellers blijkt dat het vooral belangrijk is van veel dingen een beetje te weten, in plaats van heel veel over weinig. Doe een BSA dan ook niet in je eentje, maar in een divers team met uiteenlopende invalshoeken.

Tetlock, de schrijver van Supervoorspellers, ziet de egel als superspecialist met één grote truc en de vos als de handige generalist die van heel veel genoeg weet om slim te handelen.

Een Black Swan analyse moet dus ook divergeren, niet convergeren. Ga op zoek naar een wolk, niet naar een stip. Zoek een bos, geen boom alone.

Tweede belangrijk punt: een Black Swan analyse is een vorm van risicoanalyse, maar is wel anders. Je kunt niet zo veel met een vast format van kans maal effect, want door houdt een Black Swan zich niet aan. Bovendien weet je niet wat je zoekt. Je zoekt iets in een hooiberg, misschien is het een speld. En als je het gevonden hebt, zoek je de volgende keer weer naar iets anders wat je niet weet.

Of misschien wel precies hetzelfde. Ik zei al, je weet het niet.

Interpretatie van DALL-E naar een commissie van wijzen die een speld in een hooiberg zoekt

Ik heb dus ook geen uitgewerkt schema voor een BSA, het blijft bij een handreiking. Maar daar zitten wel een aantal vaste elementen in die passen bij de verhalen op deze website.

We maken maar eens een rijtje.

Handreiking

  • Een rizoom is een netwerk dat zich spontaan vormt. Mensen sluiten zich aan omdat zij een verbinding zien of voelen, niet omdat het rationeel verklaarbaar is. Althans, niet altijd.
  • Een Black Swan is een extreem snel escalerend rizoom, meestal in allerlei richtingen die je vooraf niet had verwacht. Daardoor zijn Black Swans vaak ook groter dan je denkt of kan zien, omdat het in het begin niet precies duidelijk is wie er zich bij aansluiten of niet. Dat is de reden dat men zo vaak verrast is door een Black Swan.
  • Achteraf is te herleiden hoe de Black Swan er uit zag. Op het moment zelf is dat moeilijk, zeker als je er midden in zit. Zoom dan uit en koop zo mogelijk tijd. Maar dat is de respons, daar gaat dit blog niet over.
  • Onderzoek uit 1989 van Deborah Mitchell en Edward Russo (onder de titel ‘Back tot he Future’) liet zien dat mensen beter zijn in terug voorspellen (prospective hindsight) dan vooruit voorspellen (foresight). Vooruit denken in scenario’s leidt namelijk tot generieke stromen van abstracte mogelijkheden, terwijl terug analyseren veel concretere aanleidingen en oorzaken van falen oplevert.
  • Daaruit formuleerde Gary Klein in een artikel in Harvard Business Review de premortem als een vorm van risicoanalyse: vraag jezelf af waarom dit project is mislukt als het klaar is.

A premortem in a business setting comes at the beginning of a project rather than the end, so that the project can be improved rather than autopsied. Unlike a typical critiquing session, in which project team members are asked what might go wrong, the premortem operates on the assumption that the “patient” has died, and so asks what did go wrong. The team members’ task is to generate plausible reasons for the project’s failure

Gary klein

Bij een Black Swan analyse onderzoek je dus vooraf waarom het triggerincident uiteindelijk een Black Swan werd. Of concreter: waarom is de opening van het Holocaust museum uit de klauw gelopen? Dat is de start van de premortem. Het uitgangspunt is altijd een triggerincident die zich aankondigt van tevoren, zoals een demonstratie of een dreiging.

Demonstratie tegen de gratie van oorlogsmisdadiger Willy Lages op 12 oktober 1952 in Amsterdam

We zetten het rijtje weer even voort.

  • Laat de W’s los op je premortem. Stel alle vragen die je kan verzinnen rondom wie, wat, wanneer, waarom, welke, enzovoorts. ‘Hoe’ mag ook. Maar wel in de verleden tijd.
  • Dat levert bijvoorbeeld de volgende vragen op: Wie hadden er belang bij de escalatie? Welke middelen stonden tot hun beschikking? Waarom zouden mensen zich aangesloten hebben bij dit rizoom, wat waren de koppelpunten? Wat is er eerder gebeurd wat hier op lijkt? Wanneer escaleerde het? Wat was de onderstroom?
  • Zijn er controversiële onderwerpen en personen bij betrokken die gelinkt kunnen worden aan het triggerincident? Bij de opening van het Holocaust museum was dat zeker het geval. De oorlog in Gaza is controversieel, de president van Israël is controversieel en Burgemeester Halsema is dat ook.
  • Controversieel gaat niet over gelijk hebben, maar over polarisatie. Hans Bouttellier heeft daarvoor een mooie formule in het Nieuwe Westen: P = M x E. Oftewel, polarisatie is mobilisatie maal escalatie.
  • Ondanks het emergente spontane karakter van rizomen en Black Swans kunnen ze wel versterkt en gedempt worden. Crisismakelaars versterken; media die zich als social media gedragen versterken (pack journalism); politici kunnen zowel versterken als dempen.
  • Een speciale vorm van media zijn de talkshows. Die veroorzaken crises, dus versterken de vorming van Black Swans.
  • Influencers kunnen versterken en dempen. Trump is bevreesd dat Taylor Swift zich uitspreekt en van hem afkeert. Dat zal zijn opmars dempen, denkt hij. Dus is hij de tegenaanval alvast begonnen.
  • Let op koppeling van belangen; onwaarschijnlijke verbonden die wel samen tegen zijn, zonder dat ze samen ergens voor zijn.
  • Maar let ook op koppeling van andere crises en risico’s tot een polycrisis. Voor je het weet transformeert je Black Swan van de ene vorm in een geheel andere.
  • Hoeveel weet je niet? Hoe groot acht je de unknown unknown? Wat zijn je blinde vlekken? Loop je kans op een fundamental surprise?
Een premortem kun je ook gebruiken om vooraf te analyseren waarom het wel goed ging. Als je genoeg mensen met verstand van zaken hebt, kun je twee teams maken waarbij de ene de prospective hindsight loslaat op succes en de andere op falen. Daarna kun je beide combineren tot een plan met overkoepelende beheersmaatregelen.

Stap 2

Een Black Swan analyse is geen vast rijtje vragen, ik schreef het al hierboven. Verzin dus vooral veel meer vragen en invalshoeken die je relevant acht om die Black Swan vooraf te verklaren. Maar met deze handreiking BSA heb je wel een indruk welke kant het op moet.

De uitkomst is geen groene, oranje of rode smiley bij een risicogetal. De uitkomst is een indicator voor de waarschijnlijkheid van een Black Swan. Hoe meer verbindingen, koppelingen, onderstromen, controverses, crisismakelaars enzovoorts je vindt, hoe waarschijnlijker het is dat die Black Swan zich openbaart. In één of andere vorm.

En zoals Taleb het zegt, je bereidt je voor op een Black Swan door je organisatie robuust te maken. Daar ga ik hier nu niet verder op in.

Want er is nog een Stap 2. Als je het goed wilt doen.

Samenvatting van de Black Swan Analyse in een graphic note door Wendy Kiel

Stap 2 is de verificatie dan wel falsificatie van je bevindingen. Elke analyse of evaluatie die je maakt, ook een premortem, leidt tot tunnelvisie. Ergens aandacht voor hebben is tunnelvisie creëren; je kijkt namelijk niet meer naar de rest. Maak daarom een premortem van je premortem.

Rek eerst je conclusies van de eerste stap zoveel als mogelijk uit. Gebruik daarvoor bijvoorbeeld de gidswoorden bij crisis scenario’s, zoals ‘sneller’, ‘groter’ en ‘meer’. Uitgangspunt daarbij is dat het altijd erger wordt.

Denk dus niet dat het wel meevalt omdat het altijd wel meevalt of nog nooit is gebeurd. Denk wel: wat als dit nu de eerste keer is dat het uit de hand loopt, wat als er voor het eerst een aanslag op een demonstratie wordt gepleegd, wat als er doden vallen. Je zoekt naar een escalatie, niet naar een confirmatie.

De oplettende lezer zal nu zeggen dat ik in bovenstaande opsomming de escalatie van het triggerincident en die van de Black Swan door elkaar heb gehaald. Dat klopt: bij een BSA loopt ook steeds alles door elkaar. Hoe groter de chaos, hoe groter de Black Swan.

Houd het resultaat daarna tegen de Regel van Hermans: ook dat wat niet mis kan gaan, zal uiteindelijk mis gaan. De Regel van Hermans onderzoekt je eigen aannames. Sommige dingen vind je zo onwaarschijnlijk, dat je aanneemt dat het niet gebeurt. Omdat de kans zo klein is.

Maar wat als het toch gebeurt?


Dit is het tweede blog in de serie over Crisis Awareness. In het vergeten risico wordt Crisis Awareness op hoofdlijnen toegelicht. Dat was het eerste blog met die insteek. Ook goed om te lezen is dit verhaal dat na de Handreiking verscheen: Hoe de Chaos Kings een Black Swan uitbroedden. Het belangrijkste blog is deze longread over het Crisis Awareness Framewerk.

Het vergeten risico

Leestijd: 5 minuten

Het vergeten risico is het risico dat je zelf veroorzaakt en dat de fragiliteit van je organisatie vergroot. En fragiliteit is één van de vier onderdelen van Crisis Awareness. In een naschrift bij dit blog leg ik uit wat dat is. Eerst maar eens dieper in op het vergeten risico.

Soms heb je dat, gedachteloos scrollend langs een rijtje berichten op social media zie je in een ooghoek iets voorbij komen en schuifel je weer terug omhoog. Wat zag ik daar nou?

Deze keer viel mijn oog op een tabelletje global risks uit het jaarlijkse onderzoek van het World Economic Forum. Ik volg dat de laatste jaren, in tegenstelling tot vroeger, niet meer van heel dichtbij. Het lijstje is zelden verrassend en de grootste risico’s ken ik inmiddels wel.

Dus erg veel tijd besteed ik er niet meer aan, ook al vind ik dat elke risicoprofessional en veiligheidskundige ze wel moet kennen. Het hoort bij je vak.

Global risk

Voor deze keer keek ik er eens extra goed naar, want volgens mij was er wat mee. Daar kom ik zo nog op. Eerst een korte samenvatting van de resultaten.

Voor 2024 worden klimaateffecten door de respondenten als toprisico ingeschat. Maar liefst 66% van de respondenten ziet dat als de grootste uitdaging van deze tijd. Met als goede tweede misinformatie door AI, genoemd in 53% van de inzendingen.

Daarna volgen sociale- en politieke polarisatie (46%), toenemende kosten van levensonderhoud (42%), cyberattacks (39%), economische krimp (33%) en nog dertien andere risico’s. Nummer twintig is de angst dat de techbubbel barst, genoemd door slechts 4% van de deelnemers.

Wat valt er op als je door die totale lijst kijkt?

Nou, dat de risico’s van buiten komen, ze zijn allemaal extern. Ik moest zelfs denken aan die vermaledijde act-of-god, indertijd op mijn HVK studie nog zwaar verboden door Walter Zwaard.

Hier, bij het WEF, was sprake van een vergeten risico: de fragiliteit van de eigen organisatie. En dat is misschien wel het grootste risico dat er is. Het enige bovendien waar je echt zelf wat aan kan doen. (Herkent u de karakteristiek van het Stoïcijns crisismanagement al?)

Op mijn website Rizoomes heb ik inmiddels een behoorlijk aantal fenomenen beschreven die bijdragen aan de genoemde fragiliteit. Ik zal er hier een paar noemen, dan krijg je een beetje een beeld.

Fragiliteit

Ten eerste de volledig over zijn grenzen uitgerekte bedrijfsvoering. Systemen draaien op meer dan 100% van hun capaciteit en worden daardoor gevoelig voor disrupties. Voeg daar de globale just-in-time logistiek aan toe en je fragiliteit vliegt omhoog.

James Reason noemde dat ooit het vulnerable system syndrome: denial, blame and the blinkering pursuit of the wrong goals. Die waren niet opgenomen door de respondenten van het WEF.

Verder zijn er veel organisaties waar grote ego’s in de weg zitten van rationele bedrijfsvoering. Dat leidt dan weer tot fundamental surprises en een jarenlang leertraject om de verbinding met de normale wereld weer terug te vinden.

Daar staat tegenover dat sommige andere bestuurders echt geen idee hebben waar ze mee bezig zijn, waardoor ze stomme fouten maken. Zwarte eenden noem ik dat. Als je pech hebt bezitten ze ook nog een groot ego; vlek op vlek.

Ik zal geen namen noemen.

En dan heb je nog het vergeten risico van fraude, slordigheid, ruzies, regeren door vooruit te schuiven en het-met-de-kennis-van-nu-syndroom. Zo kan ik nog wel even doorgaan, maar dat doe ik niet. Mij ging het voor nu even over dat vergeten risico van fragiliteit in het rijtje van de WEF:

Het ligt altijd aan een ander, nooit aan jezelf.


Dit blog verscheen als column in een iets ingekorte vorm in het kwartaalblad van de Nederlandse Vereniging van Veiligheidskunde NVVK. Eerdere blogs voor dat blad vind je hier.

Crisis Awareness

Ik maak van dit naschrift gebruik om heel globaal Crisis Awareness te introduceren. Het verhaal van het vergeten risico is namelijk ook een inleiding op de fragiliteit van organisaties en daarmee op Crisis Awareness.

Een crizoom (crisis rizoom) volgens DALL-E. Zoals Koot & Bie zouden zeggen: het is nog een concept, stoei er wat mee. En dat heb ik gedaan: crizoom is nu Crisis Awareness.

Volgens mij kun je een crisis zien als een complex systeem (een rizoom). Het bestaat uit diverse factoren die met elkaar interacteren en uiteindelijk de frequentie, omvang en escalatie van crises bepalen.

Crisis Awareness bestaat uit vijf hoofddelen. Triggerincidenten, als eerste, leiden een crisis in. Ze leggen een fragiliteit in een organisatie bloot, of appelleren aan een onderstroom in de samenleving die vervolgens luidkeels gaat communiceren, framen, boycotten en cancelen.

Of allebei. Dat zijn de delen twee en drie van Crisis Awareness.

Dat externe deel noem ik de Territory, de fysieke, sociale en psychologische omgeving. Volgens mij zijn de meeste risico’s voorzienbaar, alleen weet je niet wanneer en hoe laat ze zich manifesteren. Maar de manier waarop mensen in je Territory reageren, dat is de onvoorspelbaarheid van de crisis, dat is wat het groot en viral maakt. Corona was dus ook geen Black Swan, de manier waarop de mensen er mee omgingen wel.

Zonder mensen is er geen crisis.

Het vierde deel van Crisis Awareness is Prohairesis: hoe goed ben je voorbereid op jezelf? Want crisismanagers en hun teams zijn onlosmakelijk verbonden met hun crisis. Alle crises ben jezelf. Met andere mensen had het een andere crisis geworden. Jouw handelen doet er dus echt toe.

Het vijfde deel is het Museum of Accidents. Dat is het geheugen van het Framewerk en daarnaast de inleiding op het vakgebied van de Accidentology. In deze longread leg ik het volledige Framewerk Crisis Awareness uit.

De cobra van Extremistan

Leestijd: 6 minuten

Het cobra effect komt uit de economische psychologie en is de metafoor voor een oplossing die het originele probleem juist groter maakt. Als je er iets dieper induikt, zie je dat de cobra uit Extremistan komt en dat je eigenlijk opnieuw naar je grote risico’s zou moeten kijken. Omdat die niet zouden moeten gaan over kansen op een effect, maar over de grenzen van het effect.

Van 1858 tot 1947 was India een kolonie van Engeland. Het Britse bestuur deed er van alles aan om het land in te richten naar Westerse maatstaven. Zodoende moest ook de veiligheid op straat omhoog, wat onder andere inhield dat er een halt zou worden toegeroepen aan de hoeveelheid giftige cobra’s in de bebouwde kom van Delhi.

Cobra effect

Daartoe bedacht men een slim plan. In plaats van zelf op jacht te gaan, gaven ze geld voor elke cobrahuid die bij de overheid werd ingeleverd. De actie kwam langzaam op gang, maar na enkele weken liep het als de gesmeerde bliksem. Sterker nog, de slangenhuiden bleven maar binnen komen, als in een onafzienbare reeks spam.

Vreemd genoeg nam het aantal cobra’s op straat na enkele maanden niet significant af. Waarna het bestuur besloot de actie dan maar te stoppen. Die was toch niet succesvol gebleken, zo oordeelde men. Er werd vanaf dat moment geen geld meer betaald voor cobrahuid.

De cobra van Extremistan
Spuwende cobra in Artis, 1962.

Daarmee was het dossier niet gesloten. In de daarop volgende weken bleek het aantal slangenbeten namelijk sterk toe te nemen. Dat nu was raadselachtig. Hoe kon dat? Wat was er gebeurd? Waren die beesten gek geworden of zo, dat ze opeens iedereen gingen bijten?

Nee, het waren er gewoon veel meer dan voor de actie. De betaling per cobrahuid had hele families aangezet tot het kweken van cobra’s. Per paartje komen er na dik twee maanden 40 nieuwe slangetjes uit hun ei gekropen. Weliswaar is de cobra pas na zo’n vijf jaar geslachtsrijp, maar in de tussentijd kunnen opa en oma slang gewoon door met werpen. Dus het jongt lekker aan.

Toen er geen geld voor de huid meer werd betaald, dumpten de cobraboeren en masse hun slangen. Die waren nu niks meer waard, dus weg ermee.

De Britten stonden genadeloos in hun hemd. Dankzij hun oplossing was het probleem erger geworden dan het voorheen was, een fenomeen dat sinds die tijd bekend staat als het cobra effect.

Rattenstaart

Iets soortgelijks ondervond de Franse regering in 1902, in hun kolonie Indochina. Daar had men in Hanoi een prachtige wijk uit de grond getrokken, compleet met riolering. Die al snel functioneerde als een soort rattensnelweg. Binnen afzienbare tijd regende het klachten over ratten die via toiletten de huizen van welgestelde families betraden. Dat was niet de bedoeling.

Dus werden er rattenjagers geworven onder de bevolking. Die gingen opgewekt aan de slag, al was het maar omdat ze per stuk betaald werden. Michael Vann, een Amerikaans historicus, vond tijdens zijn onderzoek staarttellingen in een archief. Gemiddeld werden er in het begin zo’n 4000 ratten per dag gevangen, wat al snel opliep tot meer dan 10.000. Op 21 juni werden er zelfs 20.121 gevangen.

Moet je nagaan.

Maar toch was het niet genoeg en besloot de regering 1 cent te betalen voor elke rattenstaart die door de bevolking inleverde. Zo konden ze mooi tellen hoeveel ratten er waren gevangen, zonder dat ze met al die lijkjes werden opgezadeld.

En het moet gezegd, deze actie liep crescendo voor de Fransen. Soms zijn het net Engelsen in het begin.

Na enige tijd kwamen er echter verwarrende berichten binnen op het bureau van de Gouverneur. Steeds meer mensen melden dat ze ratten zonder staart zagen rondlopen, naast overigens de reguliere exemplaren met staart.

Handel

Het bleek dat de Vietnamezen de ratten na het amputeren van hun staart gewoon weer loslieten, zodat ze zeker wisten dat er nieuwe ratten bijgemaakt zouden worden en hun handeltje zich in stand zou houden.

Hanoi in 1902

Andere Vietnamezen waren een rattenimport gestart en nog weer anderen begonnen ratten te kweken, zodat uiteindelijk het aantal ratten niet af- maar toenam.

Een cobra effect met een rattenstaart. Er gaan dan ook stemmen op om het cobra effect het rattenstaart effect te noemen. Mij is dat om het even. Het leerpunt is volgens mij namelijk dit: dat zowel de Engelsen als de Fransen niet zagen dat hun prijsvraag was gekoppeld aan een schier oneindige hoeveelheid cobrahuiden en rattenstaarten. Er zit geen eind aan.

Sterker nog, doordat er aan viel te verdienen werd de voorraad alleen nog maar groter.

Extremistan

Het cobra effect wordt in de economie daarom veel gebruikt als voorbeeld hoe perverse prikkels in een complex systeem problemen eerder groter maken dan oplossen. Dan wordt geld verdienen een doel op zichzelf en dat is altijd verkeerd als het gekoppeld is aan nuts- of gezondheidsvoorzieningen. Daarvan is het doel namelijk om de samenleving te verbeteren en te versterken, niet om er zelf rijk van te worden.

Maar dat is niet het enige leerpunt. Vann wijst op de arrogantie van de Westerling in dit soort situaties, door mij in eerdere blogs beschreven als grote ego’s en fundamental surprise:

“It’s sort of a morality tale for the arrogance of modernity, that we put so much faith into science and reason and using industry to solve every problem,” Vann says. “This is the same kind of mindset that lead to World War I—the idea that the machine gun, because it kills so efficiently, is going to lead to a quick war. And what that actually lead to is a long war where many people lost their lives.”

Ik wil er nog een derde leerpunt aan koppelen. En dat betreft de orde van Extremistan.

Extremistan is door Taleb opgevoerd in zijn boek over de Black Swan als tegenhanger van Mediocrestan. In Extremistan, zegt hij, is de onvoorspelbaarheid groot, net als ongelijkheid en onrechtvaardigheid.

Extremen zijn normaal en vormen er geen kleine kans op een groot effect, zoals wel het geval is in Mediocrestan.

Onbegrensd

In Mediocrestan kun je een kamer vullen met 30 mensen en Robert Wadlow, de langste man ooit, en dan wijkt het lengteverschil niet enorm af van het gemiddelde. Als je daarentegen 30 mensen in een kamer zet met Jef Bezos en je kijkt naar het gemiddelde inkomen, dan is dat verschil wel extreem. Sommige dingen houden zich niet aan de aardse wetten van Mediocrestan.

Een foto van Robert Ladlow, de langste man ooit, met zijn vader. Robert werd 2.72 lang en slechts 22 jaar oud.

Dat is de orde van Extremistan.

De essentie daarvan is dat er geen fysieke begrenzing zit aan een eenheid. Dus geld uitgedrukt in gouden staven is per definitie beperkt tot de beschikbare voorraad goud, waar giraal geld schier onbeperkt is. Die begrenzing maakt goud dus ook duur.

Net zo zit er geen grens aan het aantal meningen van mensen, aan besmettingen, aan internet (nou ja, een beetje dan, maar er wordt aan gewerkt) aan cobra’s en aan rattenstaarten.

Ook niet aan overstromingen, bosbranden en hongersnoden.

Risicomanagement

Deze onbegrensdheid van de orde van Extremistan zou een belangrijke factor moeten zijn in je risicomanagement. Niet kijken naar kans, maar naar begrenzing. Is de begrenzing groot, dan is het risico beperkt. Is de begrenzing klein of afwezig, dan is het risico enorm.

Risico’s beperken zich niet alleen tot de aanwezigheid van gevaar, maar ook tot de afwezigheid van essentiële resources. Zoals water, energie, medewerkers. Als er een begrenzing komt aan die resources is het risico ook groot. Is die begrenzing er niet, dan is het risico klein.

Precies omgekeerd dus. Haal het niet door elkaar.

Dus stel dat we alles willen elektrificeren en stroom nog de enige energiebron is, dan is het een single point of failure die de orde van Extremistan flink kan doen opschudden. De begrenzing ervan maakt het een extreem risico.

Dat is volgens mij ook precies wat een Black Swan is: een onbegrensd gevaar of een begrensde resource met een enorme impact als gevolg.

En die dan niet zien aankomen.

Het Onwaarschijnlijkheidsprincipe. Een boekrecensie

Leestijd: 12 minuten

Het Onwaarschijnlijkheidsprincipe is een interessant boek dat laat zien dat de kans op een buitengewoon zeldzame gebeurtenis helemaal zo klein niet is. Sterker nog, het is juist heel logisch dat er vaak iets onalledaags gebeurt, zo illustreren de vijf wetten van onwaarschijnlijkheid ons. Zat Taleb er dan naast, en is zijn Black Swan helemaal niet zo’n  “highly impropable event”?

Zo eenvoudig is het nu ook weer niet en dat past overigens prima bij dit boek. Het leest makkelijk weg maar is tegelijkertijd taaie stof. Steeds als ik een hoofdstuk uit had vroeg ik me af wat ik er nu eigenlijk van onthouden had en wat ik er mee kan in de praktijk. Dat laatste lees je in de laatste paragraaf.

We gaan beginnen met de start van mijn opleiding op de brandweeracademie.

Aan het eind van de 30e opleiding tot brandweerofficier bleef er tijd over. Het was de bedoeling dat de boel 19 maanden zou duren, maar vanwege allerlei herzieningen in het brandweeronderwijs was er tussentijds veel geschoven. Daardoor waren sommige modules versneld, en andere vertraagd. We zaten in 1990 zodoende maanden te wachten op het laatste examen van de module Hoofdbrandmeester Preventie, dat maar niet af kwam.

Luc Quintyn

In de tussentijd verzon Ruud Jonkman, het toenmalige hoofd van de officiersopleiding, van alles om ons bezig te houden. Eén van zijn meer briljante verzinsels was een lezing door Luc Quintyn, een officier uit het Belgische leger die eigenlijk bij toeval betrokken was geraakt bij de traumazorg van medewerkers in de frontlinie. Zijn eerste grote klus was het begeleiden van de bergingswerkzaamheden van de Herald of Free Enterprise in 1987. Daarover kwam hij ons vertellen.

onwaarschijnlijkheidsprincipe

Let wel, in die tijd was traumanazorg nog totaal nieuw. Over emoties sprak je niet. Zeker niet in een groep.

Wij hingen aan zijn lippen. Quintyn was een uitzonderlijk goede verteller en een sympathiek mens die veel had meegemaakt. Over zijn eigen bijdrage was hij zeer bescheiden. Hij deed slechts wat nodig was, zo zei hij, zonder hem was het waarschijnlijk net zo goed gegaan. Wij wisten intussen wel beter.

Zijn verhaal maakte grote indruk, en één deel daarvan in bijzonder. Quintyn vertelde dat hij vaak op de plaats incident aanwezig was, gewoon om te kijken wat er gebeurde en naar bijzonderheden te speuren. Kleine signaaltjes om misschien op te interveniëren. Tijdens één van die rondes had hij zo een fotorolletje gekregen van duikers, dat ze hadden aangetroffen in een hut aan boord.

Quintyn besloot het te laten ontwikkelen. Het bleek een setje vakantiefoto’s te zijn waar als ik me goed herinner voornamelijk een lachende vrouw op stond. Maar hij kon er verder niets mee en bewaarde het mapje afdrukken in een bureaula. Tussen allerlei andere vondsten.

Geruime tijd later, Quintyn maakte weer één van zijn rondes, trof hij daar een man die langs de waterkant liep te dralen. Zijn gedrag viel op en Quintyn sprak hem aan. De man hield het eerst wat af, maar brak toen Quintyn doorvroeg en het onderwerp van zijn bezoek op tafel kwam.

Hij vertelde dat hij een relatie onderhield met een getrouwde vrouw en dat ze beiden op de ferry hadden gezeten. Hij had zich kunnen redden, maar zij niet. Het enige wat hij van haar had waren zijn herinneringen, want hun vakantiefoto’s waren tijdens het ongeval verloren gegaan.

Op dat moment dacht Quintyn aan het fotomapje in zijn bureaula en kwam er met wat vragen achter dat de man voor zijn neus met de vrouw van de foto’s aan boord was geweest. Quintyn besloot de afdrukken aan de man te geven; hij vond het niet zijn taak om te oordelen over de situatie, hij was er alleen maar om geestelijke nood te lenigen en zo kon hij dat doen.

Het Onwaarschijnlijkheidsprincipe

Hoe onwaarschijnlijk is dat verhaal? Toch was het echt gebeurd. Wat een bizar toeval, vonden wij, zonder enige ervaring. Ik dacht er later nog veel aan terug, omdat bij elke ramp en ellende die ik van dichtbij meemaakte dit soort onmogelijke verhalen boven tafel komen.

Brandweermannen die hun dienst ruilden met een collega die vervolgens omkwam. Of mensen die op het allerlaatste moment wel een stoel kregen in een vliegtuig omdat iemand van de airline zijn plek afstond en een latere vlucht nam. Er zijn voorbeelden te over, de één nog onwaarschijnlijker dan de andere.

En bij al die voorbeelden vraag je je af: wat was de kans dat dit zou gebeuren?

Dat is precies waar Het Onwaarschijnlijkheidsprincipe over gaat. Volgens David Hand, de schrijver, zijn extreem onwaarschijnlijke gebeurtenissen juist heel alledaags.

Het komt voort uit een verzameling fundamentelere wetten die er met elkaar onvermijdelijk en onverbiddelijk toe leiden dat zulke buitengewoon onwaarschijnlijke gebeurtenissen plaats hebben. Volgens deze wetten, dit principe, zit de wereld zo in elkaar dat die toevalligheden onontkoombaar zijn.

Ze moeten dus gebeuren, stelt Hand. Er zit niets bovennatuurlijks aan. Hand is emeritus hoogleraar wiskunde aan het Imperial College in London en is gespecialiseerd in statistiek. In dit boeiende boek met veel voorbeelden van onwaarschijnlijke verhalen blijft de wiskundige kant (gelukkig) grotendeels achterwege. Dat maakt het ook voor de niet-beta’s goed te volgen.

Luc Quintyn 1950-2011. Foto Wikipedia

Sterker nog, juist zij zouden dit boek moeten lezen. Om te begrijpen dat onwaarschijnlijke gebeurtenissen helemaal zo onwaarschijnlijk nog niet zijn.

Daartoe beschrijft David Hand vijf wetten, die als strengen op elkaar inwerken. Voor de volledige uitleg moet je natuurlijk in het boek zelf zijn. Maar een korte toelichting is op deze website wel op zijn plaats, als aanvulling op de blogs over Taleb, Averting Catastrophe, Ruis en Predictable Surprise.

Vooral omdat ik met enige voorzichtigheid meen dat het Onwaarschijnlijkheidsprincipe een soort van nuancering van The Black Swan is. Black Swans zijn helemaal niet zo onwaarschijnlijk, maar hun impact is wel heel groot. Ja, ik vind het zelf ook gedurfd. Maar ik schrijf het toch op.

Dit zijn de vijf wetten van het Onwaarschijnlijkheidsprincipe.

1.     De wet van de onvermijdelijkheid

De wet van de onvermijdelijkheid houdt in dat als je een complete lijst maakt van alles wat er kan gebeuren in een bepaalde situatie, er altijd één van die uitkomsten zal plaatsvinden. Al weet je van tevoren niet welke.

Dus als je een golfbal slaat op een green, komt ie altijd ergens uit. Dat is onvermijdelijk. Dat we aan sommige uitkomsten meer waarde toekennen dan aan andere, bijvoorbeeld een hole in one, is wat anders. Dat valt onder de wet van selectie, die komt iets verderop nog terug.

De wet van de onvermijdelijkheid betekent niet dat dan ook maar alles in de praktijk zal gebeuren. Het is theoretisch niet onmogelijk dat een aap op een typemachine een roman schrijft, of dat een marmeren beeld gaat zwaaien als alle moleculen tegelijk één kant op bewegen en dan weer terug. Maar de praktische kans is zo klein, dat je het volgens de Wet van Borel toch als onmogelijk moet beschouwen.

Om zo’n onwaarschijnlijkheid te onderbouwen benoemde Borel een aantal schalen waarop je kansen kan afwegen. Kansen die op een menselijke schaal te verwaarlozen zijn, zijn kleiner dan ongeveer één op miljoen. Dat is een norm die ook in het externe veiligheidsbeleid wordt gebruikt. Desondanks vinden er nog steeds industriële ongevallen plaats, hetgeen overigens geen falsificatie is van de Wet van Borel, maar aantoont dat de veiligheidsmaatregelen niet op orde waren.

2.     De wet van de werkelijk grote aantallen

De wet van de grote aantallen zegt dat het bij een voldoende groot aantal gelegenheden aannemelijk is dat willekeurig welke bizarre gebeurtenis zich voordoet. Alles wat kan gebeuren, zal gebeuren, als we het maar vaak genoeg proberen.

Dus hoe vaker je de straat over steekt, hoe waarschijnlijker het is dat er een keer iets mis gaat. Hoe meer mensen je over een spoor afhandelt, hoe groter de kans dat er een keer een botsing of een ontsporing plaatsvindt. Hoe meer mensen je met zes dobbelstenen tegelijk laat gooien, hoe waarschijnlijker het is dat er iemand bij zit die in één worp zes zessen gooit.

Bekend voorbeeld van survivorship bias, dat veel rondgaat op Twitter. Het is afkomstig van Abraham Wald, een wiskundige. Hij wees er op dat juist de vliegtuigen die niet terugkwamen geraakt waren op kwetsbare plekken. De terugkomers waren wel geraakt, maar niet op cruciale punten. De tekening werd gemaakt door Cameron Moll.

Hier zit natuurlijk al een eerste linkje naar een Black Swan. Hoe meer mensen er door je proces gaan en hoe langer je dat doet, hoe waarschijnlijker het wordt dat er een keer iets onwaarschijnlijks plaatsvindt met een hele grote schade. Ook al ging het nog zo lang goed. Sterker nog, het is niet eens onwaarschijnlijk dat het vlak daarna nog eens gebeurt.

3.     De wet van de selectie

De derde wet van het Onwaarschijnlijkheidsprincipe zegt dat sommige gebeurtenissen pas als onwaarschijnlijk worden betiteld als ze al gebeurd zijn. Omdat we er dan pas betekenis aan geven. Dus een golfer die ballen blijft slaan zal bij elke slag meer of minder tevreden zijn over de uitkomst, maar bij een hole in one zich wellicht afvragen hoe dat mogelijk is.

Je ziet het ook bij ongevallen. In onveilige werksituaties gaat het heel lang goed, omdat mensen zich steeds aanpassen en improviseren om schade te voorkomen. Tot het op een dag wel fout gaat. Dan wordt er achteraf iets mee gedaan, terwijl er eerder ook al voldoende aanleiding was om in te grijpen. Maar toen werd een ongeval nog als onwaarschijnlijk gezien.

Het is overigens nog steeds vaak zo dat de werknemer dan de schuld krijgt. Menselijke fout, roept men dan, maar al die keren dat het dankzij diezelfde werknemer wel goed ging wordt voor het gemak dan maar even vergeten.

Nauw gelieerd aan de Wet van de selectie is de survivalshipsbias. Er wordt naar de oorzaak van ongewenste gebeurtenissen gezocht door de overblijvers te onderzoeken. Francis Bacon schreef er ruim vierhonderd jaar geleden al over in zijn boek Novum Organon.

Het was een goed antwoord dat een man gaf toen ze hem in een tempel een schilderij lieten zien van zeelieden die aan een schipbreuk waren ontkomen door heilige geloften af te leggen en ze wilden weten of hij nu niet de macht van de goden erkende. Jawel, was zijn wedervraag, maar waar zijn de gelovigen geschilderd die na hun geloften zijn verdronken. Alleen de overlevenden van een schipbreuk kunnen je vertellen dat ze vooraf gebeden hebben.

francis bacon

4.     De wet van de kanshefboom

De wet van de kanshefboom zegt dat een kleine verandering in een situatie een heel groot effect kan hebben. Hand maakt de vergelijking met twee mensen op een wip. Die kan in evenwicht blijven, ook als de personen in gewicht verschillen, indien ze op de juiste afstand van het midden zitten. Maar zodra de zwaardere persoon iets naar achteren verschuift, vliegt de lichtste omhoog. Andersom is het effect minder groot. Dat de wip in evenwicht was, betekent niet dat het een stabiel systeem was.

Francis Bacon 1561 – 1621 was een Engels filosoof die veel publiceerde over de wetenschappelijke methode

Hand geeft nog een voorbeeld over water. Als je water van 25 °C vier graden afkoelt, gebeurt er niet zo veel. Maar als je water van 2 °C vier graden afkoelt, gebeurt er heel veel en heb je opeens ijs.

Op die manier kunnen instabiele en metastabiele systemen door een kleine verandering hele grote effecten veroorzaken. Dat lijkt onwaarschijnlijk, maar is door de kanshefboom goed verklaarbaar.

Een andere oorzaak van de kanshefboom is dat een systeem geen normaalverdeling volgt, maar alleen maar lijkt op een normaalverdeling. Hier geeft Hand de beurskoersen als voorbeeld en introduceert daarbij het voor mij nieuwe begrip van de cauchyverdeling. Die heeft veel langere staarten dan een normaalverdeling en ook heel interessant, geen gemiddelde waarde.

Maar veel dieper ben ik daar niet op in gegaan. Dat stuk heb ik gescand.

Wat de wet van kanshefboom dus eigenlijk laat zien is dat we denken een fenomeen te begrijpen, maar in werkelijkheid zitten we er naast. Daar komen we dan achter door een in onze ogen onwaarschijnlijke gebeurtenis, die volgens een cauchyverdeling helemaal niet zo onwaarschijnlijk is.

Daarnaast, schrijft Hand, kan het voorkomen dat het systeem zich wel normaal gedraagt, maar jij niet. Hij geeft het voorbeeld van Roy Sullivan, die tussen 1942 en 1977 zeven keer door de bliksem werd getroffen. Dat lijkt heel onwaarschijnlijk, maar is het niet als je weet dat Sullivan een parkwachter is die tijdens onweer bijna altijd buiten in het bos is.

5.     De wet van het voldoende dichtbij

Dit vond ik eerlijk gezegd de meest lastige van de vijf wetten om in het kort te beschrijven. Gelukkig zijn er dan mensen zoals mijn goede vriend Gabor die mij wijzen op mogelijke verbeteringen. Weet dus, als je dit leest, dat het stukje hieronder, en eigenlijk zelfs het hele blog, een peer review heeft gehad :-).

De wet van het voldoende dichtbij zegt dat als twee gebeurtenissen maar voldoende op elkaar lijken ze als identiek worden beschouwd. Dan zie je opeens patronen die er niet zijn en maak je een waarschijnlijke gebeurtenis onwaarschijnlijk door het ten onrechte te vergelijken met andere onwaarschijnlijke gebeurtenissen.

“Door de criteria van een precieze overeenkomst af te zwakken, kunnen we de kans op kennelijke toevalligheden vergroten. Gebeurtenissen die misschien uiterst onwaarschijnlijk lijken, kunnen bij nadere beschouwing heel plausibel lijken.”

Hand noemt het voorbeeld van Bill Shaw en zijn vrouw, die allebei een treinongeval overleefden waarbij wel vele andere doden vielen. Dat lijkt onwaarschijnlijk, alleen was het niet hetzelfde treinongeluk en zat er vijftien jaar tussen.

Ongetwijfeld zouden de kranten het nieuws ook hebben opgepikt als bij het ene ongeluk Bill betrokken was geweest en bij het andere zijn broer, of zus, of kinderen, of ouders, enzovoorts. En ook als er vier jaar, of twintig jaar tussen de ongelukken had gezeten.

david hand

De onwaarschijnlijkheid van de Black Swan

Het onwaarschijnlijkheidsprincipe laat zien dat onwaarschijnlijke gebeurtenissen niet zo zeldzaam zijn als wel wordt gedacht. In die zin is de verschijning van een Black Swan dus ook niet zo vreemd. Die komen nou eenmaal voor, betoogt Hand. Maar dat betekent niet dat je ze kan voorspellen.

Dat er een Black Swan zal landen is dus niet zo onvoorspelbaar, maar wel welke Black Swan, en wanneer. Dat kan je vooraf niet weten.

De Tay Bridge disaster bij Dundee in 1879. In een gierende storm stortte de brug in en de trein in zee. Er werden 59 lichamen geborgen, mogelijk zijn er nog 16 meer geweest, maar die zijn niet gevonden.

Voor bedrijven en organisaties betekent het dat je je moet voorbereiden op onwaarschijnlijke gebeurtenissen in het algemeen. Niet de kans is leidend op je preparatie, maar het mogelijke effect. Dat is wat de wet van de onvermijdelijkheid en de werkelijk grote aantallen ons vertellen. Er is altijd wat.

De wet van de kanshefboom leert ons dat we ook rekening moeten houden dat het probleem wel eens erger kon zijn dan verwacht. Dat het altijd erger kan moet je dus ook altijd meenemen in je voorbereiding en in je beeldvorming, of accepteren dat nu eenmaal niet alles voorkomen kan worden. Of allebei.

De laatste twee wetten zitten het dichtst tegen de eigenaardigheden van de menselijke psyche aan. Als eerste de wet van de selectie, die laat zien dat onwaarschijnlijkheid vaak verward wordt met onwenselijkheid en dat pas achteraf iets als bijzonder wordt aangemerkt.

De wet van voldoende dichtbij legt bovendien uit dat bepaalde gebeurtenissen te veel op een hoop worden gegooid. Zoals een stroomstoring, een brand en een cyberincident bij één bedrijf, waardoor wordt geframed dat het er een zooitje is.

Zo ontstaat er een verhaal en zo ontstaat er dus ook gemakkelijk een crisis.

Maar da’s logisch.

Kennisveiligheid

Leestijd: 3 minuten

Kennisveiligheid is een betrekkelijk nieuwe loot aan de stam van integrale veiligheid. Ik had er tot voor kort niet in deze termen over nagedacht. Toch is het een zeer relevant onderwerp en onderdeel van het kwetsbaarheidsspectrum van een organisatie waar zomaar eens een crisis uit kan rollen. Daarom beginnen we met Abdul Qadir Khan.

Abdul Qadir Khan was 16 toen hij met zijn ouders van India naar Pakistan emigreerde. Hij kon goed leren en toen hij zijn studie aan de universiteit van Karachi had afgerond, vertrok hij naar Europa om verder te studeren. Na zijn promotie aan de universiteit van Leuven kwam hij in 1972 in dienst bij het Fysisch Dynamisch Onderzoekslaboratorium (FOD), waar hij veel werkte aan projecten voor Urenco.

In 1984 bezocht Pieter van Vollenhoven Urenco. Foto ANP Anefo

Urenco. Misschien dat er nu een belletje gaat rinkelen, want u vroeg zich al af wat u met dit verhaal moest.

Nou, die Khan stal de geheimen van Urenco waarmee Pakistan uiteindelijk een atoombom kon bouwen. Dit soort ontwikkelingen doet wat met de geopolitieke verhoudingen in de wereld. Kennis is een strategisch goed, net zoals grondstoffen en aardgas dat zijn. Met als specifiek kenmerk van kennis: je kan het jatten zonder dat de eigenaar het mist. Dat gaat met aardgas en aardolie niet lukken.

Daarom is er nu de Nationale Leidraad Kennisveiligheid. Daarin wordt de volgende definitie van kennisveiligheid gegeven:

Bij kennisveiligheid gaat het allereerst om ongewenste overdracht van sensitieve kennis en technologie. Overdracht is ongewenst als deze de nationale veiligheid van ons land aantast. Daarnaast gaat kennisveiligheid om heimelijke beïnvloeding van onderwijs en onderzoek door statelijke actoren. Deze inmenging brengt de academische vrijheid en de sociale veiligheid in gevaar (..)

leidraad kennisveiligheid

Dual-Use

De leidraad richt zich met name op zogenaamde dual-use situaties. Onderzoek en kennis naar civiele toepassingen die ook militair gebruikt kunnen worden. Om dat wat verder te concretiseren worden de volgende tien aandachtsgebieden benoemd:

  • Nucleaire goederen;
  • Speciale materialen en aanverwante apparatuur;
  • Materiaalverwerking;
  • Elektronica;
  • Computers;
  • Telecommunicatie en “informatiebeveiliging”;
  • Sensoren en lasers;
  • Navigatie en vliegtuigelektronica;
  • Zeewezen en schepen;
  • Ruimtevaart en voortstuwing.

Niet alle instellingen staan te trappelen om de leidraad toe te passen. Ook de VSNU, het gezamenlijke universiteitsclubhuis, verkondigde dat de universiteiten ten onrechte worden opgescheept met geostrategische en veiligheidsproblemen. Waarmee ze maar weer lieten blijken dat het simpele feit dat je voor een universiteit werkt je niet persé slimmer maakt.

Want wie anders dan de kennissector zelf weet wat de risico’s van een bepaalde technologie zijn? Net zoals je inventariseert op onder andere straling, besmetting en giftigheid check je ook wat je met jouw kennis kunt doen als het in verkeerde handen valt. Dat lijkt mij niet meer dan logisch in een steeds vijandiger wereld.

Overigens gaat de kennisveiligheid verder dan dual-use. Geopolitieke afhankelijkheden zitten ook in concurrentievoordelen of überhaupt de deskundigheid en vaardigheid om bepaalde technologie te bedenken, ontwikkelen en toe te passen. Denk aan ASML maar ook aan innovaties op het gebied van kunstmatige intelligentie. Daar wordt nu ook met strategische blik naar gekeken.

Kennisveiligheid geeft de traditionele risicoanalyse dus een hele nieuwe twist door die ene vraag: hoe kun je de geïnventariseerde risico’s rondom kennis misbruiken? Als die vraag in de jaren 70 was gesteld, had Khan’s diefstal wellicht voorkomen kunnen worden. Het is kennelijk nog steeds zo dat er eerst iets moet gebeuren voor er maatregelen worden genomen. In die zin is de Leidraad Kennisveiligheid zeker belangrijk, maar rijkelijk laat.


Dit blog verscheen in iets gewijzigde vorm als column in de NVVK info. Andere blogs die op het onderwerp van interne kwetsbaarheden ingaan zijn De onnodige crisis, Tot crisis gemaakt en Insider risk, door slordigheid crisis.

Hoe je een ramp voorkomt. Een Boekrecensie

Leestijd: 10 minuten

Hoe voorkom je een ramp? Dat is het onderwerp van een handzaam boekje van Cass R. Sunstein onder de titel Averting Catastrophe. Voor zover ik kon nagaan bestaat er geen Nederlandse vertaling van, maar dat vond ik geen probleem. De tekst is makkelijk te volgen. De vraag die vooral bleef hangen was wat je nou eigenlijk met dit boekje moet. Het antwoord erop verraste mijzelf ook.

Averting Catastrophe explores how governments ought to make decisions in times of imminent disaster.

Zo ronkend laat Cass zijn boek aanprijzen op de kaft, door enkele van zijn geleerde vrienden. Ik stonk erin en kocht het ongelezen. Want wie wil dat nou niet, besluiten kunnen nemen rondom de vraag hoe je een ramp voorkomt?

Voor hen die gehoopt hadden daarop een duidelijk antwoord te krijgen, volgt dan nu alvast de dikke vette spoiler: na lezing van Averting Catastrophe weet je het nog steeds niet. Maar weet je wel beter waarom je het niet weet.

Wat ik ook wel weer geruststellend vond.

Hoe je een ramp voorkomt

Want stel je voor, in 2023 zit ik dertig jaar in het vak van hoe je een ramp voorkomt en dan opeens schrijft iemand een boekje die daar in netto 117 pagina’s een antwoord op heeft. Dat zou wat zijn, zeg.

Maar goed, dat antwoord heeft Sunstein dus niet, maar wat heeft ie dan wel? Nou, enkele inzichten uit de decision theory die mij wel wat meer houvast gaven.

Of laat ik het anders zeggen, die mij bevestigden in een paar aannames die ik uit mijn praktijk had afgeleid, zoals het feit dat de te verwachten schade een belangrijker graadmeter is om op te handelen dan de kans op die schade. Sowieso vind ik ‘kans’ een overschatte parameter die nogal vaak leidt tot het-met-de-kennis-van-nu syndroom.

Nu moet ik eerst nog met een validiteitsdingetje aan de gang.

IYI

Die validiteitskwestie begint met een uitspraak van Jung. “Everything that irritates us about others can lead us to an understanding of ourselves.”

En dat geldt ook voor Nicholas Taleb. Everything that irritates Nicholas Taleb can lead us to an understanding of Nicholas Taleb.

En Cass Sunstein irritates Nicholas Taleb a lot. Zoveel zelfs dat Sunstein model stond voor Taleb’s tirade over IYI in zijn boek Skin in the Game: Intellectual Yet Idiot. Een IYI wordt door Taleb als volgt beschreven:

An inner circle of no-skin-in-the-game policymaking “clerks” and journalists-insiders, a class of paternalistic semi-intellectual experts with some Ivy league, Oxford-Cambridge, or similar label-driven education who are telling the rest of us 1) what to do, 2) what to eat, 3) how to speak, 4) how to think… and 5) who to vote for.

nicholas taleb

De Ivy League is een groep topuniversiteiten in Amerika, waaronder Princeton, Columbia en Harvard. Alumni ervan verkeren in hoge kringen en spelen elkaar volgens Taleb ondershands baantjes toe. Iets vergelijkbaars vind je in Frankrijk met de Grande Ecoles en met Oxbridge in Engeland.

Het is duidelijk dat Taleb er niets van moet hebben, IYI. Wellicht omdat ie zelf niet uit de League komt. Tegelijkertijd lijkt hij erg gevoelig voor erkenning uit dergelijke kringen. De validiteitsvraag is dan hoe serieus je de stellingen van Sunstein moet nemen. Of die van Taleb, natuurlijk. Kan het zijn dat hij zich overschreeuwt?

Want Sunstein is echt niet de eerste de beste. Onder Obama was hij verantwoordelijk voor een programma om de maatschappelijke kosten van fossiele brandstoffen in kaart te brengen, als onderdeel van een groter onderzoek naar de effecten van klimaatverandering.

Dat is ook de link met Averting Catastrophe, naast de schadelijke gevolgen van de Covid pandemie: de vraag hoe je een ramp voorkomt in onzekere omstandigheden.

Ik had DALL-E gevraagd een tekening te maken van een astronaut die een bord schildert met de tekst: watch out, black hole. Dat kwam er niet helemaal uit.

Maar Sunstein is vooral bekend geworden met zijn boeken over ‘nudging’. Dat is het onbewust beinvloeden van menselijk gedrag, bijvoorbeeld door de gezonde broodjes op ooghoogte te leggen en de ongezonde onderaan. Dat zou mensen aanzetten om gezonder te eten. Het wetenschappelijk bewijs erover schijnt mager te zijn, maar zolang supermarkten de gewenste snellopers in hun schappen op ooghoogte blijven leggen weet ik dat het werkt. Anders zouden ze dat niet doen.

Wat dan wel weer een leuk weetje is, is dat Aad Kieboom, een oud collega van mij, de beroemde vlieg in het urinoir heeft bedacht om de schoonmaakkosten van de toiletten op Schiphol in bedwang te helpen houden. Die piesvlieg geldt als de grootvader van alle nudges. Toen ik hem daar een keer over sprak keek hij mij vol verbazing aan; hij wist nergens van en was nooit ergens naar gevraagd of over geïnformeerd. Laat staan dat ie wist wat een nudge was.

Die middag nog kocht Aad het boek over nudging en liep mij de ochtend erna glunderend voorbij, terwijl hij uitgebreid zijn duim opstak en naar het boek wees. Hoe de dingen soms gaan.

Hoe je een ramp voorkomt

Ik vertel bovenstaand verhaal als context bij het boek Averting Catastrophe. Het werk van Sunstein is niet onomstreden, maar hetzelfde geldt voor zijn criticasters. Uiteindelijk is het niet mijn bedoeling aan te wijzen wie gelijk heeft, wel wil ik kort schetsen in welk krachtenveld het zich allemaal afspeelt. Wat je wel of niet voor waar aanneemt is verder aan jezelf. Mij gaf de verbreding in ieder geval meer inzicht in hoe je een ramp voorkomt.

Ga ik nu weer terug naar het boek zelf.

Met zijn boek wil Sunstein hulpmiddelen aanreiken over hoe je een ramp voorkomt. Daarbij sla ik het stukje over risicomanagement en expected value grotendeels over. Risico’s kun je namelijk kwantificeren, door een getal te geven aan waarschijnlijkheid (of frequentie) en effect. Dat geeft voldoende houvast om een besluit te nemen gebaseerd op expected value.

Maar dat is niet altijd het geval, dat je waarschijnlijkheid kunt toewijzen aan een situatie. In dergelijke omstandigheden weten we niet wat er kan gebeuren en ook niet goed wat de effecten kunnen zijn. Knightian uncertainty noemt Sunstein dat, naar de economoom Frank Knight.

Uncertainty must be taken in a sense radically distinct from the familiair notion of risk, from which it has never been properly separated… The essential thing is that ‘risk’ means in some cases a quantity susceptible of measurement, while at other times it is something distinctly not of this character; and there are far-reaching and crucial differences in the bearing of the phenomena depending on which of the two is really present and operating.

frank knight

We simply don’t know, voegde John Maynard Keynes daar aan toe. We weten niet wat de rente is over tien jaar, of er een oorlog komt in Europa, welke uitvindingen de markt zullen veranderen of wat de prijs van koper volgend jaar is. Knight beschreef zijn definitie van onzekerheid in 1933, Keynes die van hem in 1936.

We simply don’t know, hoe je een ramp voorkomt. Of hoe je de hoofdprijs wint. Want dat is wat onzekerheid is. VUCA heet dat ook wel: volatiel, onzeker, complex (of connected) en ambigu. Hier schreef ik er al eens eerder over.

Maximin

In de theorie van decisionmaking zijn een aantal principes benoemd die kunnen helpen om besluiten te nemen in onzekere omstandigheden. Zoals het maximin principe. Dat gaat ervan uit dat je het worst case scenario elimineert en vormt eigenlijk de kern van Averting Catastrophe: je voorkomt een ramp door het worst case scenario uit te schakelen.

DALL-E tekent een hand die een meteoor opvangt. Vind ie.

Toch stelt Sunstein daar wat vragen bij aan de hand van een aantal voorbeelden. Wat zou je kiezen:

  1. 99,9% kans om €10.000 te winnen en 0,1% kans om €60,- te verliezen of
  2. 50% kans om €50 te winnen en 50% kans om €50 te verliezen.

In regulier risicomanagement zou je kiezen voor optie 1. Dat heeft de hoogste te verwachten waarde. Maar als je gaat voor het maximin principe rolt optie 2 eruit. Dan mis je dus de kans op een grote winst. Dat is de waarschuwing van Sunstein: als je de worst case scenario in alle omstandigheden probeert te voorkomen, snij je misschien ook een grote winstkans af.

Nog een voorbeeld. Wat zou je kiezen:

  1. 100% kans om een euro te winnen of
  2. 100% kans om een ton te winnen met een onbekende kans om te sterven

Volgens het maximin principe kies je nu voor optie 1, ook als is de kans op sterven bij optie 2 onbekend. Overigens wordt bij regulier risicomanagement de kans van 1 op een miljoen in voorbeeld 2 acceptabel geacht bij de vergunning van risico opleverende activiteiten.

Maar als die 10-6 kans alleen op jouw betrekking heeft en niet op anonieme persoon, vind je die kans dan nog steeds acceptabel? Dat is de skin in the game vraag.

Er is ook nog het minimax principe. Daar heeft Sunstein het niet over in dit boekje, maar lang geleden kwam ik het tegen in een artikel van Mintzberg. Volgens Mintzberg nemen managers altijd het besluit waar ze achteraf het minste spijt van krijgen; minimaxen van spijt heet dat dan. Misschien is dat nog wel het beste principe om een ramp te voorkomen. Jammer dat Sunstein het daar niet over heeft.

Voorzorgsmaatregel

Dan is er nog een instrument dat het precaution principle wordt genoemd. Dat gebruik je om risico’s te vermijden, met name bij reguleringsvraagstukken. Als je niet weet wat het effect van genetisch gemodificeerde organismen (GMO) in de vrije natuur is, kun je ze maar het beste verbieden volgens de voorzorgsmaatregel. Zie ook het blog over georganiseerde onverantwoordelijkheid en manufactured risks.

Taleb vindt het onverantwoord om GMO’s los te laten in de natuur, omdat het totaal onzeker is wat er daarna mee gaat gebeuren. Daarbij wijst hij op de fat tail; de kans op een extreme gebeurtenis is groter dan je op basis van een normaalverdeling zou verwachten en dat heeft te maken met complexiteit en exponentiële ontwikkeling.

Voor kernenergie is zo’n onzekere uitkomst niet aan de orde, omdat daar veel meer over bekend en meetbaar / berekenbaar is. Dat raakt eerder risicomanagement principes dan onzekerheidsprincipes.

Vluchten voor de vulkaan. Soms is dat de enige manier om een (grotere) ramp te voorkomen

Aansluitend op deze redenatie geldt nog het argument van onomkeerbaarheid. Bepaalde negatieve uitkomsten zijn niet terug te draaien of te herstellen. Een extra argument voor een voorzorgsmaatregel.

Toch, zegt Sunstein, kun je met voorzorgsmaatregelen ook positieve uitkomsten blokkeren. Daarom is hij het niet met Taleb eens. Er zijn voldoende wetenschappelijke artikelen die de kans op een onomkeerbare escalatie met GMO zeer onwaarschijnlijk achten.

Als tweede voorbeeld van geblokkeerde opbrengsten door de voorzorgsmaatregel noemt hij de vergunning voor zelfrijdende auto’s. Die zou je kunnen verbieden, omdat er onherroepelijk doden zullen vallen en dat is onomkeerbaar. Maar het betekent ook misschien dat er juist veel extra slachtoffers te betreuren zijn omdat zelfrijdende auto’s minder ongevallen veroorzaken dan menselijke bestuurders en dus uiteindelijk veiliger zullen zijn.

Je kunt je er dus niet zonder meer met één regel of principe vanaf maken. Het blijft denken in scenario’s, in mogelijkheden, in het vergroten van je situational awareness, zoeken naar kwetsbaarheden maar ook naar kansen. Want in keuzes valt er ook vaak wat te winnen en dat wil je ook niet uitsluiten.

Uiteindelijk concludeert Sunstein dat in situaties van grote onzekerheid waarin het ‘wait and learn’ principe te onvoorzichtig is, het logisch is om toch zware preventieve maatregelen te nemen, of het nu gaat om pandemieën, klimaatverandering of GMO. “Those measures will enable us to sleep better at night. And if we end up buying too much insurance, well, so be it.

Lichtzwarte Zwaan

Gaat Averting Catastrophe nou echt over hoe je een ramp voorkomt, zo vroeg ik me af na lezing. Ten dele, denk ik. Het gaat voornamelijk over het managen van onzekerheid, Knightian Uncertainty. Gebeurtenissen met een zeer kleine kans op een groot effect, waar je geen getallen aan kunt toekennen en zodoende buiten het reguliere risicomanagement vallen.

Highly impropable events with an extreme impact, dus.

Toen pas, bij die definitie, begon bij mij het lampje te banden. Taleb en Sunstein hebben het over hetzelfde in hun boeken. Alleen voegde Taleb wel de achteraf explanatie toe aan zijn definitie van de Zwarte Zwaan en Sunstein niet. Sunstein bespreekt dus eigenlijk een lichtzwarte Zwaan.

Hoe dan ook, de meerwaarde van Averting Catastrophe ligt voor mij in de verbreding van het veld dat Taleb heeft geclaimd als het zijne, het land van de Black Swan, maar waar ook andere denkers hun licht op hebben laten schijnen.

Jung had gelijk; dankzij Sunstein begrijp ik Taleb en het veld van onzekerheidsmanagement beter.  Maar hoe je een ramp voorkomt weet ik nog steeds niet zeker.

Onnodige crisis door fraude of wanbeleid

Leestijd: 8 minuten

De onnodige crisis roept een bedrijf volledig over zichzelf af. Door fraude, het overtreden van regels of verkeerde overnames. Niet zelden is er tegelijkertijd sprake van te grote ego’s en wanbeleid. Maar ook onnodige crises moeten gemanaged worden en dat gaat soms anders dan regulier crisismanagement. Alhoewel het net zoals bij reguliere crises altijd begint met situation awareness en het organiseren van voldoende opties. Dus misschien is het toch niet zo heel erg anders; just don’t be the turkey.

Al jaren volg ik de lotgevallen van Gerard Sanderink, een vermogend ondernemer die onder andere eigenaar is van Oranjewoud, Strukton en Centric. Nadat hij een relatie had gekregen met Rian van Rijbroek, in de media veelal aangeduid als ‘de zelfbenoemde cyberexpert’, ging er opeens van alles mis in die bedrijven. Ruzies, opstappende MT’s en ongerustheid bij klanten over de continuïteit van de dienstverlening.

In alle gevallen was er sprake van een onnodige crisis, veroorzaakt door het eigen handelen van Sanderink en Van Rijbroek. Misschien niet direct van het kaliber Zwarte Eend, maar toch op z’n minst wel een gevalletje ‘tot crisis gemaakt’.

Door Zonnekoningengedrag.

Ik weet nog dat ik eens op een workshop over crisismanagement was, een paar jaar geleden. Veel brandweer en politie aldaar, met spannende verhalen over branden, gijzelingen en rampen. Aan tafel zat ook een vertegenwoordiger van een politieke partij, die zich in eerste instantie wat op de vlakte hield. “Wij maken niet van dat soort crises mee”, zei hij, “het is allemaal veel kleiner.”

Nachtmerrie

Maar na enig aandringen vertelde hij toch over de grootste nachtmerrie van zijn partij: bestuurders en kandidaat-bestuurders die hebben gelogen over zichzelf en/of kwesties waar ze bij betrokken bewaren. Met als goede tweede de partijgenoten die op elkaar gaan jagen en de vuile was buiten hangen. Bijzonder lastig te managen als het eenmaal zover is. Zonnekoningengedrag manifesteert zich namelijk pas als iemand de macht heeft en voor die tijd is het vrijwel niet te herkennen.

Als op het randje over het randje wordt. Interpretatie van DALL-E

Maar het is wel een onnodige crisis.

Bij Centric is Sanderink inmiddels van de troon gehaald door de Ondernemingskamer, een uitzonderlijk besluit. De raadsheren twijfelden of hij nog in staat was rationele beslissingen te nemen over een bedrijf met veel grote belangrijke klanten als de overheid, ASML, De Nederlandse Bank en daarnaast nog eens 2500 werknemers.

Als vervanger werd Peter Wakkie benoemd. Die wordt wel vaker opgetrommeld als bedrijven zich in een benarde positie bevinden. Zoals indertijd bij Ahold, TomTom, ABN Amro en Zed+. Vaak door fraude of wanbeleid, maar ook bij internationale compliance problemen en aansprakelijkheidskwesties. Veelal onbedoelde effecten van bewust beleid; wat op het randje was gaat er dan opeens overheen.

Oeps.

Een onnodige crisis, maar daarom niet minder klein.

Wakkie managet dat soort crises met een advocatenbril. Da’s een andere bril dan die van mij. Juist daarom is het interessant om te zien hoe hij te werk gaat. Ik duinde dus eens wat gras en destilleerde daaruit dit rijtje aandachtspunten. Om het eens van een andere kant te bekijken.

Onnodige crisis

Niet dat daarmee andere tips en werkwijzen opeens onwaar zijn geworden. Zie het meer als een optie, een mogelijkheid. Voor in de toolbox, als je een onnodige crisis tegenkomt. Hoe meer opties je hebt, hoe minder fragiel je wordt.

Volgens Wakkie zijn er diverse soorten crises:

Je hebt de financiële crisis, waarbij het bedrijf er slecht voor staat, convenanten met banken worden geschonden en er liquiditeitsproblemen zijn. Meestal kun je zo’n crisis wel op tijd zien aankomen. Dan heb je de internationale crisis vanwege een schending van sanctiewetgeving, een Liborkwestie, of corruptie dan wel fraude in het buitenland. Een ander soort crisis ontstaat als activistische aandeelhouders een bedrijf willen opsplitsen. En je hebt crises die heel erg sectorgebonden zijn. Een lekkage in de golf van Mexico zal een softwarebedrijf niet snel overkomen.

Die sectorgebonden crises vormen de hoofdmoot van deze website. Over die andere drie heb ik het een enkele keer gehad, zoals hier over de sjoemelsoftware van VW. En nu weer

Het type crises waar Wakkie het voornamelijk over heeft liggen allemaal op het gebied van compliance, frauduleus handelen en license to operate. Die noem ik onnodig; als je je aan de wet houdt zullen ze je niet overkomen. Desalniettemin is het een crisis en die moet wel bestreden worden. Houd er rekening mee dat dat trouwens lang kan duren. Het kost zomaar vier jaar om over een fraudezaak heen te komen.

Het rijtje van Wakkie

Het rijtje van Wakkie is een serie tips die passen bij het type crisis die Wakkie hierboven heeft genoemd. Hij heeft het niet letterlijk allemaal precies zo gezegd; het is een samenvatting uit diverse interviews die er in de loop der jaren verschenen zijn, met zo hier en daar een aanvulling. Voor een handboek Wakkie teken ik ongezien in, maar omdat die niet bestaat moeten we het voorlopig met onderstaande punten doen.

Kalkoenen achtervolgd door bankiers, Andy Warhol style. Interpretatie DALL-E
  • Bereid je voor. Het is een illusie om te denken dat er nooit iets zal gebeuren op het gebied van fraude en compliance in jouw bedrijf. (Denk aan de Regel van Hermans!). Wet- en regelgeving wordt steeds complexer, waardoor je die ook eerder kunt overtreden. Helemaal bij internationaal opererende ondernemingen. Ga daar heen. Kijk hoe men in die vestigingen werkt, of er loyaliteit is, of mensen klagen, of ze de beloning acceptabel vinden. Zoek uit waar de sancties het zwaarste zijn en waar een eventueel falen het ernstigst is, de grootste consequenties hebben. Simuleer dat soort scenario’s in trainingen. Wat als je onvriendelijk wordt overgenomen door een concurrent, wat als je een frauderend bedrijf in Amerika hebt gekocht, wat als je topman wordt ontvoerd tijdens een buitenlandse reis en de aandelenkoers daardoor sterk daalt? Wat als YouToo?
  • Communicatie. Wees terughoudend in je communicatie zolang je niet weet wat er aan de hand is. ‘Zeg dat je het serieus neemt, dat je grondig onderzoek doet, dat je meewerkt met de autoriteiten. En verder niks.’ Beken ook geen schuld, want dat kost je gelijk claims. Van vroegtijdige verklaringen krijg je altijd spijt als het dossier zich verder ontrolt en er nieuwe feiten boven tafel komen die eerdere verklaringen tegenspreken. Dat ondermijnt het vertrouwen nog verder. Al helemaal als er verschillende kwesties tegelijk spelen. Voor je het weet zit je dan in een polycrisis. Let er tot slot op dat degene die communiceert begrijpt waar het over gaat, inhoudelijk deskundig is. Miscommunicatie is veelal de oorzaak van allerlei ellende in het crisismanagement.
  • Excuses. Als je toch excuses wilt of moet aanbieden, laat het dan door je CEO doen en niet een onderdirecteur of iemand van Communicatie. Soms zijn excuses een eis van de toezichthouder in een schikking. De CEO is voor hen het gezicht van het bedrijf en dan wekt het de indruk dat de kwestie serieus wordt aangepakt. Dat is belangrijk voor het vertrouwen, niet alleen voor die van de publieke opinie en toezichthouders, maar ook die van aandeelhouders. Koersverlies op aandelen kan namelijk veel geld laten verdampen en een keten aan andere financiële consequenties veroorzaken.
  • Cash. Cashflow is het belangrijkste middel dat een bedrijf in een financiële crisis nodig heeft. Cash om schikkingen te treffen, je productie op orde te houden, schulden en leningen te financieren, leveranciers te betalen, rechtszaken te voeren, enzovoorts. Zonder cash val je gewoon om, zoals eerder bleek bij Imtech in 2015. Daar weigerden banken nog verder te financieren omdat ze er geen vertrouwen meer in hadden.
  • Crisisteam. Zorg voor een klein team dat snel besluiten kan nemen en wendbaar is in zijn activiteiten. Formeer dat team rondom de CEO. Daarnaast de CFO, een commissaris, iemand van de communicatieafdeling en het hoofd juridische zaken. Die vijf moeten het doen. Zeker de bedrijfsjuristen moeten goed zijn aangesloten, al helemaal als je crisis deels in het buitenland plaatsvindt. “Het procesrisico in Amerika valt niet te onderschatten. Daar hebben we in Europa maar weinig weet van.” Waak er ook voor dat de externe advocaten de boel niet overnemen en houd ze uit de buurt van de commissarissen als het crisisteam er niet bij is.
  • Onderzoek. Laat intern onderzoek verrichten door een advocaat. Die hoeft niet alle gegevens met de autoriteiten te delen. Maak van tevoren duidelijk wie het hele rapport te zien krijgen en wie alleen de conclusies. Slachtoffer geen eigen mensen, want er moet vertrouwen blijven bestaan in het management. Als de overheid ook onderzoek gaat doen dan kan het lang gaan duren. Ondertussen moet het bedrijf wel gewoon door kunnen, dus regel je license to operate met de toezichthouder. En verander je bedrijf niet van naam. In de pers wordt je dan tot in lengte van dagen toch met de oude naam geconfronteerd en daarmee komt het vertrouwen niet echt terug.
  • Denk na. Tijdens een crisis moet je rationeel blijven, het probleem beheersbaar zien te krijgen. Psychologie is dan heel belangrijk. Hoe zitten je mensen in het bedrijf in elkaar, hoe zitten de teams in elkaar; is er vertrouwen, loyaliteit? Je moet blijven nadenken, dat is misschien wel het moeilijkste wat er is. Iedereen wil altijd direct in de actiestand, want dan denk je dat je iets nuttigs aan het doen bent. Maar vaak is dat helemaal niet waar. Als je nadenkt, kun je ook besluiten om dingen juist níet te doen. Of op een ander moment. Nadenken is ook timen. En tijd nemen, want voorlopig ben je er toch nog niet vanaf.

Leef na of leg uit

Naar aanleiding van diverse fraudezaken is in Nederland de code Tabaksblat opgesteld voor beursgenoteerde bedrijven omtrent hun corporate governance. Daar zitten regels in die de kans op fraude moeten verkleinen. Voor deze code geldt ‘leef na of leg uit’.

Onnodige crisis
Nicholas Taleb die een kalkoen achtervolgt. Interpretatie van DALL-E

In meerdere sectoren worden inmiddels de regels steeds strakker getrokken, zoals de witwasregels bij banken. Dat er hierdoor meer fraudezaken aan het licht zullen komen is onvermijdelijk. Wie regels zaait, zal overtredingen oogsten. Maar als je systemen niet wilt laten ontsporen zul je ze moeten reguleren, om excessen te voorkomen. Niets doen is geen optie.

Hierdoor ontstaat een interessante paradox. Door het aantrekken van regels om fraude en een onnodige crisis te voorkomen is de kans juist groter geworden dat die crises zich daadwerkelijk gaan voordoen. Met wel als mogelijk voordeel dat de fraude of non-compliancy eerder wordt ontdekt en de schade zodoende beter beheersbaar blijft.

Dat een crisis onnodig is, maakt het dus niet persé onmogelijk. In die zin is het ook gewoon een crisis als alle andere: één van de dreigingen voor je strategische doelen of zelfs levensvatbaarheid van je organisatie. Als het goed is heb je dat door een goede corporate governance al in de gaten voor de crisis zich ontrolt en kan er geen sprake zijn van een Black Swan.

Of zoals Taleb het zei: don’t be the turkey. En anders kun je altijd nog je boot verkopen.


Over fraude en onnodige crises schreef ik eerder al dit blog over de sjoemelsoftware van VW. Ook gerelateerd hieraan is het verhaal over het vulnerable system syndrom, verraad en vergiftiging en Insider risk, door slordigheid crisis.

Crisis door georganiseerde onverantwoordelijkheid

Leestijd: 5 minuten

Georganiseerde onverantwoordelijkheid is een fenomeen waarbij het directe causaal verband tussen de veroorzakers van risico’s en de gedupeerden is verbroken door een fijnmazig netwerk van instanties en regels. Niemand blijkt verantwoordelijk, de vervuiler betaalt niets. Het is de opmaat naar crisis omdat georganiseerde onverantwoordelijkheid het vertrouwen in het gezag ondermijnt.

In gevarenkwesties is niemand een expert – vooral de experts niet

ulrich beck

De rechtbank van Den Haag oordeelde in september 2022 dat omwonenden van megastallen recht hebben op een schadevergoeding, omdat de overheid hen onvoldoende beschermt tegen extreme stankoverlast. Weliswaar hadden de stallen een valide vergunning, maar de voorwaarden van de vergunning overtreden de rechten van de mens, zo oordeelde de rechter.

Dat komt onder andere omdat de geurbelastingnorm uitgaat van een gemiddelde, niet van een piek. Kleine kuikens stinken niet heel erg, maar de kippen aan het eind van hun levenscyclus wel. Daardoor komt de uitstoot ver uit boven wat normaliter toe wordt gestaan.

Bovendien overlappen de geurcontouren van de stallen elkaar en versterken daarmee de stank. Die stapeleffecten worden in de wet niet genoemd. Iets soortgelijks geldt voor industriegebieden, waar elke installatie op zichzelf voldoet aan de risiconormering, maar waar alle risico’s bij elkaar opgeteld niet als ‘stapelrisico’ genormeerd worden. Ook dat zou je kunnen zien als een opteleffect dat het actuele risico vele malen groter maakt dan het papier suggereert.

Volgens DALL-E is dit een gekke koe (met BSE) op de gracht in Amsterdam, Rembrandt stijl.

Dit zijn niet de enige voorbeelden van grote risico’s met onbedoelde effecten. In de afgelopen jaren was er een BSE-crisis, Q koorts en vogelgriep. We hadden SARS, MERS en Mexicaanse griep. Nick Leeson sloopte eerst de Baringsbank en daarna sloopten de banken zichzelf met ondoorzichtige hypotheekconstructies. En zo kan ik nog wel even doorgaan.

Manufactured Risks

Wat al deze risicogroepen gemeen hebben is dat ze veroorzaakt worden door een alsmaar groeiend industrieel complex dat zo ingewikkeld en groot wordt dat eigenlijk niemand het meer goed kan bevatten. Toezicht schiet bij voorbaat tekort, niet alleen in volume maar ook in deskundigheid.

Het zijn manufactured risks, schreef de Britse socioloog Anthony Giddens daarover in zijn artikel ‘Risk and Responsibility.’ Gemaakte risico’s dus, door activiteiten van mensen.

Manufactured risk is risk created by the very progression of human development, especially by the progression of science and technology. Manufactured risk refers to new risk environments for which history provides us with very little previous experience. We often don’t really know what the risks are, let alone how to calculate them accurately in terms of probability tables

anthony giddens

Ook Taleb mengde zich al eens in de discussie over gemaakte risico’s. Zijn belangrijkste stelling is dat je (nog) onbegrepen risico’s niet in het wild los zou moeten laten. Volgens hem is kernenergie geen probleem, want daarvan weten we precies wat het doet en hoe we het moeten beheersen.

Anders is het gesteld met DNA recombinatie- en nanotechnologie. De effecten daarvan zijn nog zo onvoorspelbaar dat je ze eigenlijk alleen in gecontroleerde omgevingen kan onderzoeken, betoogt Taleb. Alleen volgen veel experts zijn redenering niet en rekenen ze bijzonder kleine kansen toe aan extreme effecten. Wie heeft er dan gelijk? (Ik denk Taleb)

Ulrich Beck ziet dit soort discussies over ‘gemaakte risico’s’ als de basis van wat hij risicomaatschappij noemt. Kenmerkend daarvoor is dat conflicten uitbreken over de definitie van risico’s, omdat diegene die bepaalt wat het risico is, ook bepaalt welke interventies er nodig zijn, waar de verantwoordelijkheid ligt en wie ervoor aansprakelijk gehouden kan worden.

Nanodeeltjes op reis door de natuur over onbekend pad. Volgens DALL-E

En dat is precies waar het om draait bij manufactured risks: wie is verantwoordelijk voor de (onbedoelde) effecten ervan? Oftewel, wie is verantwoordelijk voor de stank van de vergunde megastallen? Wie moet de PFAS opruimen? Is Shell verantwoordelijk voor de CO2 uitstoot, of de automobilist? De autofabrikant? De wetgever?

Georganiseerde Onverantwoordelijkheid

Deze onduidelijkheid is wat georganiseerde onverantwoordelijkheid wordt genoemd: een loskoppeling van de directe relatie tussen de veroorzaker van een risico en de gedupeerde(n). Wie betaalt de compensatie van alle mensen die Long Covid hebben gekregen? Van de mensen met Q koorts? Van het klimaat?

Tooze schrijft in Shutdown dat het eigenlijk vreemd is dat we op Corona keihard, bijna militair, gereageerd hebben, met alle schade van dien, maar dat de bronnen van het risico ongemoeid zijn gelaten.

We kunnen ons maar al te goed een wereldwijde uitbraak van een ebola-achtige ziekte voorstellen, of van een extreem besmettelijk influenzavirus met de morbiditeit van de Spaanse griep. Toch is men niet bereid fundamentele veranderingen in onze voedselketens of transportsystemen door te voeren

adam tooze

Ook dat is georganiseerde onverantwoordelijkheid; niet ingrijpen waar dat wel logisch lijkt.

Volgens Tooze leidt georganiseerde onverantwoordelijkheid daarom tot overbodige sociaaleconomische schade, maar ondermijnt het daarnaast ook het gezag van de zittende machthebbers.

Het veroorzaakt politieke crises, gedoe met experts over de schade van manufactured risks en maatschappelijk onbegrip over de besluiteloosheid rondom grote dossiers als klimaat, gaswinning in Groningen en toeslagenaffaire.

Georganiseerde onverantwoordelijkheid leidt tot polycrisis, impliceert Tooze in hoofdstuk 1 van Shutdown. Maar lang voor hem hadden Beck en Giddens dat al voorspeld. Alleen is er toen niet zo goed geluisterd. Zou dat nu anders gaan?


Dit is het tweede blog in een serie over het boek ‘Shutdown’ van Adam Tooze. De eerste ging over polycrisis. Georganiseerde onverantwoordelijkheid raakt bovendien aan diverse andere blogs op deze site. Bijvoorbeeld die over organized blindness, fundamental risk en kan de overheid crises aan?

« Oudere berichten

© 2025 Rizoomes

Thema gemaakt door Anders NorenBoven ↑