Wanderings in crisis

Tag: Besluitvorming (Pagina 2 van 4)

Predictable Surprise. Een Boekrecensie

Leestijd: 12 minuten

Ergens in het landschap van de Zwarte Zwaan, de Grijze Neushoorn en de Zwarte Eend bevindt zich ook de Predictable Surprise. Na het lezen van Max Bazerman’s boek ben ik geneigd de voorspelbare verrassing een olifant in de kamer te noemen. Een glazen olifant om precies te zijn. Eentje waar je dwars door heen kunt kijken, maar die als je hem verkeerd raakt met donderend geraas versplintert.

predictable surprise

Ik had stiekem een beetje gehoopt dat Bazerman in zijn boek alles zou onthullen over de geheime kunst van het voorspellen van verrassingen tijdens crises. Dat je ergens aan je Dikke BOB een checklistje kan toevoegen waardoor je nooit meer verrast zal worden. Naar zo’n soort uitgave zal ik nog verder moeten zoeken, weet ik nu.

Toch schreef Bazerman met zijn maatje Michael Watkins een herkenbaar boek. Beiden waren indertijd hoogleraar, Bazerman op Harvard en Watkins in Lausanne. Ook al is het 15 jaar oud, het boek is nog steeds zeer actueel. Logisch, met zo’n tijdloos onderwerp als het menselijk onvermogen om rationele besluiten te nemen in grijs gebied en vage omstandigheden. Daar kan je nooit genoeg over leren.

Predictable is in dit kader dan ook echt voorspelbaar: als je situation awareness op orde is en je ruggengraat recht wordt je niet zo snel verrast, zo is de algemene strekking. Frequente lezers van Rizoomes wisten dat natuurlijk al wel.

Maar er is meer over te vertellen.

Predictable surprise

Laten we beginnen om die voorspelbare verrassing eens wat nader uit te werken. Bazerman onderscheidt zes karakteristieken van een predictable surprise.

  1. De leiding weet dat er een probleem is dat zich niet vanzelf oplost, maar doen er niets aan. Regeren is immers vooruitschuiven. Bazerman geeft als sprekend voorbeeld dat de Amerikaanse overheid bekend was met het feit dat de aviation security voor 9/11 niet op orde was. Net als het stikstofprobleem in Nederland nu.
  2. Ondertussen zien ze op de werkvloer wel dat het probleem steeds groter wordt. En omdat het zichzelf niet oplost, wordt de voorspelbaarheid van de verrassing steeds groter. Daar komt ook die beroemde oneliner naar voren: het is niet de vraag of het gebeurt, maar wanneer het gebeurt. Da’s de opmaat naar een voorspelbare verrassing.
  3. Een derde kenmerk van predictable surprise is dat de kosten om het probleem op te lossen in het heden vallen, in jouw regeerperiode, terwijl de baten in de toekomst geoogst gaan worden tijdens iemand anders’ bewind. Daar hebben veel bestuurders geen zin in.
  4. Daaraan gerelateerd is dat de kosten om een voorspelbare verrassing te voorkomen vaak wel goed uitgerekend kunnen worden (en heel hoog zijn), maar dat de omvang van de vermeden schade niet goed is in te schatten.
  5. Het vijfde kenmerk van een predictable surprise is dat besluitvormers falen in hun preparatie omdat ze graag de huidige status quo handhaven. Anders gezegd, als er nog geen duidelijke crisis is, is de tendens om maar niet in te grijpen groot.
  6. Tot slot is er ook altijd een groepje die wel lekker vaart onder de situatie en er dus baat bij heeft om de eerste vijf kenmerken te versterken en grote veranderingen tegen te houden of zelfs te ondermijnen.

Hindsight Bias

De zes kenmerken zie je terugkomen in de hoofdstukken over 9/11 en Enron, waarin Bazerman uitpluist wat er allemaal al bekend was voor die rampzalige gebeurtenissen zich afspeelden. Dat leidt tot waarnemingen als deze:

People tend to ignore the harm that comes from inaction. When the benefits of actions are vague, such as a long term reduction in air disasters, individuals will be unwilling to accept sure losses, such as security fees and long lines at airports.

bazerman & watkins

Wat Bazerman en Watkins goed doen is het vermijden van hindsight bias. Sterker nog, ze laten goed zien op welk moment welke informatie al bekend was en hoe er expliciet niet ingegrepen is. Daardoor krijgt het met-de-kennis-van-nu-syndroom geen poot aan de grond. Eigenlijk wist men alles, zo blijkt, behalve het precieze tijdstip en de omvang van de aangekondigde ramp. Dat was dan ook de enige verrassing, de rest was voorspelbaar.

Ik had DALL-E gevraagd om een foto te maken van een glazen olifant met een zwarte eend en een Black Swan in een boardroom. Daar had ie moeite mee, zoals het systeem eigenlijk altijd moeite heeft met abstracte en conceptuele begrippen in een plaatje om te zetten. In deze tekst zie je drie probeersels van DALL-E, drie predictable surprises zou je kunnen zeggen.

Wortels van het kwaad

Na deze rampenanalyse buigen Bazerman en Watkins zich over de cognitieve, organisatorische en politieke wortels van het kwaad. Dat neemt het grootste deel van het boek in beslag, maar is samen te vatten in een paar hoofdlijnen. Lekker handig.

Bazerman onderscheidt vijf soorten irrationaliteit die hij betitelt als de cognitive roots van predictable surprise. Waarschijnlijk zou Kahneman ze als human bias bestempelen

  • Mensen schatten hun wereld en de naaste omgeving vaak positiever in dan de rest van de wereld. Daarnaast vindt iedereen zich een betere chauffeur dan het gemiddelde, schat men zich slimmer in dan de meeste anderen in het land (“ben ik nou zo slim of zijn jullie zo dom”) en zien we onszelf als een deskundiger vakmens dan de gemiddelde collega.
  • Wat we ook vaak doen: de credits pakken als iets goed ging, en de schuld afschuiven naar een ander. De fout is de ander; ik doe het goed. Mensen redeneren dus egocentrisch, schrijft Bazerman.
  • Waar ook Kahneman al op wees is dat mensen de neiging hebben liever voor iets zekers in het nu te gaan, dan voor een mogelijke beloning in de toekomst. Present bias, heet dat. Het mechanisme erachter zorgt er onder andere voor dat goede voornemens voor straks stralen vanwege de verleidingen in het nu.
  • We houden graag de bestaande status quo in stand en zijn niet erg geneigd iets te veranderen met te grote gevolgen, al helemaal als ze negatief kunnen uitpakken. Don’t fix what isn’t broken.
  • Tot slot willen mensen niet graag iets doen om een probleem te voorkomen dat ze niet zelf herkennen of waar ze zelf geen last van hebben. “Dat gebeurt alleen daar, wij zijn beter, wij weten wel hoe het moet.”

En zo worden ongewenste gebeurtenissen dus langzamerhand steeds meer in de hand gewerkt. Want het is niet dat deze vijf eigenaardigheden zich stuk voor stuk aandienen, het is een setje van vijf dat altijd samen werkt.

Dan wordt het opgeteld ongeveer zo. Mensen zien de toekomst te rooskleurig in, gaan liever voor iets zekers nu dan wat onzekers later, denken dat ze zelf de betere besluiten nemen en dat het heden dus helemaal nog zo slecht niet is en menen dat problemen die elders spelen hier niet zullen gebeuren.

Morgen begin ik meteen is een liedje van Huub van der Lubbe die de cognitieve factoren treffend vertolkt in het uitstellen van de goede voornemens

Organisatorische factoren

Komen we bij de organisatorische roots. Volgens Bazerman moet een organisatie over vier vaardigheden beschikken om voorspelbare verrassingen zo veel als mogelijk te voorkomen.

In de eerste plaats moet je continu de omgeving blijven scannen op mogelijke dreigingen. Voorkom dat je de onderstroom mist, denk nooit dat iets niet zal gebeuren en zorg voor een situational awareness niveau drie. Hier huist namelijk ook de fundamental surprise en die moet je zien te voorkomen.

Combineer en analyseer de informatie uit de verschillende bronnen in je organisatie tot een integraal geheel waar je op kan acteren. En doe dat dan ook, zo schrijft de derde vaardigheid voor, waarna je de resultaten van je acties opnieuw analyseert. Weak signals, hard response noemt Weick dat.

Tot slot moet je structureel op dit proces blijven reflecteren, het steeds weer herhalen en de resultaten opslaan in een organisatorisch geheugen. Om te voorkomen dat je de fouten uit het verleden gaat herhalen.

Hoe eenvoudig dit ook klinkt, er gaat onderweg erg veel fout. Om te beginnen door scanning failures, zegt Bazerman. Mensen hebben last van tunnelvisie en missen daardoor een stuk van het plaatje, vaak zonder dat ze het door hebben.

Dat wordt versterkt door ruis, zoals ik onlangs in dit blog schreef, plus een information overload. Er is te veel en de hoofd- en bijzaken worden door elkaar gehaald.

Ook bij de verwerking van de informatie gaat er veel mis in organisaties. Ten eerste als er te veel in silo’s wordt gewerkt. Afdelingen werken dan langs elkaar heen en wisselen nauwelijks data uit. Los daarvan houden mensen ook sommige kennis geheim. Informatie is volgens hen handel en dat geef je niet gratis weg, denkt men dan.

Verder zijn er ook gewoon belangentegenstellingen; waar veel mensen werken zijn veel verschillende belangen. Niet iedereen kan immers promotie maken, ‘maar die hansworst uit die kamer hiernaast al helemaal niet.’ Daar zorgen de collega’s onderling dan wel voor in hun krabbenmandjes. Individuele bonusregelingen werken dit gedrag trouwens in de hand.

Ook niet onbelangrijk: organisaties die voldoen aan de kenmerken van het vulnerable system syndrome hebben nogal eens last van illusionaire consensus, oftewel de gedachte dat iedereen het met elkaar eens is. In werkelijkheid houden mensen op cruciale momenten hun mond omdat ze weten dat ze anders een hoop gezeik krijgen.

Lerende organisatie

De laatste van de vier vaardigheden is leren. Bazerman kijkt naar de lerende organisatie vanuit twee variabelen. Ten eerste op de as van individuele kennis versus groepskennis. En ten tweede van tacit knowledge tot explicit knowledge. Het levert vier vlakken op met een verschillend kennisprofiel, zie hieronder.

Het kwadrant linksboven is het makkelijkste te realiseren en wekt de illusie van control. Daarom zijn veel bedrijven en organisaties daar ook zeer druk mee en gooien hun medewerkers vol met gedragsregels, geboden en verboden. Dat is overigens niet verkeerd, maar het is maar een deel van wat een lerende organisatie nodig heeft.

Helaas gaan veel organisaties niet verder dan het linker bovenkwadrant en roept men bij wat mis ging dat het een menselijke fout was.

Tacit knowledge is veel lastiger te managen. Het is de ervaring die mensen opdoen in de praktijk, de oude bootsman die weet waar te slaan om de boel weer aan de praat te krijgen.

Think of the employees responsible for mainitaining production equipment in a manufacturing plant. They come to know all of the idiosyncrasies of many, seemingly similar systems – a knowledge that is very difficult to codify and transmit.

bazerman & watkins

Het meest lastige vak om te managen is die rechtsonder. Daar zit teamervaring. Mensen die veel samenwerken, weten hoe de anderen zullen handelen in de praktijk, wat ze gaan doen in verschillende omstandigheden. Het zijn ervaringen die moeilijk zijn om te zetten in explicit knowledge en daarom gebeurt het meestal ook niet.

Bij reorganisaties worden teams vaak door elkaar gegooid en verliest men de tacit – relational knowledge, wat pas later in de praktijk duidelijk wordt als de performance opeens schrikbarend daalt. Het is een predictable surprise op zich. Hetzelfde zie je gebeuren als ervaren mensen en masse een bedrijf verlaten en er grote gaten vallen in de opgebouwde expertise; dan ben je een bedrijf met geheugenverlies, een vergetende organisatie.

En het interessante van vergeten is dat het in principe oneindig is. Het houdt niet op, niet vanzelf.

Glazen Olifant

De derde categorie wortels van het kwaad is de politiek. Bazerman schrijft een hoofdstuk vol over het Amerikaanse politiek systeem en hoe dat bijdraagt aan predictable surprise door voornamelijk de status quo van het land in stand te houden en grote veranderingen tegen te houden. Zijn bevindingen zijn niet zonder meer op ons land over te zetten, maar zijn niettemin wel interessant en ook herkenbaar.

Het twee partijen systeem maakt de Amerikaanse politiek kwetsbaar voor belangengroeperingen, lobby’s en beïnvloeding vanuit industrie en heersende macht. Wie aan de macht wil komen, moet veel geld hebben of regelen en tracht daarna die macht ook te houden. Dat proces voorkomt noodzakelijke veranderingen en vergroot de kans op een voorspelbare verrassing.

Foto is van Quakeltje op glasblazer.com

A core problem is that the decisionmakers who must act to prevent the surprise are benefitted, at least in the short term, by the failure to expense stock options. Preventing predictable surprise requires changing traditional approaches to problems, and change inevitably creates winners and losers. Yet when the gains far exceed the losses, change should occur. The challenge to leaders is to block the destructive political behavior of those who will be negatively affected by change – even if these people are the leaders themselves.

bazerman & watkins

Dat is nog eens een glazen olifant in de kamer. Bazerman zette hem er in 2008 in. Toen ik laatst keek stond hij er nog steeds, op precies dezelfde plaats.

Ongoing predictable surprise, zo noemt Bazerman dat. Als voorbeeld geeft hij het systeem van landbouwsubsidies en visserij in Europa, die altijd zijn verantwoord om traditionele systemen in stand te houden en te voorkomen dat het platteland leegstroomt. Daar is niks op tegen, schrijft hij, maar inmiddels krijgen boeren veel geld om een hoeveelheid voedsel te produceren die groter is dan wat de wereld nodig heeft. Dat zulks tot milieuproblemen zal leiden noemt hij een predictable surprise.

Vijftien jaar geleden dus al.

Black Swan

Andere voor hem toekomstige predictable surprises zijn global warming, de kosten van vergrijzing en exploderende frequent flyer programs. Ook die komen niet onbekend voor. Hetgeen niet betekent dat daarmee het probleem is opgelost, laat Bazerman met zijn boek zien. Tussen droom en daad staan praktische bezwaren en diep ingesleten gedragspatronen. Problemen veranderen wel, maar de menselijke aard niet. Dat maakt uiteindelijk elke verrassing voorspelbaar, lijkt het.

Wat Bazerman en Watkins laten zien is hoe een systeem steeds fragieler wordt door die cognitieve, organisatorische en politieke factoren. Men schuift alles voor zich uit, waardoor noodzakelijke aanpassingen en veranderingen uitblijven. Langzamerhand gaat alles schuren en wringen en verdwijnen één voor één de opties om een crash van de glazen olifant te voorkomen.

Op enig moment zal er hoe dan ook schade zijn, wat je ook doet. Zelfs als je niets doet. Dat is zugzwang, schreef ik hier. De crises en rampen die daar uit voortkomen zijn in die zin dus voorspelbaar. Niet de precieze omvang en tijdstip van zo’n voorval; wel dat de boel zo wankel staat dat er een keer iets mis zal gaan.

De vraag is nu of het ook Black Swans zijn, die predictable surprises. Black Swans kun je immers slechts achteraf voorspellen, zegt Taleb, terwijl Bazerman nu claimt ze vooraf te kunnen voorzien. Als je maar goed om je heen kijkt.

Tegelijkertijd schreef Zvi Lanir over de fundamental surprise. Dat crises ontstaan door een te groot ego en een fout wereldbeeld. Daaruit concludeerde ik dat elke fundamental surprise wel een Black Swan is, maar niet elke Black Swan een fundamental surprise. Overigens kwam Taleb later wel iets terug van zijn rigide opvatting over de onvoorspelbaarheid van de Black Swan.

‘Don’t be the Turkey’, zei hij daarover, waarmee hij bedoelde dat in ieder geval je situation awareness op niveau moet zijn om een Black Swan te voorkomen.

De vraag die nu nog rest is of er ook echt onvoorspelbare verrassingen zijn? Hoe ziet een unknown unknown eruit voor hij zich onthult? En als je hem kunt zien, is het dan geen known unknown?

We zoeken door.

Kahneman’s Ruis. Een boekrecensie

Leestijd: 11 minuten

Kahneman’s ruis is de opvolger van zijn bestseller ‘Ons feilbare denken’ over systeem1 en systeem 2. Dit boek gaat opnieuw over besluitvorming, deze keer is de spreiding van oordelen door experts het onderwerp. Hoe betrouwbaar zijn experts eigenlijk? Wat heb je nodig om een respect-expert te worden? En wat is beslissingshygiëne? Vragen zat, nu nog de antwoorden. Met zo min mogelijk ruis.

Altijd als ik een boek lees, kijk ik wat anderen voor mij ervan vonden. Nogal eens is dat niets, dat wil zeggen, ik vind niet zo gauw een recensie over het betreffende boek. Omdat ik te vroeg ben, te laat, dan wel is het boek te obscuur en heeft nog niemand er iets over geschreven. En soms omdat de review achter een betaalmuur zit.

Bij boeken als ‘Ruis’ van Kahneman is dat anders. Daar zijn voordat ik er iets over blog al allerlei stukjes geschreven en meningen gegeven. Die bij bestudering blijken te variëren van ‘geweldig boek’ tot k*t. De ruis in het oordeel van al die experts is dus groot.

Expert judgement

Kahneman moet daar zeer tevreden over zijn. Het bewijst immers zijn stelling dat experts er zonder duidelijke regels en richtlijnen van alles uit hun eigen ervaring bij betrekken om een oordeel te vellen. Een gedegen oordeel waar de expert trots op kan zijn, gepresenteerd als de waarheid. Het is expert judgement, hun unieke vaardigheid om in grijs gebied tot een duidelijk besluit te komen.

Maar ze maken er in de praktijk een potje van.

Uit één van Kahneman’s onderzoeken bij een verzekeringsmaatschappij bleek het oordeel van de experts een spreiding te hebben van maar liefst 55%. Dat is vijf keer zo veel als de leidinggevenden van dat bedrijf verwacht hadden. En kostte de verzekeraar miljoenen, variërend van te goedkope polissen tot te dure uitkeringen.

Waarop één van de managers zei, in totale ontkenning, dat de plussen en minnen elkaar wel zouden opheffen. Maar dat is natuurlijk niet zo, die plussen en minnen zijn twee onafhankelijke variabelen die elkaar net zo makkelijk kunnen versterken. Dat wil zeggen dat de inkomstenkant mogelijk nog lager werd door verkeerde besluiten, net als de uitkeringen nog hoger konden worden door foute inschattingen.

Min maal min is geen plus, maar dubbelmin. Soms. De kunst is te weten wanneer dat is.

Ruis en bias

Fouten kunnen elkaar namelijk net zo goed versterken als dat ze elkaar opheffen. Dat is nou precies wat het random karakter van ruis is. Ruis betekent een willekeurige spreiding van resultaten of oordelen, waar bias wijst op een systematische afwijking. Zoals vooroordelen, of tunnelvisie.

Spreiding betekent dus niet automatisch dat antwoorden fout zijn, alleen dat ze heel erg van elkaar verschillen. Er zijn dus kennelijk heel veel waarheden naast elkaar actief. Als je daar niet bewust van bent, presteert je organisatie dus anders dan je denkt. En dat is wel fout, natuurlijk.

Kahneman licht het toe aan de hand van een schietschijf. Vier teams worden uitgenodigd voor een schietwedstrijd. Het is de bedoeling dat de deelnemers zo veel mogelijk in de roos schieten. Dat is de norm. De uitslag laat echter een diffuus beeld zien.

Kahneman's Ruis
De schietschijf metafoor van Kahneman is een krachtig hulpmiddel om het verschil tussen ruis en bias uit te leggen. Maar let op: bij veel soorten problemen en dilemma’s is de roos zeer onduidelijk dan wel onzichtbaar. Hetgeen betekent dat de spreiding dan alsnog heel groot kan zijn. Alleen niet ten opzichte van een norm. Je kan wel met zo’n spreidingsanalyse een soort van een norm of richtlijn vaststellen. Die is dan niet objectief, maar intersubjectief. En je mag er daarna natuurlijk van afwijken als de situatie er om vraagt. De essentie blijft dat je je er bewust van moet zijn. Dus daar is de situation awareness weer.

Team A heeft het beste resultaat behaald. Daar schoten de experts dichtbij in de buurt van de roos. Team B daarentegen heeft een systematische afwijking, een bias. Misschien wijkt hun vizier af, of is de loop niet helemaal recht. Team C laat echte ruis zijn. Een willekeurige spreiding. Team D tenslotte heeft zowel last van bias als ruis. De spreiding zit verdeeld op dezelfde plek en niet random over de hele schijf.

Dit voorbeeld is exemplarisch voor het hele vraagstuk over ruis. Kahneman komt met veel voorbeelden die het probleem van deze spreiding duidelijk moet maken. Krijgen mensen wel het juiste advies van hun arts? Is de rechtspraak eigenlijk wel eerlijk als er een grote spreiding in veroordelingen zit? Zijn de uitslagen van examens wel terecht?

En, niet onbelangrijk, kloppen de besluiten van een scheidsrechter wel? Wordt er terecht wel of geen penalty gegeven in de finale van een EK, WK of Champions League? Om over de handsbal van Messi op het WK 2022 nog maar te zwijgen.

Dit kan om miljoenen gaan. Als je de groepsfinale van de Champions Leuague haalt, verdient een club bijna 16 miljoen euro. De winnaar vangt 20 miljoen. Daarnaast levert winst in de groepsfase € 2,8 miljoen op en een gelijkspel € 0,93 miljoen. De juistheid van een besluit doet er dus echt toe.

De implicaties van ruis zijn enorm, blijkt, en op vele vlakken. Maar het wordt in de praktijk nauwelijks onderkend. Omdat het om experts gaat. Zoals artsen, rechters, verzekeraars en docenten.

Dilemma’s

Kahneman geeft geen voorbeelden uit de wereld van brandweer en crisismanagement. Dus daar zocht ik er een paar van bij elkaar.

Zoals voor de brandweer. Die moeten nogal eens lastige dilemma’s oplossen in complexe situaties. Kiest de bevelvoerder voor een defensieve binnenaanval of een defensieve buitenaanval? Wanneer trek je je terug? Ga je een aangestraalde tank koelen of neem je afstand? Laat je een flat ontruimen of zit iedereen wel veilig binnen? Denk maar aan Grenfell Towers.

Op 27 oktober 1978 kantelde deze vrachtwagen met vaten zoutzuur, salpeterzuur en zwavelzuur op de dijk bij Lexmond. Het zou interessant zijn om de spreiding in de besluitvorming van bevelvoerders en OVD’s te onderzoeken. Hoeveel ruis zou er optreden? Foto ANP

Als ook bij de brandweer een spreiding van 55% bestaat, dan is het korps misschien minder veilig dan iedereen dacht. Of zijn sommige bevelvoerders juist veel daadkrachtiger dan anderen. Het betekent hoe dan ook dat de burger niet overal dezelfde (brand)veiligheid krijgt in vergelijkbare situaties.

Want ruis voltrekt zich bij gelijke gevallen, niet bij verschillen. Die kun je namelijk niet met elkaar vergelijken. Wat je wel kunt vergelijken is of de ruisverdeling bij verschillende cases vergelijkbaar is. Dan is er sprake van patroonruis. Of bias.

Hetzelfde type dilemma’s zie je ook bij bedrijven. Laat ik het treinverkeer / vliegverkeer zo veel mogelijk doorgaan bij een stroomstoring? Kies je voor een offensieve benadering in de pers of laat je het juist lopen als je ergens van beschuldigd wordt? Moet je die populaire disfunctionerende manager laten zitten of gooi je hem eruit? Lastig, lastig. Vragen voor experts, mensen met kennis en ervaring, maar die zijn het volgens Kahneman dus zelden eens.

Nou maakt het natuurlijk wel uit of je experts vraagt naar een besluit over een resultaat (zoals een gerechtelijke uitspraak) of over een methode (kies ik voor een binnenaanval of buitenaanval). Ruis is met name vervelend bij eindoordelen over een resultaat. Bij oordelen over de manier waarop je een doel wilt behalen is de ruis meestal minder van belang; er zijn altijd meerdere wegen die naar Rome leiden. Ruis is dus niet altijd slecht. Maar je moet je er wel bewust van zijn.

Respect-experts

Om beter te kunnen oordelen zijn er drie zaken van belang, schrijft Kahneman. “Goede oordelen zijn afhankelijk van wat u weet, hoe goed u kunt nadenken en op welke manier u nadenkt.”

Veel weten alleen is niet genoeg, gaat Kahneman door. Het gaat er ook om dat je kennis wordt geaccepteerd in de gemeenschap van deskundigen, dat je erkend wordt als expert. Respect-experts, noemen de schrijvers het. Met name in gebieden en situaties waar oordelen moeilijk geverifieerd kunnen worden gaan we makkelijker af op oordelen van experts met een glimmend blazoen.

Vaak hangt aan een respect-expert een lange staat van dienst. De ervaring van zo iemand is een maatstaf voor deskundigheid. Je geloofwaardigheid wordt in die zin letterlijk opgebouwd. Daar hoort ook een goed zelfvertrouwen bij. “De zelfvertrouwen heuristiek wijst op het feit dat mensen met zelfvertrouwen in een groep meer invloed hebben dan anderen, zelfs als dat zelfvertrouwen nergens op gestoeld is.”

Respect-experts zijn tenslotte goed in het vertellen van samenhangende verhalen. Dat komt omdat ze door hun ervaring snel patronen herkennen, analogieën kunnen presenteren op basis van eerdere ervaringen en zodoende gemakkelijk onderbouwde hypotheses opstellen. Precies die kwaliteiten die Gary Klein beschrijft in zijn Snapshots of the Mind.

De sturingsdriehoek is achteraf gezien een poging geweest om de ruis in besluitvorming te verminderen. Door incidenten te verdelen in standaards, standaardafwijkingen en afwijkingen geef je een richtlijn om besluitvorming te sturen, gebaseerd op het skill-, rule- en knowledgebased model van Rasmussen. In termen van Kahneman: je maakt de roos zichtbaarder, waardoor je een anker voor je besluitvorming schept. Voor de brandweer had ik bijvoorbeeld bedacht dat een Kleine Brand brand meester moet zijn met één voertuig (TAS6) in 15 minuten.

De wereld van brandweer en crisismanagement is ook sterk gebaseerd op de positie van respect-experts. Ik heb dat ooit wel vergeleken met de jager-verzamelaars cultuur. Daarin is de leider degene die de belangen van de groep moet vertegenwoordigen en dat mag omdat ie door de rest als het beste geschikt wordt gezien. De leider is de top-expert.

De overige groepsleden zijn ondertussen allemaal expert op een deelgebied en worden daarin serieus genomen door de collega’s. Om de onderlinge verhoudingen te bevestigen en verstevigen vormt verhalen vertellen een belangrijk onderdeel van zo’n cultuur. Die bepalen de onderlinge pikorde. Het waarheidsgehalte van een verhaal wordt zodoende bepaald door wie het vertelt.

Iedereen moet hard werken om dat beeld over zichzelf in stand te houden en gezichtsverlies is dan ook zeer pijnlijk. Een goede reputatie (als respect-expert) komt te voet en gaat te paard.

Intelligentie

Om expert te worden moet je niet alleen veel weten en gerespecteerd zijn, je moet ook intelligent zijn. Er is een onweerlegbaar verband tussen algemene mentale vaardigheden (dat wat een IQ test meet) het beroepsniveau en de prestaties in je vakgebied. Hoe complexer een vakgebied is, hoe groter de impact van intelligentie op het resultaat is.

Brand in de Grote Kerk van Hilversum, 3 december 1971. Wat zou de spreiding in het oordeel van bevelvoerders zijn als je ze vraagt naar wat ze vinden van wat hier gebeurt? Nogmaals, het gaat niet om goed of fout, maar om de spreiding van antwoorden. Daarna kun je bekijken of je een soort standaard kunt benoemen. Dat is doctrinevorming en ruisonderdrukking.

Als professionele oordelen niet verifieerbaar zijn en er dus op een ‘onzichtbare’ roos geschoten moet worden, zullen de oordelen van cognitief superieure mensen toch dichter bij die roos zitten

daniel kahneman

Dan is er nog een derde component om een goede expert te worden, naast kennis en intelligentie, en dat is kritisch denken of actief onbevooroordeeld denken. Wie actief onbevooroordeeld is, gaat zelf op zoek naar informatie die zijn hypothese of oordeel tegenspreekt. Een soort van zelf-falsificatie dus. Als je kritisch denkt heb je geen moeite om een andere mening over te nemen en denk je ook niet dat je je bij het nemen van een besluit vooral naar je intuïtie moet luisteren.

Eigenlijk ben je dus kritisch over je eigen kennis en intelligentie. Dat ondermijnt de andere twee pijlers van een goed oordeel niet, maar versterkt ze juist. Zo maak je dus betere besluiten met minder ruis.

Beslissingshygiëne

Maar daarmee ben je er nog niet. Om ruis te verminderen moet je je houden aan zes regels van beslissingshygiëne.

  1. Het doel van beoordelen is nauwkeurigheid, niet individuele expressie. Individuele verschillen (benoemd als patroonruis) moet je zo klein mogelijk houden. Bedenk wat andere experts in jouw geval zouden beslissen.
  2. Denk statistisch en kijk met een externe blik. Benader kwesties niet als een unieke zaak maar zie ze als onderdeel van een referentieklasse met vergelijkbare zaken. Let dus meer op overeenkomsten en minder op de verschillen.
  3. Structureer oordelen door ze onder te verdelen in afzonderlijke taken. Hakken in vakken en zagen in lagen is zo’n manier. Maar ook het gebruik van regels en richtlijnen als ankerpunt is een manier om betere besluiten te nemen.
  4. Geef niet toe aan premature intuitie. Dat wil zeggen, je mag best gebruik maken van intuïtie, maar onderzoek het wel en bevestig wat je als eerste dacht met feiten en argumentatie. Snelle expertise is immers onbetrouwbaar.
  5. Win onafhankelijke oordelen in van meerdere beoordelaars. Bij wijze van contra expertise. Zie ook de negen momentopnamen van de geest voor tacit knowledge van Klein.
  6. Geef de voorkeur aan relatieve schalen en oordelen. Zoals veiligheidskundigen bijvoorbeeld doen met relative ranking bij risico analyses. Mensen zijn beter om kwesties paarsgewijs te matchen dan om een absoluut oordeel te vellen.

Kahneman schreef met zijn makkers Cass Sunstein (ja, die van die ramp voorkomen) en Olivier Sibony een interessant boek. Het gaf mij enerzijds nieuwe inzichten over de schade die ruis veroorzaakt, maar ik zag ook veel bevestiging van wat ik op de één of andere manier al wist of deed. Zoals met de Sturingsdriehoek.

Grappig genoeg schreef ik er onbewust over in de inleiding van dit blog. Door naar andere recensies te kijken bij de beoordeling van een boek hanteer ik eigenlijk de regels twee en vijf van de beslissingshygiëne.  

Tegelijkertijd heb ik geprobeerd om tijdens het lezen de voorbeelden die de schrijvers aandragen te vertalen naar kwesties die ik ken uit het veld van brandweer en rampenbestrijding. Enkelen daarvan heb ik opgenomen in dit blog.

Mijn conclusie is dat ruis best wel eens een majeur probleem kan zijn voor de veronderstelde veiligheid van brandweermensen en burgers. Daarom denk ik ook dat dit een relevant boek is voor iedereen die in dat veld werkt en op de een of andere manier te maken heeft met besluitvorming in complexe situaties.

Dat wil niet zeggen dat het lezen van dit boek alleen maar een onverdeeld genoegen is. Er zit veel herhaling in en de lezer wordt wel heel erg aan het handje meegenomen. Van wat ik aan andere recensies las ben ik daar niet de enige in die dat vindt. Overigens is daar een eenvoudige remedie voor, zo schreef ik in het blog over de lezende mens: scannend lezen. En pas de diepte in als het echt relevant wordt.

Al met al zou ik je aanraden dit boek te lezen met je eigen werkveld in het achterhoofd en je af te vragen: waar zit bij ons allemaal die ruis?

Momentopnamen van de geest. Een Boekrecensie

Leestijd: 9 minuten

Momentopnamen van de geest is de letterlijke vertaling van Snapshots of the Mind, het nieuwste boek van Gary Klein. Waarschijnlijk is het ook zijn laatste, Gary vindt het wel mooi zo. Gelukkig voor ons is dit boek een verzameling van zijn beste columns voor Psychology Today. Daarmee heb je eigenlijk alle kernpunten uit zijn werk over Recognition Primed Decisionmaking (RPD) in één uitgave te pakken, plus nog van alles erbij. Een buitenkans voor de lezer van kleine stukkies.

momentopnamen van de geest

Het werk van Klein over besluitvorming onder tijdsdruk ken ik sinds 1995, toen Ira Helsloot en Menno van Duin onderzoek deden naar veiligheid bij repressie voor het toenmalige Nibra. Ik deed en las mee in de begeleidingscommissie en ben Klein altijd blijven volgen. Ook toen RPD na de aanvankelijke hype langzaam wegzakte naar een wat marginale stroming in de cognitiewetenschappen.

Tot grote frustratie van Klein ging Kahneman er namelijk dankzij diens Human Bias (HB) theorie met de wetenschappelijke buit vandoor, zeker nadat Kahneman ‘Thinking Fast en Slow’ had gepubliceerd over Systeem 1 en Systeem 2. De kernboodschap van dat werk is dat je expertise niet moet vertrouwen. Terwijl Klein in zijn RPD model juist wel expertise centraal stelt, als basis van besluitvorming onder tijdsdruk.

Valide omgeving

In een gezamenlijk artikel, ‘A failure to disagree’, poogden de heren uit het meningsverschil te komen met een hulpconstruct. In hoog valide omgevingen kun je best vertrouwen op expertise, zo schreven ze.

Een hoog valide omgeving is er eentje waar een bepaalde variabele of actie altijd (vrijwel) hetzelfde resultaat oplevert. Dan heb je het dus voornamelijk over ambachten, vakbekwaamheid en meesterschap.

De expertise in laag valide omgevingen is daarentegen onbetrouwbaar volgens Klein en Kahneman. Denk aan economie, aandelenbeurzen en politiek. In dit blog, de onbetrouwbaarheid van snelle expertise, ben ik er veel dieper op ingegaan. Dat doe ik nu niet.

Hier zie je Systeem 1 en systeem 2. Systeem 1 bevat de automatische besluitvorming, gebaseerd op ervaring en gewoontes. Systeem 2 is het actief redeneren om een oplossing te vinden, bijvoorbeeld via de Dikke BOB.

De reden dat ik er toch zo veel aandacht aan besteed is dat Klein in Hoofdstuk 3 nogal tekeer gaat tegen de onderzoekers uit de Human Bias stroming. Niet omdat ie tegen HB is, zo vermeldt Klein meermaals, maar wel omdat HB naar zijn mening tegen RPD is. En dus haalt ie er van alles bij om zijn gelijk over expertise te bevestigen.

Terwijl dat helemaal niet nodig is. Want de mensen uit de praktijk weten al lang dat besluitvorming onder tijdsdruk een kwestie van herkenning is, van gebruik maken van de ervaring die je zelf hebt of de mensen in je team.

NDM

Het is een beetje hetzelfde als de fittie tussen Taleb en Sunstein zoals ik die in dit blog omschreef; als het gaat om wetenschap wil er toch eentje het meest gelijk hebben. Zo gaat dat kennelijk met theorie. Voor de praktijk is dat helemaal niet zo belangrijk. Alles wat werkt, dat werkt en kun je dus gebruiken. Zo denkt de praktijk.

Het RPD model van Klein. Na waarneming van de situatie vindt er een match plaats aan de hand van vier aspecten (doelen, verwachtingen, aanwijzingen en acties. Het tweede deel van de herkenning is een snelle simulatie die de haalbaarheid toetst. Herkenning kent dus twee cruciale momenten: waarnemen en simuleren, beiden aan de hand van reeds opgebouwde ervaring. Als je goed kijkt zie je ook dat er in de linkerbovenhoek twee routes tot een doordraaiende loop kunnen leiden. In dit blog over het begin van Sturingsdriehoek schrijf ik hoe ik daar tijdens een metrobrand zelf tegenaan liep.

Helemaal aan het eind van het boek, we zitten dan in hoofdstuk negen, ziet Klein het gelukkig zelf ook. Al verbreedt hij RPD daar naar Naturalistic Decision Making. Dan valt bijvoorbeeld Micah Endsley met de situation awareness levels er ook onder.

Naturalistic Decision Making is not an academic discipline. It does have many adherents within universities, but it emerged and has primarily taken root in applied settings as a basis for action—for training decision-making skills and achieving higher levels of expertise, for designing systems that strengthen rather than compromise expertise, for organizational interventions that seek to promote expertise instead of fixating on ways to reduce errors

gary klein

Terug naar het boek zelf.

Cognitie

Klein schrijft dat het zijn doel is om met dit boek mensen bewuster te maken van cognitie. Voor niet-psychologen is dat inderdaad een lastige term. Ik herinner mij dat ik er als eerstejaars student psychologie weken over deed om cognitie goed te kunnen plaatsen. Dat alle leerboeken in het Engels waren hielp daar trouwens niet aan mee.

Wat is de Nederlandse vertaling van het woord mind, bijvoorbeeld? Geest? Verstand? Brein? Hersenen? Ik hou het er op dat mind niet goed vertaalbaar is met één woord.

Maar je kunt het wel omschrijven, denk ik. Volgens mij is mind het ding waardoor je kunt waarnemen, denken, patronen herkennen, besluiten nemen, redeneren en oriënteren. Je mind helpt je met situation awareness, Dikke BOB en commandovoering. Je mind is het construct waarin je expertise huist. Dat alles bij elkaar is ook wat cognitie is.

Je mind maakt cognitie.

The word “cognition” may sound academic, but I am using it as a blanket term to capture everyday activities such as decision-making, detecting and solving problems, making sense of confusing situations, and managing risks and uncertainty

gary klein

Rotsvissers

Klein komt met een prachtig voorbeeld hoe je cognitie in de praktijk kunt beschrijven. Hij vertelt over de rotsvissers in Australië, waar jaarlijks zo’n tien doden te betreuren zijn. De regering besloot daarom een onderzoek te laten verrichten door de National Safety Board. Na enige tijd kwam de Board met aanbevelingen over waarschuwingsborden, zwemvesten en high visibility clothing.

Tot groot verdriet van de ervaren rotsvissers, zo ving Peter Kamstra op, een Canadese onderzoeker. Kamstra ontdekte dat er niemand van de Board met de vissers had gesproken. Die vertelden dat de fatale ongevallen plaatsvonden met onervaren vissers. Als hun lijn vast kwam te zitten bewogen ze zich bijvoorbeeld naar de rotsrand en werden daar makkelijk overvallen door een golf.

Terwijl een ervaren visser altijd zijn lijn opoffert; veel te gevaarlijk om naar de rand te lopen. Daar hielp geen waarschuwingsbord tegen, tegen deze vorm van gedrag. (Tegen welke vorm van gedrag helpt een bord wel, zo vraag ik mij af? Het is eerder een reminder wanneer je in overtreding bent dan een middel om onbesuisdheid te temperen)

Rotsvissers bij Muriwai Rock, Australïe. Foto Wikipedia

Nog zo’n ervaringsdingetje: ervaren vissers vragen hulp als de vis te zwaar is om veilig binnen te halen, waar onervaren vissers dat in hun eentje doen om te laten zien hoe goed ze al zijn. En mocht de ervaren visser onverhoopt toch in het water zijn gevallen, dan weet ie al hoe hij terug moet zwemmen omdat hij dat al uitgezocht had voor hij ging vissen.

En dat is niet via de rots waar hij vanaf was gevallen, wat onervaren vissers wel doen.

Cognitieve dimensie

Klein schrijft dat je beter kunt kijken naar de besluiten die mensen nemen dan naar hun gedrag. Ervaren vissers begrijpen de risico’s beter (situation awareness level 2) en kunnen voorspellen wat er verder gaat gebeuren als het mis gaat (SA level 3).

He captured the cognitive dimension of staying safe during a high-risk activity: anticipating problems (noting any nearby sandy beaches to swimto), managing risks (cutting a line that gets snagged instead of trying torecover it), making sense of situations (gauging whether a location is safe, given the current and wind directions), making tough decisions (inhibiting the impulse to swim back to the ledge after being swept off it), anticipating opportunities (waiting for a friendly wave to wash your fish onto the ledge), managing attention (scanning the wave patterns while looking for that friendly wave in case a freak wave is approaching)

gary klein

Uiteindelijk, concludeert Klein, is expertise tacit knowledge. Dat is kennis die niet kan worden verkregen door het volgen van procedures en rijtjes aandachtspunten, maar door ervaring.

Tacit knowledge is patroonherkenning, afwijkingen detecteren en besluiten nemen gebaseerd op je mentale modellen. Dat is de cognitieve dimensie die Klein bedoelt en dat leren zien is het doel van momentopnamen van de geest.

Klein benoemt negen momentopnamen van de geest om je tacit knowledge te vergroten.

  • Vraag om feedback. Stel jezelf open voor kritiek en leer over jezelf door de ogen van anderen
  • Consulteer experts. Maar zorg er dan wel voor dat je goede vragen hebt die verder gaan dan ‘hoe doe ik het?’
  • Leren van anderen. Dat lijkt op de eerste twee acties, maar het verschil is hier dat het niet om jouw tacit knowledge gaat maar om die van de ander. Hoe gingen zij om met een lastige casus?
  • Wees nieuwsgierig. Kijk en zoek altijd verder. Stel vragen. Wees bewust van je OK-Plateau.
  • Zorg voor een open houding die is gericht op geestelijke groei. Denk niet: dat weet ik al. Denk: wat weet ik nog niet?
  • Stap af van een procedurele modus en omarm de probleemoplossende houding.
  • Leer van je fouten door ze te analyseren en daarna wel goed te doen. Ook al is het met hindsight, zo formuleert Klein, want als ik niet slim genoeg ben met hindsight dan ben ik het nooit.
  • Heb er lol in om ingewikkelde problemen op te lossen. The obstacle is the way, roepen de stoïcijnen dan.
  • Verwar trainen en beoordelen niet met elkaar. Een training is bedoeld om te groeien, een beoordeling om vast te stellen of je het kan. Dat zijn strijdige doelen.

Momentopnamen van de geest

Tacit knowledge vraagt dus om een nieuwsgierige instelling, flexibel en beweeglijk. Leg je niet vast in procedures als het niet kan, maar wees juist probleemoplossend; als het niet kan zoals het moet, dan moet het maar zoals het kan. Kijk hoe anderen het doen en kijk hoe je het zelf doet: het kan altijd beter. Dat is precies wat Prohairesis is.

Een expert in een hoogvalide omgeving. Scheepssloper aan het werk. Jaartal onbekend, foto ANP.

Gary Klein maakte met momentopnamen van de geest een intrigerend boek over de menselijke besluitvorming onder tijdsdruk. Een uitgelezen moment om als nieuweling op het gebied van RPD en NDM snel met het vakgebied bekend te worden. Steile leercurve gegarandeerd, want Klein maakt het niet moeilijk en vooral niet al te lang. Dat leest lekker weg.

Het boek is namelijk opgebouwd uit oude columns. Dan is het net of je blogs zit te lezen. Elke bijdrage staat op zichzelf en tegelijkertijd bouwen ze gezamenlijk een netwerk aan kennis, een rizoom. Dat maakt het ook een fijn boek om mee te nemen tijdens een weekendje weg.

Voor degenen die Klein al wel langer lezen, ik reken er mezelf toe, is er ook genoeg te beleven. Dit boek ervaarde ik daarom als een prettige opfrisser. Hoofdstuk 7 bijvoorbeeld gaat over training en die heb ik met extra aandacht gelezen omdat ik zelf regelmatig trainingen geef. En daar is een verbeterslag in te maken, concludeerde ik. Door nog meer dan ik nu al probeer de cursisten te begeleiden op hun ontdekkingsreis, in plaats van hen het antwoord op een vraagstuk te geven.

Dus mocht je als goed voornemen in 2023 meer willen gaan lezen, dan zou ik dit boek zeker willen aanbevelen.

Hoe je een ramp voorkomt. Een Boekrecensie

Leestijd: 10 minuten

Hoe voorkom je een ramp? Dat is het onderwerp van een handzaam boekje van Cass R. Sunstein onder de titel Averting Catastrophe. Voor zover ik kon nagaan bestaat er geen Nederlandse vertaling van, maar dat vond ik geen probleem. De tekst is makkelijk te volgen. De vraag die vooral bleef hangen was wat je nou eigenlijk met dit boekje moet. Het antwoord erop verraste mijzelf ook.

Averting Catastrophe explores how governments ought to make decisions in times of imminent disaster.

Zo ronkend laat Cass zijn boek aanprijzen op de kaft, door enkele van zijn geleerde vrienden. Ik stonk erin en kocht het ongelezen. Want wie wil dat nou niet, besluiten kunnen nemen rondom de vraag hoe je een ramp voorkomt?

Voor hen die gehoopt hadden daarop een duidelijk antwoord te krijgen, volgt dan nu alvast de dikke vette spoiler: na lezing van Averting Catastrophe weet je het nog steeds niet. Maar weet je wel beter waarom je het niet weet.

Wat ik ook wel weer geruststellend vond.

Hoe je een ramp voorkomt

Want stel je voor, in 2023 zit ik dertig jaar in het vak van hoe je een ramp voorkomt en dan opeens schrijft iemand een boekje die daar in netto 117 pagina’s een antwoord op heeft. Dat zou wat zijn, zeg.

Maar goed, dat antwoord heeft Sunstein dus niet, maar wat heeft ie dan wel? Nou, enkele inzichten uit de decision theory die mij wel wat meer houvast gaven.

Of laat ik het anders zeggen, die mij bevestigden in een paar aannames die ik uit mijn praktijk had afgeleid, zoals het feit dat de te verwachten schade een belangrijker graadmeter is om op te handelen dan de kans op die schade. Sowieso vind ik ‘kans’ een overschatte parameter die nogal vaak leidt tot het-met-de-kennis-van-nu syndroom.

Nu moet ik eerst nog met een validiteitsdingetje aan de gang.

IYI

Die validiteitskwestie begint met een uitspraak van Jung. “Everything that irritates us about others can lead us to an understanding of ourselves.”

En dat geldt ook voor Nicholas Taleb. Everything that irritates Nicholas Taleb can lead us to an understanding of Nicholas Taleb.

En Cass Sunstein irritates Nicholas Taleb a lot. Zoveel zelfs dat Sunstein model stond voor Taleb’s tirade over IYI in zijn boek Skin in the Game: Intellectual Yet Idiot. Een IYI wordt door Taleb als volgt beschreven:

An inner circle of no-skin-in-the-game policymaking “clerks” and journalists-insiders, a class of paternalistic semi-intellectual experts with some Ivy league, Oxford-Cambridge, or similar label-driven education who are telling the rest of us 1) what to do, 2) what to eat, 3) how to speak, 4) how to think… and 5) who to vote for.

nicholas taleb

De Ivy League is een groep topuniversiteiten in Amerika, waaronder Princeton, Columbia en Harvard. Alumni ervan verkeren in hoge kringen en spelen elkaar volgens Taleb ondershands baantjes toe. Iets vergelijkbaars vind je in Frankrijk met de Grande Ecoles en met Oxbridge in Engeland.

Het is duidelijk dat Taleb er niets van moet hebben, IYI. Wellicht omdat ie zelf niet uit de League komt. Tegelijkertijd lijkt hij erg gevoelig voor erkenning uit dergelijke kringen. De validiteitsvraag is dan hoe serieus je de stellingen van Sunstein moet nemen. Of die van Taleb, natuurlijk. Kan het zijn dat hij zich overschreeuwt?

Want Sunstein is echt niet de eerste de beste. Onder Obama was hij verantwoordelijk voor een programma om de maatschappelijke kosten van fossiele brandstoffen in kaart te brengen, als onderdeel van een groter onderzoek naar de effecten van klimaatverandering.

Dat is ook de link met Averting Catastrophe, naast de schadelijke gevolgen van de Covid pandemie: de vraag hoe je een ramp voorkomt in onzekere omstandigheden.

Ik had DALL-E gevraagd een tekening te maken van een astronaut die een bord schildert met de tekst: watch out, black hole. Dat kwam er niet helemaal uit.

Maar Sunstein is vooral bekend geworden met zijn boeken over ‘nudging’. Dat is het onbewust beinvloeden van menselijk gedrag, bijvoorbeeld door de gezonde broodjes op ooghoogte te leggen en de ongezonde onderaan. Dat zou mensen aanzetten om gezonder te eten. Het wetenschappelijk bewijs erover schijnt mager te zijn, maar zolang supermarkten de gewenste snellopers in hun schappen op ooghoogte blijven leggen weet ik dat het werkt. Anders zouden ze dat niet doen.

Wat dan wel weer een leuk weetje is, is dat Aad Kieboom, een oud collega van mij, de beroemde vlieg in het urinoir heeft bedacht om de schoonmaakkosten van de toiletten op Schiphol in bedwang te helpen houden. Die piesvlieg geldt als de grootvader van alle nudges. Toen ik hem daar een keer over sprak keek hij mij vol verbazing aan; hij wist nergens van en was nooit ergens naar gevraagd of over geïnformeerd. Laat staan dat ie wist wat een nudge was.

Die middag nog kocht Aad het boek over nudging en liep mij de ochtend erna glunderend voorbij, terwijl hij uitgebreid zijn duim opstak en naar het boek wees. Hoe de dingen soms gaan.

Hoe je een ramp voorkomt

Ik vertel bovenstaand verhaal als context bij het boek Averting Catastrophe. Het werk van Sunstein is niet onomstreden, maar hetzelfde geldt voor zijn criticasters. Uiteindelijk is het niet mijn bedoeling aan te wijzen wie gelijk heeft, wel wil ik kort schetsen in welk krachtenveld het zich allemaal afspeelt. Wat je wel of niet voor waar aanneemt is verder aan jezelf. Mij gaf de verbreding in ieder geval meer inzicht in hoe je een ramp voorkomt.

Ga ik nu weer terug naar het boek zelf.

Met zijn boek wil Sunstein hulpmiddelen aanreiken over hoe je een ramp voorkomt. Daarbij sla ik het stukje over risicomanagement en expected value grotendeels over. Risico’s kun je namelijk kwantificeren, door een getal te geven aan waarschijnlijkheid (of frequentie) en effect. Dat geeft voldoende houvast om een besluit te nemen gebaseerd op expected value.

Maar dat is niet altijd het geval, dat je waarschijnlijkheid kunt toewijzen aan een situatie. In dergelijke omstandigheden weten we niet wat er kan gebeuren en ook niet goed wat de effecten kunnen zijn. Knightian uncertainty noemt Sunstein dat, naar de economoom Frank Knight.

Uncertainty must be taken in a sense radically distinct from the familiair notion of risk, from which it has never been properly separated… The essential thing is that ‘risk’ means in some cases a quantity susceptible of measurement, while at other times it is something distinctly not of this character; and there are far-reaching and crucial differences in the bearing of the phenomena depending on which of the two is really present and operating.

frank knight

We simply don’t know, voegde John Maynard Keynes daar aan toe. We weten niet wat de rente is over tien jaar, of er een oorlog komt in Europa, welke uitvindingen de markt zullen veranderen of wat de prijs van koper volgend jaar is. Knight beschreef zijn definitie van onzekerheid in 1933, Keynes die van hem in 1936.

We simply don’t know, hoe je een ramp voorkomt. Of hoe je de hoofdprijs wint. Want dat is wat onzekerheid is. VUCA heet dat ook wel: volatiel, onzeker, complex (of connected) en ambigu. Hier schreef ik er al eens eerder over.

Maximin

In de theorie van decisionmaking zijn een aantal principes benoemd die kunnen helpen om besluiten te nemen in onzekere omstandigheden. Zoals het maximin principe. Dat gaat ervan uit dat je het worst case scenario elimineert en vormt eigenlijk de kern van Averting Catastrophe: je voorkomt een ramp door het worst case scenario uit te schakelen.

DALL-E tekent een hand die een meteoor opvangt. Vind ie.

Toch stelt Sunstein daar wat vragen bij aan de hand van een aantal voorbeelden. Wat zou je kiezen:

  1. 99,9% kans om €10.000 te winnen en 0,1% kans om €60,- te verliezen of
  2. 50% kans om €50 te winnen en 50% kans om €50 te verliezen.

In regulier risicomanagement zou je kiezen voor optie 1. Dat heeft de hoogste te verwachten waarde. Maar als je gaat voor het maximin principe rolt optie 2 eruit. Dan mis je dus de kans op een grote winst. Dat is de waarschuwing van Sunstein: als je de worst case scenario in alle omstandigheden probeert te voorkomen, snij je misschien ook een grote winstkans af.

Nog een voorbeeld. Wat zou je kiezen:

  1. 100% kans om een euro te winnen of
  2. 100% kans om een ton te winnen met een onbekende kans om te sterven

Volgens het maximin principe kies je nu voor optie 1, ook als is de kans op sterven bij optie 2 onbekend. Overigens wordt bij regulier risicomanagement de kans van 1 op een miljoen in voorbeeld 2 acceptabel geacht bij de vergunning van risico opleverende activiteiten.

Maar als die 10-6 kans alleen op jouw betrekking heeft en niet op anonieme persoon, vind je die kans dan nog steeds acceptabel? Dat is de skin in the game vraag.

Er is ook nog het minimax principe. Daar heeft Sunstein het niet over in dit boekje, maar lang geleden kwam ik het tegen in een artikel van Mintzberg. Volgens Mintzberg nemen managers altijd het besluit waar ze achteraf het minste spijt van krijgen; minimaxen van spijt heet dat dan. Misschien is dat nog wel het beste principe om een ramp te voorkomen. Jammer dat Sunstein het daar niet over heeft.

Voorzorgsmaatregel

Dan is er nog een instrument dat het precaution principle wordt genoemd. Dat gebruik je om risico’s te vermijden, met name bij reguleringsvraagstukken. Als je niet weet wat het effect van genetisch gemodificeerde organismen (GMO) in de vrije natuur is, kun je ze maar het beste verbieden volgens de voorzorgsmaatregel. Zie ook het blog over georganiseerde onverantwoordelijkheid en manufactured risks.

Taleb vindt het onverantwoord om GMO’s los te laten in de natuur, omdat het totaal onzeker is wat er daarna mee gaat gebeuren. Daarbij wijst hij op de fat tail; de kans op een extreme gebeurtenis is groter dan je op basis van een normaalverdeling zou verwachten en dat heeft te maken met complexiteit en exponentiële ontwikkeling.

Voor kernenergie is zo’n onzekere uitkomst niet aan de orde, omdat daar veel meer over bekend en meetbaar / berekenbaar is. Dat raakt eerder risicomanagement principes dan onzekerheidsprincipes.

Vluchten voor de vulkaan. Soms is dat de enige manier om een (grotere) ramp te voorkomen

Aansluitend op deze redenatie geldt nog het argument van onomkeerbaarheid. Bepaalde negatieve uitkomsten zijn niet terug te draaien of te herstellen. Een extra argument voor een voorzorgsmaatregel.

Toch, zegt Sunstein, kun je met voorzorgsmaatregelen ook positieve uitkomsten blokkeren. Daarom is hij het niet met Taleb eens. Er zijn voldoende wetenschappelijke artikelen die de kans op een onomkeerbare escalatie met GMO zeer onwaarschijnlijk achten.

Als tweede voorbeeld van geblokkeerde opbrengsten door de voorzorgsmaatregel noemt hij de vergunning voor zelfrijdende auto’s. Die zou je kunnen verbieden, omdat er onherroepelijk doden zullen vallen en dat is onomkeerbaar. Maar het betekent ook misschien dat er juist veel extra slachtoffers te betreuren zijn omdat zelfrijdende auto’s minder ongevallen veroorzaken dan menselijke bestuurders en dus uiteindelijk veiliger zullen zijn.

Je kunt je er dus niet zonder meer met één regel of principe vanaf maken. Het blijft denken in scenario’s, in mogelijkheden, in het vergroten van je situational awareness, zoeken naar kwetsbaarheden maar ook naar kansen. Want in keuzes valt er ook vaak wat te winnen en dat wil je ook niet uitsluiten.

Uiteindelijk concludeert Sunstein dat in situaties van grote onzekerheid waarin het ‘wait and learn’ principe te onvoorzichtig is, het logisch is om toch zware preventieve maatregelen te nemen, of het nu gaat om pandemieën, klimaatverandering of GMO. “Those measures will enable us to sleep better at night. And if we end up buying too much insurance, well, so be it.

Lichtzwarte Zwaan

Gaat Averting Catastrophe nou echt over hoe je een ramp voorkomt, zo vroeg ik me af na lezing. Ten dele, denk ik. Het gaat voornamelijk over het managen van onzekerheid, Knightian Uncertainty. Gebeurtenissen met een zeer kleine kans op een groot effect, waar je geen getallen aan kunt toekennen en zodoende buiten het reguliere risicomanagement vallen.

Highly impropable events with an extreme impact, dus.

Toen pas, bij die definitie, begon bij mij het lampje te banden. Taleb en Sunstein hebben het over hetzelfde in hun boeken. Alleen voegde Taleb wel de achteraf explanatie toe aan zijn definitie van de Zwarte Zwaan en Sunstein niet. Sunstein bespreekt dus eigenlijk een lichtzwarte Zwaan.

Hoe dan ook, de meerwaarde van Averting Catastrophe ligt voor mij in de verbreding van het veld dat Taleb heeft geclaimd als het zijne, het land van de Black Swan, maar waar ook andere denkers hun licht op hebben laten schijnen.

Jung had gelijk; dankzij Sunstein begrijp ik Taleb en het veld van onzekerheidsmanagement beter.  Maar hoe je een ramp voorkomt weet ik nog steeds niet zeker.

De Nieuwe Wet van Murphy

Leestijd: 8 minuten

Van de Wet van Murphy had ik ooit geleerd dat alles wat mis kan gaan, ook mis zal gaan. Er sprak desondanks een bepaalde geruststelling uit; als het niet mis kan gaan, gaat het goed. Tot ik las over de Regel van W.F. Hermans: Alles wat niet mis kan gaan, zal ook mis gaan. Dat verandert de zaak nogal.

De eerste aanvulling op dit blog is van 2 maart 2023 en vind je onderaan

Ergens op een verlaten plankje in de boekenkast staat een onooglijke uitgave van Arthur Bloch. Murphy’s Law heet het, en het gaat, je raadt het al, over de Wet van Murphy.

Deze dus;  “alles wat mis kan gaan zal ook mis gaan.”

Some of your decisions are going to be mistakes. You have to make them anyway.

Picard Management Tip

Het is niet een boekje dat je echt leest, hooguit scan je het, op zoek naar de leukste vondsten. Of je pakt het erbij als je een blog schrijft over de Wet van Murphy. Allebei kan natuurlijk ook. Dan krijg je een rijtje zoals deze, met een paar voorbeelden die ik uit het boekje van Bloch scande:

  • Murphy’s Wet van Crisis; Je zit in een crisis als je niet kan zeggen: zand erover.
  • De Wet van Patton; Een goed plan vandaag is beter dan een perfect plan morgen.
  • De Wet van Sweeney; De lengte van een voortgangsrapportage is omgekeerd evenredig aan de voortgang.
  • De Wet van Smith; Geen enkel werkelijk probleem heeft een oplossing
  • De Wet van Hoare; In ieder groot probleem zit een klein probleem dat zich naar buiten vecht
  • De Thermodynamische Wet van Murphy; De dingen worden onder druk nog erger

Wet van Murphy

De Wet van Murphy is in de praktijk een soort onbewuste onderlegger bij risicoanalyses en scenariodenken. Daarmee zoeken we naar de dingen waarvan we denken dat ze mis kunnen gaan, zodat we maatregelen kunnen nemen om het niet mis te laten gaan, om het te beheersen. Te voorkomen, te beperken, te bestrijden of op te ruimen.

In de loop der tijden zijn er steeds meer professionele tools ontwikkeld voor risicoanalyse en scenariodenken. Denk maar aan Hazops, Vlinderdassen en FMECA. Er zijn er vast veel meer, ik ben er niet erg meer in thuis. Mijn carrière ontwikkelde zich in een andere richting.

Nieuwe Wet van Murphy

Maar één ding weet ik wel en dat hebben alle tools gemeen; het zijn altijd de deskundigen van een bedrijf die de risico’s aandragen.

Die deskundigen zijn meestal ook echt deskundig. Zij weten wat er mis kan gaan in jouw bedrijf of organisatie. Dankzij jarenlange ervaring en vaak ook relevante opleidingen leveren ze de benodigde informatie moeiteloos aan. Ik deed het zelf ook regelmatig. Precies conform de Wet van Murphy inventariseer je alles wat mis kan gaan. Want eens zal dat misgaan, is het niet nu dan ergens in een miljoen jaar.

En dat stoppen we in een lijst, een tool, een programma. Wat overblijft is discussie over kans en effect. Daar schreef ik al eerder over in deze blogs over Geelwassen en Risicomanagement.

Regel van Hermans

Daarmee was het tot voor kort klaar, volgens mij. Tot ik op een onbewaakt ogenblik tegen een column van Michel Krielaars in het NRC aanliep. Hij vertelde over de presentatie van het laatste deel van de verzamelde werken van W.F. Hermans en het boekje dat speciaal ter ere daarvan werd uitgereikt.

Bas Godska, ik ken hem verder niet, had daar volgens Krielaars ook een stukje in geschreven. Godska had ooit als scholier contact gelegd met Hermans en ze waren elkaar daarna blijven schrijven tot Hermans overleed. Kennelijk was Godska daarna geëmigreerd.

Zevenentwintig jaar later schrijft Godska Hermans postuum hoe hij kort voor de Russische invasie in Oekraïne zijn huis bij Kiev heeft verlaten met alleen hun briefwisseling op zak. De oorlog doet hem beseffen dat Hermans’ lessen over beschaving en chaos nooit eerder zo toepasselijk zijn geweest als nu. En dan schrijft Godska tot slot: ‘Maar je regel dat alles wat niet mis kan gaan ook misgaat, blijft geldig.’

Michel Krielaars

Alles wat niet mis kan gaan, zal ook mis gaan; dat is dus de Regel van W.F. Hermans.

Tunnelvisie

Wat er dan gebeurt in mijn hoofd.

W.F. Hermans probeert zijn nieuwe camera uit, 1985. Foto Rob Croes ANP

Als eerste sprong mijn tunnelvisie alert aan na het lezen van Krielaars’ column. Alles wat niet mis kan gaan is nooit input van risicoanalyses. Daar wordt niet naar gekeken en feitelijk is het dus een omissie, een blinde vlek.

Ten tweede ging het Taleb lampje branden. Was dit niet een andere formulering van een Black Swan? Een unknown known? Mogelijk zelfs een fundamental surprise dan wel een fundamental risk? Kan je tunnelvisie hebben voor tunnelvisie; dat je zo in een tunnel zit, dat je niet ziet dat je in een tunnel zit?

Ten derde, wat gaat er op het moment toch allemaal mis wat niet mis kon gaan? Betaalbare energie. Arbeidsmarkttekorten. Hyperinflatie. Drinkwatertekorten. Om er maar eens een paar te noemen.

En wachtrijen voor van alles. Dat alles in een half jaar. Tot eind februari 2022 leefden we nog in een lockdown.

Hypocognitie is geintroduceerd door de antropoloog Robert Levy en sluit aan op de Sapir Whorf hypothese. Het betekent dat je geen linguistische of taalkundige representatie hebt voor een object, een situatie of een idee. Dat kan er toe leiden dat je een unknown unknown ervaart (situation awareness level nul) ofwel dat je iets ziet maar het niet kunt benoemen omdat je er geen woorden voor hebt. Of dat je aan het dunning kruger syndroom lijdt, dat kan ook nog.

De Nieuwe Wet van Murphy

Hermans heeft gelijk.

Het kon niet anders, zo bedacht ik mij verder, dan dat we de input voor risicoanalyses moeten aanpassen. Niet alleen moeten we kijken naar wat er mis kan gaan, we moeten ook kijken naar wat er niet mis kan gaan. Met andere woorden, kijk eerst in je tunnel en daarna nog eens heel goed buiten je tunnel. Want daar zitten je grootste risico’s.

Wat we ook moeten doen is de Wet van Murphy combineren met de Regel van Hermans tot De Nieuwe Wet van Murphy. Want nu weten we dat alles mis kan gaan, alleen nog niet wanneer. Of eigenlijk weten we dat wel: altijd als het slecht uitkomt.

Alles zal misgaan en altijd op het verkeerde moment.

Dat is de Nieuwe Wet van Murphy.

Update 2 maart 2023: Lessen uit B&B

Op 1 maart 2023 publiceerde de Onderzoeksraad voor Veiligheid (OvV) het onderzoek Bewaken en Beveiligen: lessen uit drie beveiligingssituaties. Het is een uitgebreid rapport dat ingaat op wat er allemaal fout ging in de beveiliging van drie personen die betrokken waren bij het Marengoproces. Eén van hen was Peter R. de Vries.

Veel van wat de OvV beschrijft past naadloos in de Nieuwe Wet van Murphy: alles zal mis gaan en altijd op het verkeerde moment. De oorzaken van dat falen zie je ook terug in dit verhaal over de Predictable Surprise; door een combinatie van cognitieve, organisatorische en politieke factoren wordt een systeem zo fragiel, dat een ongewenste gebeurtenis voorspelbaar wordt.

Je creëert gewoon je eigen Black Swan.

Eén van de zaken die mij het meeste trof was een passage over omgaan met onzekerheid en de reactie daarop van de baas van het OM, Gerrit van der Burg. Eerst de conclusie van pagina 115 uit het rapport:

Nou weet iedere crisismanager dat aannames gevaarlijk zijn. Het is namelijk altijd onzeker of ze waar zijn of niet. Aannames moet je dus altijd checken, roep ik tijdens trainingen. Waarbij we tegelijkertijd moeten beseffen dat aannames hardnekkige processen zijn waar iedereen in kan stinken. Vroeg of laat maak je gewoon een verkeerde inschatting , meestal heb je het zelf niet eens door.

Maar als je weet dat mensen kwetsbaar zijn in het hanteren van hun veronderstellingen, kun je als organisatie ook maatregelen treffen. Dat je die verkeerde inschatting dus niet maakt. En als het toch gebeurt, dat je het toegeeft. Want na zo’n fout moet je ook weer verder met elkaar.

De aannames uit de conclusie van de OvV zijn van een ander niveau, een soort van double loop verkeerde aannames, waarover ik toevallig eind februari een kattebelletje naar mezelf had gestuurd als update voor dit blog.

Kan het echt niet gebeuren of denk je alleen maar dat het niet kan gebeuren? Ben jij de enige die dit denkt of doet de hele organisatie dat? That’s the question

In de kern is die vraag de Regel van Hermans: ook dat wat niet mis kan gaan, zal mis gaan. Zodoende raak ik er steeds meer van overtuigd dat je aannames niet alleen moet gebruiken als begrenzing van je beeldvorming, maar ook als escalatie: wat als het erger wordt dan je aannemelijk vindt?

En sla zo’n discussie niet gelijk stuk met opmerkingen over kans. Het gaat er niet om of het kan gebeuren, maar wat je doet als het wel gebeurt.

Dan naar Van der Burg. In het NRC van 1 maart geeft hij antwoord op een paar vragen. Daaruit pikte ik deze vraag van de journalist:

De Onderzoeksraad concludeert dat de gevaren te voorzien waren. Dat het OM alle signalen, die er wel degelijk waren, negeerde of door miscommunicatie heeft gemist.” Daarop zegt Van der Burg het volgende.

‘Achteraf kun je natuurlijk zeggen dat er gebeurtenissen zijn geweest die een voorspellende waarde hebben gehad. Maar ik vind het wel belangrijk om het in de context van toen te plaatsen. Het was nog nooit gebeurd dat de broer van een kroongetuige werd vermoord.’

gerrit van der burg

Het was nog nooit gebeurd, dus we namen aan dat het nu ook niet zo gebeuren, dat is wat de baas van het OM hier durft te zeggen. Waarschijnlijk meent ie het nog ook. Tip aan alle boeven: pleeg een misdaad die hier in Nederland nog nooit gebeurd is. Het OM zal ze in ieder geval niet ontdekken.

Veel duidelijker dan dit zal je een fundamental surprise niet aantreffen.

Overigens bleek vandaag dat de Britse veiligheidsdienst MI5 ook vele signalen gemist had om de bomaanslag in Manchester tijdens een concert van Ariane Grande te voorzien en te voorkomen. Maar die directeur gaf wel toe dat ze fouten hadden gemaakt en verstopte zich niet achter het met-de-kennis-van-nu syndroom.

Hij ontkende het probleem niet. Dat geeft in ieder geval hoop op verbetering.

Nou hier nog.

Gidswoorden voor crisis scenario’s

Leestijd: 8 minuten

Gidswoorden voor crisisscenario’s zijn een hulpmiddel om tunnelvisie te verminderen. Het gaat daarbij niet om het managen van de vechten / vluchten respons, maar om het herkennen van situaties waarin je aandacht wordt getrokken door een afwijkend patroon en je daar zo op focust dat je het zicht op het totaal verliest. Zonder dat je het doorhebt, overigens. Wij mensen houden onszelf namelijk nogal makkelijk voor de gek.

Het is eigenlijk opvallend dat de meeste mensen heel weinig weten van iets dat ze de hele dag door doen: denken. Veel slimmeriken zeggen bijvoorbeeld dat je bent wat je denkt. Ze kunnen zich niets voorstellen bij een probleem dat je niet kunt oplossen. Gewoon je hersens gebruiken, hoe moeilijk kan het zijn? En inderdaad, met logica, ratio en metasyntactische variabelen kan je veel oplossen.

Dit deel van denken wordt cognitie genoemd. Het gaat onder andere over informatieverwerking, geheugen, kennis en redeneren. De Dikke BOB is in die zin een cognitief hulpmiddel, bedoeld om op chaotische momenten toch rationeel te blijven redeneren en handelen.

Maar cognitie bepaalt niet alles in de besluitvorming. Waarom vind je bijvoorbeeld geel een mooie kleur, of juist niet? Hoe komt het dat de ene mens graag een beetje risico neemt en de ander helemaal niet?

Schipholtunnel 1966. Foto ANP Anefo.

Omdat er ook een stuk biologie in je denken huist. Ervaringen, voorkeuren en aanleg hebben zich ergens in je brein genesteld en bemoeien zich zo nu en dan ongevraagd met je cognitie. Vaak heb je dat niet eens door. Zo goed ken je je denkproces dus. 

Overlevingsstrategie

Vechten / vluchten respons, daar hebben de meeste mensen dan nog wel van gehoord. Dat het een reactie is van het autonome zenuwstelsel op een grote dreiging, waardoor je op de vlucht slaat, van schrik verstijft, de boel in elkaar timmert of met je smartphone een opname gaat staan maken. Allemaal biologische overlevingsdrift.

Intermezzo

In diverse blogs over besluitvorming onder tijdsdruk heb ik ook geschreven over verraderlijke mechanismen in de menselijke psyche. Generieke conclusie daaruit is dat je organisatorische maatregelen (het vangnet) moet nemen om menselijke fouten te voorkomen en compenseren. Dat geldt voor tunnelvisie net zo. Verhoog de vigilantie van je organisatie en maak snelle opschaling de standaard (weak signals, hard response). Regel tegensprekers in je crisisteams. En laat na x tijd automatisch opschalen naar een hogere regelkring om vast te stellen of de shared situational awareness op het goede niveau zit.

Uit diezelfde overlevingsdrift komt een eigenschap voort die focus heet, of aandacht. Er is iets dat afwijkt van een patroon, je oog valt er op, je hoort of ruikt iets geks, het kan van alles zijn. Maar het trekt je aandacht en je gaat er op af. Je blik focust zich op één bepaalde plek, je zoomt in en knalt gelijk in de solution modus. Oplossen die hap. Omdat je een slim mens bent weet je best hoe je moet handelen om de situatie te managen. Dat zal je dus laten zien ook.

Vanuit je tunnel. 

Tunnelvisie is een verraderlijk fenomeen. Het is een combinatie van biologische en cognitieve denkprocessen die bij elkaar komen en je soms volledig voor de gek houden. Dan denk je lekker rationeel bezig te zijn, maar in het echt heb je een groot deel van de werkelijkheid niet eens opgemerkt. Je blijft dan steken in situational awareness level nul. Of een half: je ziet het wel, maar niet alles.

IJ-tunnel in aanbouw, 1965. Foto Jac Nijs ANP.

Inzoomlampje

Nieuwe voorzitters of teamleiders laten we tijdens hun initial training daarom altijd een tunnel inlopen zonder dat ze het door hebben. Zodat ze in ieder geval één keer in de valkuil hebben getrapt tijdens een veilige leerervaring en het daardoor misschien beter herkennen als ze er in de praktijk dreigen in te lopen.

In dit blog over personal resource management heb ik die herkenning het inzoomlampje genoemd, als één van de controlelampjes van de crisismanager: als je de neiging voelt ergens sterk op in te zoomen, doe dan precies het tegenovergestelde. Zoom uit. Neem afstand.

En ga aan de slag met deze vier vragen:

  • Wat gebeurt er?
  • Wat betekent dat?
  • Wat kan er nog meer gebeuren?
  • Wat gaan we daaraan doen?

HAZOP

Ja, dat is inderdaad de Dikke BOB in het klein. Dat ga ik hier dus niet herhalen, check daarvoor onder andere deze blogs. Waar ik het hier verder over wil hebben is de derde vraag. Wat kan er nog meer gebeuren?

Ga scenario denken, is dan meestal de opdracht. Maar scenariodenken is nog niet zo heel eenvoudig. Zeker niet als je weinig ervaring hebt. Hoe pak je scenario’s bedenken aan?

Nou, bijvoorbeeld met gidswoorden.

Gidswoorden komen uit de HAZOP. Dat staat voor Hazard and Operability Analysis. Het is een risico analyse techniek uit de veiligheidskunde die veel wordt toegepast in de chemische industrie. Het komt er in het kort op neer dat een installatie in stukken wordt verdeeld. Elk stuk wordt geanalyseerd aan de hand van gidswoorden. Zoals bijvoorbeeld NO. Of MORE.

Gidswoorden uit de HAZOP

Neem bijvoorbeeld een transportbuis van een brandbare vloeistof. Het gidswoord NO geeft aan dat er geen flow optreedt in de buis. Wat zijn daar de oorzaken van? Welke oplossingen zijn er? Hetzelfde geldt voor gidswoorden die onderzoeken waarom er te veel flow optreedt, of te weinig. Of te heet, dan wel te koud. Van alles.

Waarschijnlijk doe ik hier de HAZOP verschrikkelijk mee te kort, maar het gaat voor dit blog even om de context van de gidswoorden. Dat je een beetje ziet wat je daar mee kan: op een gestandaardiseerde manier afwijkingen zoeken in een systeem. Het is scenariodenken met een methodiek. Niet alleen maar vertrouwen op je intuïtie of ervaring, op je biologie dus. Maar ook op je cognitie. Logica en redeneren. Systeem 2 van Kahneman.

Gidswoorden voor crisisscenario’s

Naar analogie van de HAZOP maakte ik een rijtje gidswoorden voor crisis gebaseerd op mijn eigen ervaringen. Het is vast niet compleet, noch is het wetenschappelijk gevalideerd. Maar scenariodenken zonder handvat, dus uit je blote hoofd, is dat ook niet.

  • Sneller.
    • Wat als het incident sneller gaat verlopen. Kun je het dan nog bijhouden, kun je er dan nog steeds vooruit komen?
  • Langzamer.
    • Het incident verloopt langzamer dan iedereen denkt. Of de oplossing verloopt langzamer dan nu wordt gezegd. Wat betekent dat?
  • Langer.
    • Wat als het probleem vanavond niet is opgelost? Dat de stroomstoring ook morgen en overmorgen duurt? Of nog langer? Een week? Of een maand?
  • Groter.
    • Wat als het incident zich uitbreidt, groter wordt. Kan je het dan nog steeds aan? Moet je daar nu al proactief rekening mee gaan houden?
  • Meer.
    • Is het mogelijk dat zich nog meer ongewenst gebeurtenissen aandienen? Dit gaat niet alleen over gelijktijdigheid, maar ook over interferentie. Kunnen ze vermengen?
  • Net als.
    • Het incident wordt extern geframed als een ander, berucht incident. Ofwel van jezelf, ofwel die van een ander. Welk incident bevecht je dan nog?
  • Anders.
    • Kan dit onverwachts een ander incident worden? Bijvoorbeeld, kan een brand opeens een discussie worden over naleving van wet- en regelgeving en wordt je opeens als onbetrouwbaar afgeschilderd?
  • Domino.
    • Zijn er domino effecten mogelijk dan wel te verwachten? Bijvoorbeeld dat jouw rookwolk leidt tot de sluiting van een ander bedrijf plus evacuatie waardoor het onderliggend wegenstelsel verstopt, et cetera.
  • Schuld.
    • Is er sprake van schuld dan wel nalatigheid van jou of je partners / stakeholders?
  • Opzet.
    • Wat als er sprake is van opzet, sabotage of een aanslag?
  • Framing.
    • Hoe moet je omgaan met laster, valse beschuldigingen, insinuaties of kwaadsprekerij?
Brandweer bezet de IJ-tunnel 16 december 1982. Foto Rob Croes ANP

Het gebruik van gidswoorden is een manier om uit je tunnel te komen, maar wees er niet rigide in. Het is niet de bedoeling dat de gidswoorden je een nieuwe tunnel in helpen. Ga er dus zorgvuldig, maar wel creatief, mee om. Oefen je organisatie er mee in de praktijk, kijk wat werkt en wat niet. Let er bijvoorbeeld op dat je niet plichtmatig het rijtje afloopt en voorbij gaat aan de mogelijkheid dat er meerdere gidswoorden met elkaar interfereren tot een nieuwe dreiging.

Misschien moet je rollen definiëren zoals in de officiële HAZOP, met een teamleader, schrijver en specifieke inhoudsdeskundigen. Dat is natuurlijk afhankelijk van het risicoprofiel en gevoeligheid van je organisatie voor ongewenste gebeurtenissen. Maar als het goed is was je daar al op ingericht. Inclusief de vier principes van de safe systems approach.

Overigens heb ik geen idee wat je met metasyntaxische variabelen moet. En oh ja, mocht je nog aanvullingen hebben op de gidswoorden voor crisisscenario’s, mail ze dan naar info@rizoomes.nl. Rijtjes kunnen altijd langer.

Update 11 juni 2022: de andere scenariovraag

De afgelopen drie weken heb ik een paar trainingen gegeven aan nieuwe crisisteamleden en voorzitters. Vanzelfsprekend kregen die van alles te horen over De kleine taxonomie van de ongewenste gebeurtenis, de Dikke BOB en De regels van het Dode Paard. En daarna gingen we oefenen. Met scenario’s.

Wat me toen voor het eerst echt opviel: de moeite die mensen hebben om scenario te denken. Vraag ze wat er hoogstwaarschijnlijk gaat gebeuren als je niet ingrijpt bij een startgebeurtenis en je krijgt gloedvolle betogen over wat je dan allemaal te wachten staat. Dus met de hard skills zit het echt wel goed.

Maar als je vraagt om bij dezelfde startgebeurtenis een best-, real- en worstcase- scenario te maken dan wordt het stil. Dat vinden vakprofessionals moeilijk, als incidentbestrijding hun bijvak is. Omdat ze vanuit de inhoud van hun werk opeens in een vorm van procesdenken worden gestopt. Waar ze eerst in hun vak zaten, komen ze er door scenariodenken opeens buiten te staan. Alsof plotseling hun ervaring in één keer was weggevallen.

De oplossing bleek eenvoudig. Stel de andere scenariovraag.

Wat wil je absoluut niet dat er gebeurt? (worst case)

Wat wil je dat er wel gebeurt? (best case)

Als je het zo omschrijft vervalt bovendien de noodzaak van een real case. Die stopt iedereen er eigenlijk alleen maar bij omdat de anderen het ook zo doen. Want eigenlijk stuur je op maar twee scenario’s. Wat je absoluut niet wilt en wat je wel wilt.

Bovendien stuur je op beide scenario’s tegelijk, als het kan. Wat je wel wilt en wat je niet wilt sluit elkaar namelijk zelden uit. Je wilt het allebei. Dat je dan ook nog een Plan B nodig hebt voor als het tegenzit vond iedereen logisch. De gidswoorden hielpen daar overigens prima bij.

Waarop ik me afvroeg: zou scenariodenken niet altijd tot tunnelvisie leiden?


Als je meer wilt weten over tunnelvisie kijk dan ook even bij De nieuwe Wet van Murphy en bij Tunnelvisie door je Scenariokaart.

Personal resource management: controlelampjes voor de crisismanager

Leestijd: 9 minuten

Are things truly not going well … or do I just need some food, water, and a short break?​

James Clear (atomic habits)

Tijdens crises functioneert alles anders en liggen menselijke fouten op de loer. Hoe mooi is het als er controlelampjes zouden zijn voor de crisismanager, die aangaan op het moment dat zo’n fout dreigt. Die controlelampjes voor de geest kun je zelf maken, maar je moet ze wel eerst trainen. Met personal resource management.

Enkele weken geleden probeerden we een nieuwe vorm van oefenen op afstand uit. Via Teams hadden we een Schiphol Team Plaats Incident (STPI) uitgenodigd om met elkaar een incident door te spreken. Een STPI is eigenlijk het klassieke CTPI, dat om onduidelijke redenen ooit werd opgeheven en nu weer informeel terug is onder de naam Motorkapoverleg (MKO). Een STPI is dus een MKO.

De gedachte was om aan de hand van een ambigue startgebeurtenis te bespreken wat iedereen zou gaan doen en welke informatie en ondersteuning, dan wel opschaling, daarvoor noodzakelijk was. Ook als het incident zich verder zou ontwikkelen in nog onbekende richting. Want dat wilden we laten afhangen van de input van de deelnemers. Uiteindelijk bestond het STPI uit 8 mensen. En ik was degene die het geheel aan elkaar ging praten.

Dat lukte in het begin best goed, maar naarmate de oefening vorderde moest ik steeds meer ballen in de lucht houden; de doorontwikkeling van het scenario, vragen stellen aan de verschillende disciplines over hun acties en overwegingen en die relateren aan de andere disciplines, samenvatten en vooruitdenken. Ondertussen zie je acht mensen op je beeldscherm die ook nog eens andere dingen gaan zitten doen, gezichtsuitdrukkingen die je niet kunt inschatten, alle microfoons op mute dus je hoort vooral jezelf waardoor je non-verbale feedback mist, enfin, ik kreeg het volgens mezelf steeds drukker en drukker.

Veel controlelampjes in de meldkamer van Doodewaard, 1969. Foto ANP.

Dat was het moment dat één van mijn controlelampjes aanging: het tehardwerken lampje. Ik merkte dat ik te weinig denkcapaciteit ging overhouden om dit incident nog lang in goede banen te leiden. Tijd dus voor een interventie, om de kwaliteit van de oefening op peil te kunnen houden.

Metacognitie

In 2021 zit ik dertig jaar in het vak. In al die jaren ben ik me steeds bewuster geworden van de controlelampjes voor de crisismanager. Enerzijds omdat ik ze bij mezelf leerde herkennen, maar ook door die talloze trainingen en oefeningen die ik heb begeleid en waar ik anderen zag stoeien met hun besluitvorming-onder-tijdsdruksgeesten. Tunnels zag ik, cirkelredenaties, stick to the plan bias, tijdcompressie, informationbias, groupthink, noem het allemaal maar op.

Uit al die ervaring destilleerde ik een rijtje controlelampjes voor de crisismanager. Dat zijn signalen over jezelf die je kunt trainen. Het is net een soort spier, je metacognitie-spier. Metacognitie betreft de kennis en vaardigheden om het eigen denken, handelen en leren te organiseren, te sturen en te controleren. Het gaat onder andere om vaardigheden voor beeldvorming, oordeelsvorming en besluitvorming, doelen stellen, plannen en controleren.

De essentie van metacognitie is dat je je bewust bent van jezelf in het totaal, tijdens het managen van de crisis of disruptie. Maar metacognitie kost energie en denkkracht. Onder tijdsdruk heb je die maar heel beperkt. Dan is je metacognitie ook nog eens als eerste weg, zonder te waarschuwen. En weg is weg, zit je daar in je eentje zonder jezelf. Dat voelt eenzaam, en je weet niet eens waarom.

Onder metacognitie valt ook nog het na afloop evalueren van jezelf en het daarop reflecteren wat je over jezelf hiervan kan leren. Het trainen van je metacognitie-spier bevat dus nog best wel een aantal stappen. Daarom noem ik het ook wel personal resource management; het trainen, managen en verbeteren van je persoonlijke denkcapaciteit, je self skills (als aanvulling op hard- en soft skills).

Mindfulness

Binnen veel hulpverleningsdiensten is er de laatste jaren aandacht gekomen voor die menselijke factor onder tijdsdruk. Onder andere bij de brandweer zijn er programma’s gestart over mindfulness. Het IFV bijvoorbeeld publiceerde een studie over mindfulness onder de titel ‘Met beide benen op de grond.’ Daarin werd het volgende opgeschreven:

“De conclusie van dit verkennend onderzoek is dat mindfulness een bijdrage kan leveren aan een betere besluitvorming onder druk door commandovoerders bij de brandweer. Uit de literatuur blijkt dat mindfulness de emotionele stabiliteit bevordert en bijdraagt aan het geestelijk welbevinden. Het beoefenen van mindfulness leidt tot een grotere mentale veerkracht. Deze mentale veerkracht is nodig om onder grote stress te kunnen blijven functioneren.”

In de studie wordt ook een kleine pilot beschreven, waarbij officieren getraind werden in ademhalingstechnieken en het leren omgaan met jezelf in extreme koude. Deelnemers rapporteren daar gematigd tot zeer positief over. Toch concludeert het IFV dat daarmee de weg naar mindfulness niet open ligt. “Mindfulness wordt door sommigen geassocieerd met ‘zweverig’ en niet-praktisch. De implementatie kan daarom op emotionele weerstand stuiten, zo heeft met name de evaluatie van de pilot geleerd.”

Maar mindfulness hoeft helemaal niet zweverig te zijn. Mensen die onder druk staan en daar al enige ervaring mee hebben, merken bij zichzelf bijvoorbeeld eerder dan onervaren mensen dat hun stem hoog in de keel zit en de ademhaling daar vlak onder; hoog in de borst, in plaats vanuit de buik. In reguliere oefeningen kun je mensen zonder al te zweverig te worden daar al bewust van maken.

Ronin is een één van mijn favoriete films. Robert de Niro en Jean Reno worden door de IRA ingehuurd om een geheimzinnige koffer terug te halen. Spectaculaire achtervolgingen maar ook mooie dialogen met veel verwijzingen naar controlelampjes avant la lettre.

In het personal resource management kun je dan al snel de eerste twee controlelampjes installeren: hoge stem en / of hoge ademhaling? Even met beide benen op de grond, diep ademhalen en aarden in het hier en nu, uit je hoofd. Zeg het ook gelijk (zelfonthulling, zie ook dit blog over de regels van het dode paard) en maak het daarmee bespreekbaar voor anderen. Tijdens crisis moet je het namelijk ook over jezelf en het proces hebben. Dat wordt nog wel eens vergeten.

Controlelampjes

Naast deze controlelampjes voor ademhaling en stemhoogte zijn er nog veel meer. Het hangt een beetje van de persoon af welke en hoe goed ze zijn. Ik heb er een paar voor je verzameld die ik hier kort zal bespreken.

  • Het tehardwerken lampje. Als je bij jezelf voelt dat je echt heel hard aan het werk bent, sta daar dan even bij stil. Hard werken tijdens crisis is niet abnormaal, maar het is wel een signaal dat je aan het eind van je cognitieve ruimte komt. Je zit vlak bij het moment dat je niks extra’s aan informatie meer kunt opnemen of verwerken. Daardoor ga je dingen missen en niet meer zien, loopt je situational awareness van je weg en ben je een beperkende factor als het incident nog veel groter gaat worden. Kijk of je bijvoorbeeld moet opschalen, compartimenteren, aflossen of pauzeren.
  • Het gaatbestgoed lampje. Dit is een gevaarlijk lampje. Tevredenheid over je inzet moet je niet verwarren met zelfgenoegzaamheid. Groupthink ligt op de loer. Als het vette crisis is en er is van alles aan de hand, dan kan het eigenlijk niet goed gaan. Dat is de basis-assumptie. Als jij dan denkt dat het lekker gaat, heb je misschien al van alles gemist. Dus ga checken: gaat het echt goed, of denk ik dat maar? Haal er een tegenspreker bij. Laat iemand doemdenken. Bewaak de chronic unease.
  • Het inzoom lampje. Misschien is dit wel het lampje dat ik het eerst ontdekte. Bij spannende incidenten trekt de bron je als een magneet naar zich toe. Je springt er gelijk bovenop. Maar als je voorzitter bent van een team is dat levensgevaarlijk: daarmee raak je het totaaloverzicht direct kwijt en loop je een tunnel in. Details trekken details aan en voor je het weet ben je ondergesneeuwd door een lawine van niksigheid. Ja, er moet iemand bovenop die bron en de details gaan zitten, maar niet jij. Dus voel je bij jezelf dat incident trekken en wil je inzoomen, doe dan precies het tegenovergestelde. Zoom uit. Start je helikopter blik. Bewaak de hoofdlijn. Da’s jouw taak, en verdeel de rest onder je team.
  • Het watvliegtdetijd lampje. Ook dit is een deksels lampje. Onder tijdsdruk ben je gauw het gevoel voor tijd kwijt, in de zin dat dat veel minuten voelen als weinig. Tijdcompressie, heet dat, en zeker in situaties met kritieke tijdspaden loop je zomaar de bietenbrug op en kom je er te laat achter. Het watvliegtdetijd lampje is echter een heel zwak lampje. Die moet je dus een beetje helpen met een extern lampje: laat iets of iemand elk kwartier dat voorbijgaat hardop omroepen. Laat ergens een klok meelopen. En waarschuw voordat het tijd is, niet als het tijd is. Dat is precies het verschil tussen proactief en reactief crisismanagement.
  • Het twijfelniet lampje. Als je twijfelt, twijfel dan niet. Twijfel is een weak signal dat er misschien iets aan de hand is wat je bewuste nog niet heeft opgevangen. Luister daar naar. Twijfel moet natuurlijk geen besluiteloosheid worden. Dus pak bij twijfel het zekerste alternatief. Twijfel je over opschalen? Opschalen! Wel of niet aflossen? Aflossen! Wel of niet stakeholders informeren? Informeren! Als je bij elke twijfel het zekerste alternatief neemt, bouw je redundantie in je tijdelijke crisis bouwwerk. Altijd handig, voor als er nog escalatie- of complicatiefactoren bijkomen.
personal resource management
De mooiste quote uit Ronin die ik vaak gebruik als feed-back in het personal resource management.

Personal resource management

Elk controlelampje is op zichzelf een controlelampje voor de metacognitie: als je er niet naar luistert, is het volgende wat verdwijnt je metacognitie. Zonder metacognitie ben je mentaal stuurloos en dirigeert het incident jou, in plaats van andersom. In die zin telt elk controlelampje voor de crisismanager voor twee.

In personal resource management is het trainen, bewaken en verbeteren van je controlelampjes een belangrijk doel. Tijdens oefeningen zou je daar eigenlijk voldoende tijd voor moeten vrijmaken. Dat kan een hoop ellende voorkomen. Houd echter wel goed in de gaten dat controlelampjes ervaringslampjes zijn. Ga ze dus niet evalueren met zo’n gestandaardiseerde checklist die ik steeds vaker toegepast zie worden bij team resource management. Want dan gaat het lichtje uit.

Hoe het afliep met de oefening? Wel, ik zag dat we al bijna een uur bezig waren en besloot om een versnelling in het scenario toe te passen, waardoor de Adviseur Gevaarlijke Stoffen aan de bak moest. Dat gaf mij ruimte om even van de bok af te stappen en de volgende stappen voor te bereiden om de oefening af te gaan ronden. De oefening was bedoeld als experiment en ik heb er een hoop van geleerd, met name over de beperkingen die Teams en Skype betekenen voor het uitwisselen van (non-verbale) informatie. Ik heb mijn lampjes daarom wat strakker afgesteld voor online crisismanagement. Ook dat is personal resource management.

Nog meer weten over personal resource management? Zie hieronder een rijtje blogs die ik ook schreef over dat onderwerp.

De verstopte crisis bij de demonstratie op de Dam

Leestijd: 8 minuten

Over de demonstratie op de Dam van 1 juni 2020 verscheen onlangs een rapport onder de titel ‘De verkeerde afslag.’ Het is in het Regionaal Beleidsteam van de Veiligheidsregio Amsterdam Amstelland te prijzen dat zij deze kans om te leren niet voorbij heeft laten gaan. Graag draag ik daar mijn steentje aan bij door in dit blog te beschrijven hoe je met een andere bril op ook nog iets over VUCA, situational awareness en fundamental surprise uit het rapport kunt halen.

“Ik voel een update van de blog van @Rizoomes over Whatsapp crisismanagement aankomen.” Een tweetje van één regel, op 21 oktober verzonden. Ik fronste mijn wenkbrauwen. Ze zullen toch niet naar mijn blog verwezen hebben in een onderzoeksrapport, ging het door mij heen. Dat moest ik maar eens snel uitzoeken.

En zo kon ik gelukkig al gauw vaststellen dat ze dat niet hadden gedaan, naar mijn blog verwijzen. Wat er wel was geadviseerd in het rapport ‘De verkeerde afslag’ was om Whatsapp af te schaffen. Laat dat nu precies de enige aanbeveling zijn die ik niet goed begrijp in een verder zeer informatief rapport, waar net zo veel te leren valt van wat er in- als tussen de regels is geschreven. Alleen daarom al een aanrader.

Enkele van de tweetjes die mij op het verschijnen van ‘De verkeerde afslag’ hebben gewezen

Ook interessant: de bestuurlijke reactie. Al in de tweede alinea steekt het met-de-kennis-van-nu syndroom de kop op. “In het rapport staat goed beschreven hoe in de voorbereiding, naar achteraf bleek, een verkeerde inschatting van het aantal deelnemers is gemaakt en hoe die heeft doorgewerkt tijdens en na de demonstratie.”

Mijn persoonlijke mening is dat er vooraf wel zeker een betere analyse te maken was geweest, maar dan moet je wel een iets andere bril opzetten dan die van ‘foutje, bedankt.’ Die andere bril haal ik uit een aantal blogs die ik de laatste maanden geschreven heb. Het rapport ‘De verkeerde afslag’ is mooie input om een paar van die concepten te illustreren. Zie dit blog dan ook niet als een correctie op het rapport, maar als een illustratie van wat je er nog meer uit kunt halen. Met een andere bril.

VUCA

Zoals in dit blog beschreven is VUCA een afkorting van Volatile, Uncertain, Complexity en Ambiguity. Het is een mini-checklist die je naast elke situatie kunt leggen. Hoe hoger je scoort, hoe groter de kans dat je gebeurtenis ontspoort. De (incomplete) analyse hieronder laat zien hoe crisisgevoelig de demonstratie was:

  • De organisatie van de demonstratie verliep al zeer volatiel. Sowieso veranderde het organisatiecomité enkele keren van samenstelling en van mening, ook het aantal deelnemers bleef in de aanmeldingen stijgen. Er was veel aandacht voor in de pers en Groen Links riep op om naar de demonstratie te komen. De volatiliteit was dus tamelijk groot. Zie het feitenrelaas uit het rapport voor meer voorbeelden
  • De onzekerheid over de uitkomst van de demonstratie was ook hoog. In andere landen waren er plunderingen en rellen uitgebroken die het onzeker maakte wat er in Nederland zou gaan gebeuren. Sowieso was het uiteindelijk aantal deelnemers aan de demonstratie onzeker.
  • De complexiteit was zo mogelijk nog hoger. Er is natuurlijk sprake van de anderhalve meter maatregel, die elke bijeenkomst al standaard ingewikkeld maakt. Maar dan was het ook nog een zondag, Pinksteren, mooi weer en de eerste dag dat de horeca na twee maanden sluiting weer open mocht. Daarnaast was er uit medische, toen nog totaal onverdachte hoek, onbegrip gekomen over de demonstratie op de Dam. Het is zeer onvoorspelbaar hoe die variabelen met elkaar zullen interacteren. In dit blog over escalatie- en complicatiefactoren zie je nog meer voorbeelden die de complexiteit van een incident vergroten.
  • Tot slot de ambiguïteit. Gezien alle discussie die er in de pers en op social media al vooraf plaatsvond over de demonstratie was het duidelijk dat je het nooit goed kon doen. Er is altijd minimaal één partij die zich zal opwinden en zich als crisismakelaar op kan stellen. Niet alleen over de wijze waarop de demonstratie is verlopen maar ook hoe die had kunnen verlopen.

Wat er in deze korte analyse goed uit elkaar moet worden gehaald is de demonstratie als dreiging voor openbare en publieke gezondheid en de demonstratie als institutionele crisis voor het bevoegd gezag. Het is mijn stellige overtuiging na het lezen van ‘De verkeerde afslag’ dat zo’n onderscheid in Amsterdam niet goed op het netvlies heeft gestaan. Dat brengt mij bij de tweede bril, de kleine taxonomie van de ongewenste gebeurtenis.

Kleine taxonomie van de ongewenste gebeurtenis

Laat ik beginnen met te zeggen dat de demonstratie zelf natuurlijk geen ongewenste gebeurtenis is. Het is een grondrecht en in die zin een legale gebeurtenis. Voor hulpverleningsdiensten en het bevoegd gezag is het vervolgens wel hun taak ervoor te zorgen dat het geen ongewenste gebeurtenis wordt.

Om dat goed te kunnen doen moet je in deze VUCA-tijden over duidelijke definities beschikken van de verschillende soorten incidenten. Elk type kent zijn eigen karakteristieken en vraagt om andere competenties. In dit blog ben ik daar uitgebreid op ingegaan.

Emergency, disruptie, dreiging en crisis zijn met elkaar verbonden. Elke ongewenste gebeurtenis scoort in meer of mindere mate op elk van de vier basisvormen, maar ontwikkelt zich soms ook van de ene naar de andere vorm. Dat is niet altijd direct zichtbaar, ik noem dat een verstopte gebeurtenis. Voor de overheid geldt dat emergency, disruptie en dreiging fysieke incidentvormen zijn waar zij in optreedt. Zie het maar als het product of de taak van de hulpverleningsdiensten. Echter, crisis is een verhaal en slaat terug op de uitvoerder zelf. Op de reputatie, het gezag, gepercipieerde competentie of het vertrouwen, soms ook wel insitutionele crisis genoemd. Die kan volgen uit een fysiek incident, maar het hoeft niet.

Voor de demonstratie op de Dam geldt dat de risico-inschatting is gebaseerd op een dreigingsscenario voor openbare orde en publieke gezondheid. Daarbij was het aantal deelnemers de leidende risico maatstaf. ‘De verkeerde afslag’ beschrijft waarom die inschatting niet goed gemaakt is en welke problemen dat met zich meebracht.

Maar naast die foute dreigingsinschatting zat in de demonstratie ook de (institutionele) crisis nog verstopt. Als je er niet naar kijkt, zal je hem echter niet zien. Dat is wat ik in dit blog situational awareness level nul heb genoemd. En als je situational awareness nul is, dan is je option awareness ook nul. Je valt dan terug op wat je nog wel hebt, maar wat daar niet altijd geschikt voor is. Whatsapp bijvoorbeeld.

Uit het rapport blijkt dat Halsema wel aanvoelde dat er iets aan de hand was, maar dat ze geen andere opties zag. “Achteraf denk ik dat we wel degelijk andere middelen hadden moeten proberen in te zetten. Die waren op dat moment niet voorhanden vanwege de strategie die we hadden gekozen. Dat vind ik jammer.”

Hier wreekt zich dat er na de Wet op de Veiligheidsregio’s ‘crisis’ is gemaakt van dat wat vroeger nog gewoon een ramp, ongeval of incident heette. Bij alles wordt de GRIP uit de kast getrokken, maar daar heb je voor een institutionele crisis helemaal niets aan. Wat de demonstratie op de Dam goed laat zien is dat je naast een incidentkwalificatie voor spoedeisende hulpverlening, dreiging en disruptie, ook een kwalificatie en opschaling nodig hebt voor crisis. Inclusief een dedicated structuur met teams en de daarbij horende capabilities en competenties. Dat zal zowel de situational- als option awareness vergroten.

Fundamental surprise

Ik denk dat iedereen er rekenschap van zal moeten nemen dat in deze polariserende tijden de geloofwaardigheid van het bevoegd gezag (en eigenlijk van iedereen wel) structureel ter discussie wordt gesteld. Niet alleen meer na een incident, als er iets mis is gegaan, maar ook al vooraf en tijdens, wanneer er nog niets is gebeurd.

Verantwoording afleggen is dus niet meer zoals vroeger iets van achteraf, na een ontsporing, maar van altijd. Crisis is een proces, een kloof tussen partijen die door een ongewenste gebeurtenis voor iedereen zichtbaar wordt. Maar die zolang hij nog verstopt zit, alleen wordt gezien als je ernaar zoekt. Dat is precies wat Zvi Lanir een fundamental surprise noemt. Ik schreef er in dit blog over.

Het hoofdstuk ‘beschouwing’ van het rapport beschrijft in een aantal alinea’s zinsneden die op zijn minst rieken richting een fundamental surprise.

“Betrokkenen wezen op excuserende factoren. Zo was er volgens hen geen precedent van demonstraties die onverwacht heel veel meer mensen hadden aangetrokken. De organisator zou zorgdragen voor het volgen van de RIVM-richtlijnen (wat ook de verantwoordelijkheid van de organisator is). Het plunderscenario was veel dominanter dan het scenario van te veel mensen. De voorbereidingstijd was heel kort (waardoor het onwaarschijnlijk is dat de organisatie veel mensen op de been zal kunnen brengen, zo leerde de ervaring). De Dam had ruimte voor duizend mensen die zich 1,5 meter van elkaar konden bewegen (en de schatting van het aantal demonstranten was altijd lager dan 1000). De informatie-uitwisseling was beperkt rond de Dam (het mobiele netwerk was overbelast), waardoor agenten niet via WhatsApp konden communiceren. Het was, met andere woorden, een ‘perfect storm’. De kans dat zo’n storm opnieuw opsteekt, is verwaarloosbaar, zo lijkt het idee.”

Visual note van Wendy Kiel over institutionele crisis zoals beschreven door Arjen Boin.
(via rechter muisknop ‘afbeelding bekijken’)

Deze opsomming bevat in vrijwel elke regel een andere human bias die het zicht op de werkelijkheid ontneemt, zoals Kahneman die in Thinking Fast and Slow zo mooi beschreven heeft. Maar er is meer:

“Veel van onze respondenten vertelden ons dat ze weinig redenen zien de bestaande werkwijze aan te passen. Wij hebben 1500 demonstraties per jaar waarover u nooit iets hoort omdat ze altijd goed gaan.”

En ook nog:

“Het is, ook achteraf, nog niet helemaal duidelijk onder welke condities de driehoek wel fysiek bij elkaar zou zijn gekomen.”

Verstopte gebeurtenis

Deze en nog enkele andere observaties uit het rapport wijzen op een zelfbeeld die in de veiligheidskunde als complacent te boek staat, zelfgenoegzaamheid. Bij onder andere Shell is het risico van een complacent veiligheidscultuur al langer onderkend en dat heeft geleid tot programma’s als ‘chronic unease.’ Juist om een fundamental surprise te voorkomen.

Het zal ook om die reden zijn dat ‘De verkeerde afslag’ aanraadt om op zoek te gaan naar de Black Swan bij risico-analyses, alhoewel ik daarbij zelf dacht dat het zoeken naar een unknown known met behulp van goede checklisten al heel mooi zou zijn.

Dat in de bestuurlijke reactie eigenlijk alleen wordt gesproken over enkele technische zaken, zoals een herziening van de crisiscommunicatie, geeft aanleiding te denken dat de fundamental surprise door de gemeente nog niet helemaal herkend is.

Die institutionele crisis zit daarom nog steeds ergens verstopt, zij het niet meer bij de demonstratie op de Dam. Op enig moment zal hij zich weer openbaren, in een nieuwe dreiging of disruptie, het verbod op Whatsapp ten spijt. Dat is althans wat ik van het rapport het geleerd.

Dit is het zesde deel van de surprise dagboeken. Eerdere afleveringen vind je hier. Het blog is ook gelinkt aan ‘Human Factors’. Daarover vind je hier meer blogs.

De zes B’s van de Dikke BOB

Leestijd: 5 minuten

De zes B’s van de Dikke BOB helpen je bij de beeldvorming over een ongewenste gebeurtenis. Het zijn zes lijstjes met vragen over bron, bedrijfsvoering, bereikbaarheid, beeldvorming extern, bestuur en bijzonderheden. Blog drie uit de serie ‘disruptiemanagement’.

De eerste twee blogs zijn ‘Kleine taxonomie van de ongewenste gebeurtenis’ en ‘Dikke BOB is voor Disruptie.’ Het maakt het begrip van dit blog effectiever als je die eerst leest.

De Dikke BOB is bij uitstek geschikt om de besluitvorming tijdens disrupties te managen, zoals ik eerder schreef in dit blog. De beeldvorming speelt daarin een zeer belangrijke rol: dat is de fase waarin je het bronincident (de spoedeisende hulpverlening of de emergency response ER) moet afzetten tegen de verstoring op je bedrijfsvoering of processen, de disruptie.

Feitelijk definieer je in de beeldvorming dus twee ongewenste gebeurtenissen (of meer, als de complexiteit van het incident daar om vraagt) en ga je vervolgens zelf aan de slag met de disruptie. De bronbestrijding laat je over aan de vakmensen ter plaatse, zoals de brandweer, elektriciens of cyberspecialisten. Vanzelfsprekend houd je wel rechtstreeks contact met de teams daar ter plekke, maar als het goed is heb je dat al in je crisis governance beschreven. Daar ga ik het hier verder niet over hebben.

De zes B’s

De Dikke BOB onderscheidt twee hoofdtaken in de beeldvormingsfase: situatie- en scenarioanalyse. In dit blog ga ik nader in op de situatieanalyse en dat doe ik aan de hand van de 6B’s. De zes B’s zijn bedoeld om op een gestructureerde manier naar de bron te kijken en een zodanige beschrijving te maken van de startgebeurtenis dat je hem kunt gebruiken om de disruptie eruit te distilleren. De verdere uitwerking van de disruptie volgt dan in de scenario-analyse. Daarover meer in een volgend blog.

Disruptiemanagement
Tijdens een stroomstoring (de bron) op 1 september 1989 lag het treinverkeer volledig stil en moesten reizigers met bussen vervoerd worden (de disruptie). Foto Paul Eijzinga ANP

Zoals alles in het crisis- en disruptiemanagement (of hoe je het ook wilt noemen) moet je de zes B’s niet al te letterlijk nemen. Het is een richtlijn, een hulpmiddel voor het denken, geen corset. Wijk er dus zo veel van af als je zelf wilt of val er helemaal op terug als je even geen andere optie meer hebt. Maar wat je ook doet, oefen er eerst mee. Want je moet de zes B’s wel een beetje tweaken richting je eigen bedrijf of organisatie. Daarom is dit blog niet zozeer een beschrijving geworden, als wel een incompleet lijstje vragen.

In de beeldvormingfase zijn goede vragen veel belangrijker dan antwoorden.

Je moet immers een open mind houden, zeker in het begin. Antwoorden komen meestal niet eerder aan bod dan op het einde van de oordeelsvorming. Pas de vragen overigens vooral aan naar een lijstje dat geschikt is voor jouw organisatie en/of je eigen rol daarin.

Wanneer gebruik je de zes B’s? Eigenlijk wanneer je wilt natuurlijk. Voor eenvoudige en standaardincidenten heb je het vaak niet nodig, zeker niet met een ervaren team. Van de andere kant moet je er bij elke ongewenste gebeurtenis voor waken dat je op de automatische piloot gaat met oogkleppen op. Dat pleit er dan weer voor om toch bij elk incident even de zes B’s door te lopen. En dan vooral de laatste, over ‘bijzonderheden’.

Maar we beginnen nu met de eerste van zes B’s, bron.

Bron

  • Is er een externe kwalificatie van de bron, zoals GRIP?
  • Is er een interne kwalificatie?
  • Wat is de locatie van het incident? Ligt de bron op ons terrein of erbuiten?
  • Zijn er slachtoffers, gewonden en/of vermisten?
  • Is eigen personeel op enigerlei wijze geraakt door het incident?
  • Hoe ontwikkelt de bron zich waarschijnlijk in de tijd? Hoe snel is het onder controle?
  • Is het een statisch of dynamisch incident?
  • Is er alleen sprake van dreiging of is er ook fysieke schade?
  • Als het incident onder controle is, moet er dan veel schade worden hersteld?
  • Is er aanleiding om te veronderstellen dat plaats incident, plaats delict wordt?

Bedrijfsvoering

  • Is het bedrijf nog open of zijn we gesloten? Wat is de (rest)capaciteit?
  • Welke processen zijn verstoord?
  • Hoe lang zijn de processen nog verstoord?
  • Is er sprake van een creeping disruption?
  • Is er gevaar voor keteneffecten? Komt de schade terecht bij anderen?
  • Kunnen we het aan met ons personeel of zijn er versterkingen nodig?
  • Is opschaling nodig in verband met complexiteit, duur of ernst van het incident?

Bereikbaarheid

  • Kunnen klanten, leveranciers et cetera ons nog bereiken via auto, trein en/of bus?
  • Moeten er aanvullende maatregelen worden getroffen?
  • Moet er gecommuniceerd worden om wel of niet naar onze locatie(s) te komen?
  • Hoelang duurt het voor bereikbaarheid hersteld is?
  • Wat is de uitstraling als onze lokatie (deels) is afgesloten?
  • Zijn we digitaal en telefonisch bereikbaar?

Beeldvorming extern

  • Hoe komt het incident in de traditionele pers? Regionaal, nationaal en internationaal.
  • Hoe komt het incident in de social media? Regionaal, nationaal en internationaal.
  • Is er specifieke aandacht voor onze organisatie rondom het incident?
  • Hoe reageren klanten en stakeholders op het incident op social media?
  • Gaan we zelf ook communiceren of gaat het gezamenlijk in overleg met veiligheidsregio, klanten, stakeholders, enzovoorts?
  • Wat is er aan interne communicatie (eigen personeel) noodzakelijk?

Bestuur

  • Hoe reageren bestuurders, raadsleden, burgemeesters et cetera op het incident?
  • Wie is bestuurlijk in the lead?
  • Hoe is de opschaling nationaal en naar ministeries?
  • Zijn er vergunningszaken aan de orde in het kader van de license to operate?
  • Welke stakeholders moeten geïnformeerd worden?
  • Welke stakeholders moeten geconsulteerd worden?
  • Zijn er acties internationaal nodig?
  • Wordt er strafrechtelijk onderzoek gedaan of verwacht?
  • Gaan er externe commissies onderzoek doen? (Onderzoeksraad voor Veiligheid OVV, Inspectie Veiligheid & Justitie IVJ, eventuele toezichthouders)

Bijzonderheden

  • Zijn er complicatie- of escalatiefactoren te verwachten?
  • Wat zijn consequenties van het incident en de genomen maatregelen voor de omgeving?
  • Is nazorg eigen personeel noodzakelijk?
  • Hebben we een rol in de oorzaak van het incident? Zijn we mogelijk ergens aansprakelijk voor?
  • Worden er mogelijk gegevens van onze organisatie in beslag genomen in verband met onderzoek?
  • Moeten we zelf onderzoek (laten) doen?

Zoals gezegd is de laatste B, die van bijzonderheden, wel een lijstje om bij afwijkende incidenten in je achterhoofd te houden. Het zijn namelijk allemaal triggers voor crisis en dat is weer heel wat anders dan een disruptie of een spoedeisende hulpverlening.

Mede daarom heb ik over complicatie- en escalatiefactoren een apart blog geschreven, met name om je proactief eens aan het denken te zetten over je eigen organisatie. Want crisismanagement is meer dan het aflopen van een besluitvormingscyclus.


Dit is het derde blog in een serie over disruptiemanagement. Andere blogs zijn:

  1. Kleine taxonomie van de ongewenste gebeurtenis
  2. Dikke BOB is voor Disruptie
  3. De zes B’s van de Dikke BOB
  4. De ellende van complicatie- en escalatiefactoren
  5. Beginselen van disruptiemanagement
  6. Beeldvorming trainen voor de Dikke BOB
  7. De onderstroom van crisis
  8. De VUCA vinklijst voor disruptie en crisis
  9. Kwetsbaarheidsanalyse met de Rumsfeld Matrix

De verrassing van een foute situational awareness

Leestijd: 8 minuten

Situational awareness was opeens een buzzwoord in de wereld van incidentbestrijding en crisismanagement. Weten wat er om je heen gebeurt, zo laat het zich vertalen. Zeer geschikt om het er op abstract niveau met iedereen over eens te zijn dat de situational awareness ontbrak, hoger had moeten zijn of niet mogelijk was in het scenario van gesprek. Als je wat meer in detail gaat kijken, dan blijkt die consensus soms opeens verdwenen als sneeuw voor de zon.

Daarom leek het mij een goed idee om situational awareness eens wat nader te duiden met een heel concreet voorbeeld van een wandeling. Het laat zien hoe makkelijk een foute situational awareness ontstaat en voor welke verrassing je dan kan komen te staan. Want ja, dit was een heel onschuldige wandeling, maar in spannender omgevingen kan er wel degelijk (grote) schade ontstaan.

Waterliniepad

Stel, je gaat een stuk wandelen van het Waterliniepad, bijvoorbeeld de route tussen Bussum en Weesp. Het is zondag en mooi weer. Misschien heb je het boekje bij je, ik weet het niet, maar meestal kom je al een heel eind door het volgen van de rood-witte stickers. Lange afstandpaden lopen is niet veel gecompliceerder dan goed om je heen kijken en de bordjes, dan wel stickers, volgen. Je hebt er geen bijzondere kennis, ervaring of opleiding voor nodig.

Zo makkelijk is het eerste niveau uit het situational awareness model van Mica Endsley dus eigenlijk: het waarnemen van de relevante elementen, status en dynamiek uit de omgeving. Je komt er een heel eind mee.

Maar niet altijd ver genoeg. Op zeker moment arriveerden wij via de Verlengde Fortlaan op de T-splitsing met het Naardermeer. Daar werden onze relevante elementen uit de omgeving opeens diffuus. Naast de ongemarkeerde wit-rode stickers verschenen er namelijk ook exemplaren met het symbool van het Trekvogelpad. Verder waren er stickers met de tekst ‘alternatieve route’ en ‘gewijzigde route.’ Wat zou daar het verschil tussen zijn? Of is het misschien hetzelfde?

Om het nog ingewikkelder te maken bleek ook het Laarzenpad van Natuurmonumenten onderdeel uit te maken van de linker route. Het was echter onduidelijk of dat nu leidde tot een gewijzigde route, een alternatieve route of allebei. Hoewel dat laatste in dit geval niet kon, omdat het in tegengestelde richtingen wees.

Dit is Endsley’s situational awareness model. Proactief kun je sturen op de individuele factoren abilities, experience en training, en op de taakfactoren. Doelstellingen en aannames ontstaan in de praktijk tijdens het incident, en zijn een belangrijke input voor het noodzakelijke niveau van situational awareness. Die kan je maar ten dele vooraf beinvloeden, en dat vraagt dus om specifieke aandacht in je trainingen. In mijn ervaring is ook de long term memory store een grote factor van belang, in dit blog over de surprise sequentie aangeduid als mentale modellen. Mentale modellen kunnen heel veel informatie bevatten en ze geven veel zelfvertrouwen. Maar ze kunnen ook gewoon fout zijn of niet relevant voor de betreffende situatie, met een onprettige surprise tot gevolg.

Situational awareness level 2

Uiteindelijk gingen we naar links. Al was het maar omdat dat volgens het boekje de goede richting was. Na zo’n anderhalve kilometer kregen we het vermoeden dat het waarschijnlijk toch de verkeerde kant op was. Daarom liepen we weer terug naar de T-splitsing om opnieuw een afweging te maken. Dit was het moment waarop wij het tweede level van situational awareness moesten zien te bereiken: het begrijpen van de verhouding tussen alle waargenomen elementen uit niveau 1 in een complete ‘gestalt’, zoals Endsley het uitdrukt. Je zou het ook sensemaking kunnen noemen.

Dus wat moesten we bijvoorbeeld allemaal weten:

  • Dat er twee verschillende routes door elkaar lopen
  • Dat de gewijzigde route slaat op de werkzaamheden aan het Laarzenpad, en daarmee op het Waterliniepad
  • Dat de alternatieve route van kracht is in het broedseizoen voor het Trekvogelpad, maar dat was het nu niet
  • Dat je op het juiste kaartje in het boekje zit

Op al deze vragen hadden we nu een antwoord. Ons situational awareness level 2 was bereikt. Maar wisten we nu ook welke richting we moesten nemen? Grappig genoeg niet, daarvoor was het derde niveau van SA noodzakelijk: projectie, oftewel voorspellen hoe de situatie zich waarschijnlijk in de nabije toekomst verder zal ontwikkelen.

The task is not to see what has never been seen before, but to think what has never been thought before about what you see every day

Erwin Schrödinger (1887 – 1961)

In dit geval raadpleegden we Google Maps, om uit te zoomen en om richting te koppelen aan het doel van de wandeling, Weesp. Toen was het al gauw duidelijk. We moesten rechtsaf, over de noordzijde van het Naardermeer tot aan de Weespertrekvaart en dan weer zuidwaarts. Met dit niveau van situational awareness konden we verder weer gewoon de stickers volgen op z’n level één en bereikten we conform verwachting Weesp.

Situational awareness niveau nul

Het enige onverklaarbare was de afstand. We hadden ruim vier kilometer meer gelopen dan gepland. De oorzaak daarvan werd ons een week later duidelijk, toen we van Bussum naar Nederhorst den Berg liepen, een aansluitende route van het Waterliniepad. Opeens stonden we namelijk op precies dezelfde T-splitsing als de week ervoor. Dat is tamelijk curieus als je verschillende routes loopt.

Wat bleek: de week ervoor zijn we op enig moment de bordjes van het Trekvogelpad gaan volgen en daardoor bij de T-splitsing terecht gekomen die toevallig ook het Waterliniepad kruist. We stonden de vorige week dus op de verkeerde plek de goede informatie uit het boekje te interpreteren om richting te kiezen.

Waterliniepad
Dit is het kaartje van de route waar het fout ging. Omdat het Waterliniepad rondom Naarden / Bussum een flinke bocht maakt, kruis je op twee verschillende routes dezelfde Naardermeerweg. Wij stonden tussen de punten 40 en 41, en dat wisten we ook. Wat we toen niet door hadden was dat we op de rode lijn daarboven hadden moeten kruisen. We hadden niet gemerkt dat we eerst de stickers van het Trekvogelpad waren gaan volgen maar daarna wel weer op het Waterliniepad terecht gekomen. Allen op het verkeerde deel van de route. Maar dat ontdekten we dus pas een week later, toen we het tweede deel liepen en op precies dezelfde plek terecht kwamen.

We hadden op dat moment dus eigenlijk situational awareness niveau nul, waar we dachten op twee te zitten. Daarom hadden we ook de level drie acties nodig om uit het dilemma te komen. Mocht je je nu afvragen waarom we niet eerder zijn opgeschaald, dan zegt het model (en ik kan dat vanuit de wandelpraktijk beamen) dat de gepercipieerde complexiteit van de taak niet zodanig was dat een eerdere opschaling in situational awareness noodzakelijk leek.

Dat was natuurlijk anders geweest als we ergens midden in de jungle of boven op een berg hadden gewandeld. Dan was de voorbereiding beter geweest (you didn’t do your homework, daar is ie weer), hadden we beter materiaal bij ons gehad en hadden we ook niet echt een plan B gehad. Dat hadden we nu wel: hoe erg verdwaald kun je raken tussen Bussum en Weesp met tientallen fietsers en andere wandelaars om je heen?

Al met al een leerzame ervaring: hoe je met een eenvoudig wandelvoorbeeld iets uit kunt leggen over situational awareness. Want deze principes gelden net zo hard voor brandbestrijding, crisismanagement en noem maar op.

Wat zegt dit nu allemaal over situational awareness?

Ten eerste moet je goed beseffen dat situational awareness een psychologisch model is. Het is dus geen biologisch verschijnsel dat in de hersens is aan te wijzen. Je kunt het niet aanzetten en ook niet optillen of zo. Het is gebaseerd op het waarnemen en classificeren van gedrag, aangevuld met interviews en introspectie.

Als je wilt kun je het model bijvoorbeeld aanvullen met subcategorieën als situational awareness niveau nul. Heb ik zelf bedacht 😊. Dan zie je de elementen uit je omgeving helemaal niet eens, bijvoorbeeld door human bias als blindzicht en tunnelvisie. Of je ziet ze verkeerd, zonder dat je het weet. Waarmee ik maar wil zeggen dat het model van Endsley niet de waarheid is. Je kunt ook andere (sub)modellen gebruiken.

De drie levels van situational awareness in één oogopslag. Tekening van Wendy Kiel.

Het gaat er uiteindelijk om of een model bruikbaar is in de praktijk, vind ik. Zitten er voldoende elementen in die je kan manipuleren, sturen, veranderen. En leidt dat dan vervolgens tot min of meer voorspelbare effecten in het gedrag? Is het in te zetten om de vakbekwaamheid van mensen op een zinvolle manier te helpen vergroten? Levert het toegevoegde waarde aan de organisatie? Dat doet het model van Endsley, in ieder geval in mijn ervaring wel, en dus is het bruikbaar.

Scenario’s

Zo hebben wij op het werk scenario’s beschreven met een voorzienbaar schadebeeld (gebaseerd op de praktijk) die we gebruiken om de leden van crisis- en continuïteitsteams op te leiden naar niveau 2. Ze moeten begrijpen wat er gebeurt in primaire processen tijdens verstoringen, voor ze los mogen in de operatie. Niveau drie bereik je pas in het wild, en dan nog niet eens voor alles. Met sommige dingen doe je namelijk geen ervaring op, die zijn once in a lifetime.

Verder gebruik ik het bijvoorbeeld ook in het maken van hulpmiddelen als ‘de regels van het dode paard’, om nog maar eens wat te noemen. Voor mij zit de kracht van Endsley’s model dus met name in de anticipatie en preparatiefase. Tijdens response onder tijdsdruk ben ik er zeer terughoudend in. Dan is het nogal foutgevoelig zoals uit mijn wandelvoorbeeld blijkt. Je zit niet te wachten op een surprise door een foute situational awareness.

De capability om het juiste niveau van situational awareness te creëren tijdens een respons moet je al hebben voor die respons plaatsvindt.

Hou het in die spoedeisende praktijk dus gewoon bij de Dikke BOB of het model waarmee je opgeleid bent, zou ik zeggen. Vervolgens kan Endsley wel weer goede diensten bewijzen in de review en learnfase. Daarover wellicht meer in een volgend blog.

Dit is het vijfde deel van de surprise dagboeken. Eerdere afleveringen vind je hier. Het blog is ook gelinkt aan ‘Human Factors’. Daarover vind je hier meer blogs.

« Oudere berichten Nieuwere berichten »

© 2024 Rizoomes

Thema gemaakt door Anders NorenBoven ↑