Wanderings in crisis

Tag: Besluitvorming (Pagina 1 van 3)

Supervoorspellers. Een boekrecensie

Voorspellen is moeilijk, vooral als het om de toekomst gaat. Deze uitspraak wordt algemeen toegeschreven aan Niels Bohr, de Deense natuurkundige. Toch meent Philip Tetlock dat het wel degelijk mogelijk is over bepaalde onderwerpen een adequate toekomstvoorspelling te doen. Sterker nog, sommige mensen kunnen dat zo goed dat hij ze supervoorspellers noemt. Omdat supervoorspellen mij een heel handige vaardigheid in het crisismanagement lijkt, las ik Tetlock’s boek. Eens checken of er iets af te kijken valt.

En ja, dat is er. Supervoorspellers gaat zowel over de techniek van het voorspellen als wel de persoonlijke eigenschappen die daar bij horen. Daar steek je altijd iets van op als crisismanager. Ik heb daarom geprobeerd de rode lijn uit het boek te filteren en hier samen te vatten.

Dat viel niet mee. Tetlock gooit op z’n zachtst gezegd alles door elkaar. Hij maakt er een soort puzzel van, wier stukjes weliswaar allemaal aanwezig zijn maar niet persé in een logische volgorde. Hij lardeert dat dan weer wel met tal van voorbeelden en anekdotes uit zijn onderzoekspraktijk, wat het een levendig boek om te lezen maakt.

Dus zeker geen verloren tijd, al helemaal niet als hij tussen de regels door over de controverse tussen Klein en Kahneman begint (failure to disagree, eerder besproken in dit blog) en zijn gedachten laat varen over Black Swans en Taleb’s mening over Supervoorspellers. Dat vind ik persoonlijk leuke extra’s die dit boek verbindt met blogs als Kahneman’s Ruis, Het Onwaarschijnlijkheidsprincipe, Taleb’s Toeval en The Black Swan.

Onzekerheid

Maar we beginnen met de gasvoorraden in Nederland. Want toen Rusland Oekraïne binnenviel, werd de leveringszekerheid van aardgas opeens heel laag. Daarom kreeg Energie Beheer Nederland de opdracht om de leegstaande ondergrondse ruimte zo veel als mogelijk te vullen. Daarbij werd ingecalculeerd dat het de Nederlandse Staat wel eens 7 miljard zou kunnen gaan kosten.

Maar dat viel totaal anders uit. Er werd zelfs 9,8 miljard mee verdiend.

Kennelijk is het lastig om de gasprijs goed te voorspellen, omdat die markt soms bijzonder volatiel kan zijn. Het is dan een aleatorische onzekerheid, schrijft Tetlock, iets wat je niet weet en het kan ook niet geweten worden. Net als het weer van volgend jaar; beter dan het seizoensgemiddelde wordt zo’n voorspelling niet.

Daartegenover staat epistemische onzekerheid. Dat zou in theorie weetbaar kunnen zijn, als je de onderliggende mechanismen weet te vinden en uiteen te rafelen. Supervoorspellers weten heel goed het verschil tussen die twee typen onzekerheid en wat ze wanneer moeten doen.

Als ze aanvoelen dat een vraag – over de valutamarkt bijvoorbeeld – met onherleidbare onzekerheid is beladen, weten ze dat ze voorzichtig moeten zijn door hun eerste inschattingen binnen de misschienzone tussen 35 en 65 procent te houden en die alleen heel behoedzaam te verlaten

philip tetlock

Voorspelbaarheid

Want ze weten dat er sowieso iets moet gebeuren, maar dat het vooral toeval is wat het dan uiteindelijk wordt. Taleb noemt dat alternatieve geschiedenissen als het al is gebeurd en steekproefpaden als het nog moet komen. Hij schaart het onder de opaciteit van de geschiedenis, zie ook dit blog over de retrospectieve vertekening.

Helderziende Gerard Croiset heeft de plek aangewezen, waar volgens hem de drie in januari 1966 van het strand van Glanelg (Australië) verdwenen kinderen liggen onder een 7,5 cm dikke betonlaag van een nieuw warenhuis in Adelaide. Gerard Croiset in contact met de moeder van de verdwenen kinderen. Het warenhuis werd gedeeltelijk afgebroken om de plek te vinden, maar zonder resultaat. De zaak is nooit opgelost en de kinderen zijn nooit gevonden. Foto ANP

Tetlock is het daar maar ten dele mee eens. Volgens hem lopen stochastische en deterministische processen gewoon door elkaar heen. “Onvoorspelbaarheid en voorspelbaarheid leven ongemakkelijk met elkaar samen in de complex met elkaar vervlochten systemen die onze lichamen, onze samenlevingen en het heelal vormen. Hoe voorspelbaar iets is, hangt ervan af wat we proberen te voorspellen, hoe ver het zich in de toekomst bevindt en onder welke omstandigheden we die voorspelling doen.”

Voor crisismanagers en incidentbestrijders is het goed om te beseffen dat in de werkelijkheid die voorspelbare en onvoorspelbare processen zich als een soort verstrengelde eenheid aandienen. Er zijn daardoor altijd scenario’s die je met grotere stelligheid kunt voorspellen dan andere. Het is dus zaak die te herkennen en uit elkaar te houden.

Oftewel, van Situation Awareness Level 2 naar 3 te springen.

Waar het op neer komt is dat je bewust bent van de betrouwbaarheid van je voorspelling dan wel scenario; hoe verhoudt zich het voorspelbare met het onvoorspelbare?

Hoe minder betrouwbaar je inschatting is, hoe meer opties en redundantie je moet inbouwen om onverwachte wendingen te kunnen managen. Dan treedt je dus defensiever op. Hoe zekerder je bent, hoe offensiever je kunt zijn. Omdat je dan namelijk altijd opties hebt om af te wijken, je hebt een plan plus. Misschien zelfs nog wel meer.

Als je onzeker bent over je voorspelling heb je die opties waarschijnlijk niet. Defensief optreden is dan de manier om redundantie en ruimte creëren om tegenvallers op te kunnen vangen. Het levert misschien minder op en duurt langer, maar het kost ook minder als het fout gaat.

Het is van de andere kant soms niet eens zo heel relevant, als je midden in een crisis zit, of je de toekomst wel of niet kan voorspellen. Ook in die gevallen moet je nu eenmaal een besluit nemen en dat doen aan de hand van een scenario, een hypothese, een voorspelling. Mogelijk kan de techniek van supervoorspellers dan behulpzaam zijn. Zoals de oplossing van Fermi.

Fermi

Enrico Fermi ergens tussen 1943 en 1949. Foto van Wikipedia

Om een vraagstuk te kunnen managen is het belangrijk het te zagen in lagen en te hakken in vakken, om het daarna weer op te bouwen tot een antwoord. Precies zoals veel brandweermensen en crisismanagers een incident aanpakken. Fermiëren noemt Tetlock dat, naar de Italiaans Amerikaanse fysicus Enrico Fermi

Die heeft een grofmazige methode bedacht, nog voordat er zoiets bestond als internet en Google, om ‘orde van grootte’ problemen op te lossen. Onder het motto: beter ongeveer goed dan precies fout.

Uiteindelijk is niet intelligentie doorslaggevend, maar hoe je ermee omgaat, is zijn stelling. Het oplossen van Fermi-problemen vraagt dan ook om een combinatie van logica, redenering en schatting. Daarvoor doorloop je de volgende stappen:

  1. Identificeer het probleem: Begrijp wat je wil oplossen en wat er aan je wordt gevraagd. Wanneer ben je succesvol met je antwoord?
  2. Stel de belangrijkste gegevens en parameters vast.
  3. Formuleer de juiste vragen: vraag jezelf af welke gegevens belangrijk zijn voor het probleem en welke aannames je kunt maken.
  4. Vraag jezelf ook af welke beperkingen er zijn en wat er mogelijk over het hoofd wordt gezien. Denk aan de Regel van Hermans.
  5. Maak schattingen van de gegevens die je nodig hebt. Gebruik logica en redenering om te bepalen welke schattingen het meest waarschijnlijk zijn.
  6. Controleer en reviseer: Controleer je schattingen en beoordeel of ze redelijk zijn. Herhaal de stappen totdat je een antwoord hebt dat goed genoeg is.

Het doel van het oplossen van Fermi-problemen is niet om een precies antwoord te krijgen, maar om een idee te krijgen van wat een realistische schatting zou kunnen zijn. Door regelmatig met Fermi-problemen te oefenen, kun je je logische en redeneervaardigheden verbeteren en je intuïtie ontwikkelen voor het oplossen van complexe problemen.

Dat maakt het ook een mooie training voor incidentbestrijders en crisismanagers. Wanneer is deze bosbrand verdubbeld in omvang? Wat als we een offensieve communicatiestrategie hanteren? Moeten we een deel van het bedrijfsproces stil leggen, of juist doorgaan? Dat soort vragen.

Eén van de beroemdste opgaven van Fermi gaat over het aantal pianostemmers in Chicago. Om die vraag te beantwoorden heb je minimaal de volgende feiten nodig:

  1. Het aantal piano’s in Chicago
  2. Hoe vaak een piano gestemd moet worden per jaar
  3. Hoe veel tijd je nodig hebt om een piano te stemmen
  4. Wat de gemiddelde arbeidstijd van een pianostemmer is.

Volgens Tetlock zijn het er 63. In Supervoorspellers legt hij precies uit hoe hij daartoe komt.

Vraagstukken

Voor de gemiddelde crisismanager die niet over een ontstemde piano beschikt is het natuurlijk een nauwelijks relevant vraagstuk. Maar in het verlengde van de Toekomstverkenning Crisisbeheersing zijn er wel wat vragen over bijvoorbeeld bottlenecks in de kritieke infrastructuur te verzinnen die het rapport een stuk concreter kunnen maken. Ik zet er een paar onder elkaar ter illustratie:

  • Hoe vaak zal de stroom uitvallen per jaar in 2050?
  • Wat is de hoeveelheid water dat een gemiddeld gezin te beschikking heeft in 2050 per dag?
  • Hoeveel significante hacks met ransomware zullen er per week plaatsvinden in 2050? En ja, die van de KNVB past daar in.
  • Kunnen in 2050 alle reizigers in de spits vervoerd worden met het OV?
De egel weet één groot ding, maar de vos weet vele kleine dingen. En de aap gooit pijltjes op goed geluk. Dat zijn de drie smaken in het voorspellen, volgens Tetlock. En ze sluiten elkaar niet eens uit.

Supervoorspellers vinden dus niet alleen emplooi tijdens repressie, maar ook in de preparatiefase en toekomstverkenningen.

Tetlock geeft nog een leuk voorbeeld van een techniek om te leren voorspellen. Deze keer gaat het over de familie Renzetti.

De Renzetti’s zijn omstreeks 40 en hebben een kind van vijf, Tommy. Ze hebben een klein huis aan de Chestnut Avenue. Vader is boekhouder en moeder werkt in een kinderdagverblijf. Oma Camilla woont bij hen in. De vraag is: hoe waarschijnlijk is het dat de Renzetti’s een huisdier hebben?

Volgens Tetlock gaan de meeste mensen nu inschattingen maken over die informatie. Wat betekent het dat het een Italiaanse naam is (gezelligheid en veel familie), hoe beoordeel je een klein huis (weinig ruimte), wat zou Tommy er van vinden (jottum) en niet te vergeten Oma Camilla (al die haren).

Elk feitje kan de waarschijnlijkheid groter of kleiner maken of de Renzetti’s wel of geen huisdier hebben. Conform Kahneman noemt Tetlock deze invalshoek het binnenaanzicht van het vraagstuk.

Maar daar zullen supervoorspellers niet mee beginnen, zo gaat hij door. Die beginnen met het buitenaanzicht en zoeken een anker, een basispercentage: wat is het percentage Amerikaanse huishoudens met een huisdier?

Dat blijkt 62% te zijn en dat is het startpunt om het antwoord verder te preciseren met het binnenaanzicht, zoals hiervoor beschreven. Dat leidt tot een nieuwe inschatting, bijvoorbeeld 67%.

Waarzegster op de markt in Petticoat Lane, Londen 1947. Foto ANP

Maar dan ben je nog niet klaar. Want je kunt het antwoord nog verder tweaken.

Vossen, egels en apen

Bijvoorbeeld door anderen om advies en raad te vragen, je eigen aannames kritisch te bevragen, meer informatie te zoeken en open te staan voor verbeteringen en twijfel. Wat heb ik over het hoofd gezien? Kan ik buiten mijn tunnel kijken? Hoe zou X dit probleem aanpakken?

Deze eclectische instelling vergelijkt Tetlock met de vos, naar de allegorie van Archilocus.

De vos weet vele dingen, maar de egel weet één groot ding

archilocus

Egels weten één groot ding en dat is hun ideologie, die ze halsstarrig blijven verdedigen en uitleggen. Vaak kunnen ze een goed verhaal vertellen, dat logisch is geconstrueerd en vol staat met woorden als ‘daarenboven’ en ‘bovendien’.

Vossen daarentegen gebruiken veel meer woorden als ‘echter, maar en aan de andere kant.’ Ze zijn genuanceerder en daardoor niet mediageniek. De egels komen dus op TV en presenteren zich als de expert. Zij weten het namelijk zeker.

De experimenten van Tetlock met zijn Good Judgement Project wezen echter heel wat anders uit. Gedurende enkele tientallen jaren vergeleken ze de juiste score op voorspellingen tussen de egels en de vossen.

De egels deden het niet beter dan een pijltjes gooiende aap. Maar onder de vossen bleken zich enkele supervoorspellers te bevinden, die significant beter scoorden dan het toeval. Op epistemische onzekerheidsproblemen, vanzelfsprekend.

Supervoorspellers hanteren dus niet alleen diverse technieken, maar zijn ook als persoon eclectisch. Hun ego is klein, ze durven te twijfelen en stellen zichzelf kritische vragen. Net als de bij de Stoa en Prohairesis gaat het er niet om hoe slim je bent of wat je overkomt, maar om wat je er mee doet.

Wat voor de lezers van deze website geen verrassing zal zijn, maar wel een bevestiging.

Supervoorspellers

Tetlock verwerkt doorheen zijn boek allerlei eigenschappen van supervoorspellers, veel daarvan ben je ook al in dit blog tegen gekomen. Dan op bladzijde 184 en 185 somt hij opeens dit rijtje op dat ik te mooi vond om niet te plaatsen.

Voor de liefhebbers van Klein, Kahneman en Taleb is dit een prima boek. Het raakt veel onderwerpen die ook door hen worden beschreven. Is je intuïtie betrouwbaar, hoe ga je om met onvoorspelbare gebeurtenissen en wat is de beste manier om ingewikkelde problemen aan te pakken? Om er maar eens een paar te noemen.

Want er komt nog veel meer voorbij, zoals gezegd creatief verpakt in een amalgaam van anekdotes, voorbeelden en verwijzingen naar andere theorieën. Dat maakt dit boek uitermate geschikt als vakantielectuur. Zit je toch in het zonnetje en doe je nog iets nuttigs ook.

Wat wil een mens nog meer?


Tetlock heeft de tien geboden voor de aankomende supervoorspeller als bijlage in zijn boek opgenomen. Enkelen daarvan spreken voor zich, helemaal na lezing van dit blog. Voor de rest zul je Supervoorspellers toch echt zelf moeten lezen.

Tien geboden van Tetlock

  1. Triage. Kies dan wel definieer het juiste vraagstuk
  2. Deel schijnbaar onoplosbare problemen op in kleinere, oplosbare subproblemen
  3. Vind het juiste evenwicht tussen buitenaanzicht en binnenaanzicht
  4. Vind het juiste evenwicht tussen overreageren en ondereageren op nieuwe feiten
  5. Zoek bij elk probleem de met elkaar strijdige causale krachten
  6. Streef ernaar net zo veel gradaties van twijfel te onderscheiden als het probleem toelaat, maar niet meer
  7. Vind het juiste evenwicht tussen te veel en te weinig zelfvertrouwen, tussen behoedzaamheid en besluitvaardigheid
  8. Zoek de fouten achter je vergissingen, maar wees op je hoede voor retrospectieve vertekening en hindsight bias
  9. Breng het beste in anderen naar boven en laat anderen het beste in jouw naar boven brengen
  10. Leer rijden op de fouten balancerende fiets
  11. Behandel geboden niet als geboden

Retrospectieve vertekening bij ongevalsonderzoek

Retrospectieve vertekening betekent dat je met de kennis van achteraf een oordeel velt over een incident of een situatie. Het wordt ook wel hindsight bias genoemd. Deze vertekening speelt een grote rol bij het onderzoek naar ongevallen en rampen. Achteraf voorspellen (want dat is retrospectieve vertekening) houdt namelijk de mythe van maakbaarheid in stand. En dat is een venijnig probleem.

In de week dat ik dit blog zat te schrijven gebeurde er een ernstig treinongeluk bij Voorschoten. Toen al wist ik dat dit blog met retrospectieve vertekening een andere lading zou gaan krijgen dan zonder die aanrijding. Uiteindelijk vond ik het toch geen reden om er mee te stoppen, omdat het wel degelijk een venijnig probleem is dat ook nog eens lastig te beschrijven is.  

Een deel van het venijn zit in de aard van de retrospectieve vertekening zelf. Als je kritiek levert op een rapport door te zeggen dat het aan hindsight bias lijdt, kun je je er als onderzoeker haast niet tegen verdedigen.

Een beetje zoals Freudianen anderen betichten van het hebben van afweermechanismen en zodra je daar tegenargumenten op geeft triomfantelijk roepen: zie je wel!

retrospectieve vertekening
DALL-E heeft een aantal illustraties gefabriceerd van wijze mensen die een hooiberg doorzoeken. Het is onduidelijk wat ze zoeken voordat ze het gevonden hebben. Als het gevonden is, weten ze daarna precies hoe je een speld in een hooiberg zoekt. In ieder geval deze speld in deze hooiberg.

Dat is, enigszins paradoxaal, tegelijk ook het grootste verdedigingsmechanisme dat je hebt om het verwijt van hindsight bias naast je neer te leggen.

Daarmee blijft het wel een ongemakkelijke olifant in de kamer.

Onderzoeksraad

Zo ook bij het rapport van de Onderzoeksraad naar de moorden op Peter R. de Vries en Derk Wiersum. Daarvan werd direct door journalisten gezegd dat die voorkomen hadden kunnen worden. Hoe heftig die situatie ook is, het is maar de vraag of dat ook echt zo is.

Want de hindsight bias in het rapport laat weliswaar zien wat er nu mis is gegaan, maar vertelt niet wat er anders zou zijn gebeurd. Taleb benoemt dit argument in zijn boek ‘Misleid door toeval’ ook, onder de noemer alternatieve geschiedenis en steekproefpaden. Ik schreef daar in een eerder blog al wat over.

Voor nu volsta ik met te zeggen dat als er bepaalde elementen uit het rapport van de Onderzoeksraad in de werkelijkheid te voorkomen zouden zijn geweest, er onherroepelijk iets anders zou zijn gebeurd. En niet noodzakelijkerwijs beter. Want dat weten we dus niet, wat er in de toekomst gebeuren zal.

Vrijwel tegelijkertijd verscheen er in Engeland een rapport over de aanslagen tijdens het concert van Ariane Grande in Manchester op 22 mei 2017. Ook daarover zei men dat die aanslagen voorkomen hadden kunnen worden.

Net als bij het rapport van de OvV roep ik dan terug dat er sprake is van hindsight bias. Je kan niet zeggen dat de aanslagen voorkomen hadden kunnen worden, vanwege het bestaan van alternatieve geschiedenissen en steekproefpaden.

Misschien was er dan een aanslag gepleegd op een andere plek, een andere plaats. We weten het niet.

Je kan wel zeggen dat op de manier waarop de boel nu georganiseerd is, het in ieder geval niet gelukt is om de ongewenste gebeurtenis te voorkomen. Hoe meer de cognitieve, organisatorische en politieke factoren falen, hoe voorspelbaarder een ongewenste gebeurtenis is; alleen de aard, omvang en tijdstip zijn niet voorspelbaar. En dus eigenlijk ook niet te voorkomen.

Zelfs over 9/11 wordt gezegd dat het voorkomen had kunnen worden, maar daarvoor geldt hetzelfde. En zelfs nog eerder, over Pearl Harbor, waren er stemmen die zeiden dat de aanval tegengehouden had kunnen worden. Alhoewel de onderzoekers daar zich wel bewust waren van de retrospectieve vertekening, al kende men de term toen nog niet.

Pearl Harbor

In zijn boek The Drunkard’s Walk beschrijft Leonard Mlodinow welke signalen door de Amerikanen zijn gemist voor de aanval op Pearl Harbor. Niet dat het er zo veel zijn, dat niet. Maar het is ook niet zo dat alles geheim is gehouden, wat je wellicht zou verwachten in een oorlog.

Zo informeerde een Japanse spion zich over de positie van de schepen in de haven, met bijzondere aandacht voor de oorlogsbodems. De Japanse zendercodes werden opeens per maand veranderd, in plaats van eens per half jaar, zoals de gewoonte was. En er bleek een ambtsinstructie te zijn afgegeven om geheime stukken te verbranden.

Maar al deze signalen kregen pas achteraf betekenis, na de aanval. Vooraf waren het loze signalen in een enorme brei van ruis; duizenden berichtensnippers die met elkaar concurreren om aandacht. Je weet niet eens dat je zoekt naar een speld in een hooiberg. Hoe kan je dan iets vinden?

En als je wel iets vindt, hoe weet je dan dat het waar is en geen afleidingsmanoeuvre?

Roberta Wohlsetter was één van de historici die onderzoek deed naar Pearl Harbor. Over die gemiste signalen zei zij in 1962 al het volgende:

After the event, of course, a signal is always crystal clear; we can now see what disaster it was signaling….But before the event it is obscure and pregnant with conflicting meaning.

roberta wohlsetter

Retrospectieve vertekening dus. David Hand schaart deze bias in zijn boek over het Onwaarschijnlijkheidsprincipe onder de Wet van de selectie. Oftewel, pas achteraf geven mensen betekenis en een kans aan een gebeurtenis. Daardoor wordt de kans op het voorval groter ingeschat.

Anders gezegd: omdat Pearl Harbor is gebeurd, zal men achteraf de kans op Pearl Harbor groter inschatten dan als het niet was gebeurd.

Taleb

Ook Taleb schrijft over retrospectieve vertekening, in The Black Swan. Het houdt kennelijk veel mensen bezig die zich verdiepen in kleine kans, groot gevolg incidenten. Volgens Taleb is het niet goed mogelijk om precies te achterhalen welke processen tot welk resultaat hebben geleid. Daarom noemt hij de geschiedenis opaak, ondoorzichtig.

Je ziet wel de dingen die gebeurd zijn, maar niet hoe ze gebeurd zijn. Zoals je ook kan zien wat je eet, maar niet hoe ze het in de keuken gemaakt hebben. Je ziet wel een resultaat, maar niet hoe het proces verlopen is. Dat is wat de opaciteit van geschiedenis betekent.

Die opaciteit bestaat uit drie elementen, schrijft Taleb. Retrospectieve vertekening is er één van.

Gebeurtenissen in het verleden interpreteren met kennis achteraf, waardoor de waangedachte ontstaat dat deze gebeurtenissen te voorspellen waren

nicholas taleb

Een andere is de illusie van kennis, waardoor we in een enorm complexe wereld menen te weten hoe de dingen zullen gaan. De laatste van het triplet benoemt hij als de overwaardering van feitelijke informatie en de handicap van geleerde mensen om categorieën te bedenken waardoor de werkelijkheid er opeens logisch en voorspelbaar uitziet. Terwijl dat helemaal niet zo is, vindt Taleb.

Als je net als Taleb meent dat de causaliteit tussen hoe iets gebeurd is en wat er gebeurd is mede veroorzaakt wordt door toeval, krijg je twee variabelen die je los van elkaar in een tabelletje kunt zetten. Dat ziet er dan zo uit:

Omdat er vrijwel nooit een onderzoekscommissie wordt ingericht op een goed resultaat, vallen er twee mogelijke uitkomsten van alternatieve geschiedenissen en steekproefpaden gelijk al af. Wat overblijft is pech gehad of fout gedaan.

Complexiteit

De retrospectieve vertekening zorgt er vervolgens voor dat men meent dat een foute uitkomst ook het gevolg zal zijn van een fout proces met foute besluiten. Na uitgebreide studie zal het college van wijze mensen ook daadwerkelijk allerlei signalen vinden en die met backward tracking construeren tot een keten of een netwerk van met elkaar samenhangende stapjes die uiteindelijk hebben geleid tot het noodlottig voorval. Dat voorkomen had kunnen worden.

Zoals je ook kunt zien op onderstaand plaatje; een logische reconstructie achteraf.

Deze tekening is afkomstig uit het werk van Richard Cook, bekend geworden door zijn onderzoek naar veiligheid en complexe systemen.

Wat het plaatje ook laat zien is de situatie voor het ongeval, voor de schade. Als je op basis van de informatie die je dan hebt moet bedenken wat er zal gebeuren, sta je eigenlijk voor een onmogelijke opdracht. Allerlei signalen en variabelen verschijnen en interacteren met elkaar en zorgen voor een onvoorspelbare uitkomst. Dat is wat complexiteit is, onvoorspelbaarheid.

Je hebt geen idee hoe het zal aflopen. Het is VUCA: volatiel, onzeker, complex en ambigu. Het is, zoals gezegd, een hooiberg waarin je niet weet wat je zoekt. Waarvan je achteraf de speld kunt laten zien die je had moeten ontdekken, inclusief het pad om ‘m te vinden.

Dat is vooraf, dus zonder hindsight, natuurlijk niet te doen. Anders dan door toeval. Voorspellen is erg moeilijk, vooral als het om de toekomst gaat, zei Niels Bohr al. Een klein rijtje foute voorspellingen ter illustratie.

retrospectieve vertekening
Rijtje foute voorspellingen uit Het Onwaarschijnlijkheidsprincipe

Dit principe, de onvoorspelbaarheid van de toekomst, raakt de kern van het venijnige probleem van retrospectieve vertekening: als we voordat er een ongeval gebeurt zeggen dat de toekomst onvoorspelbaar is, hoe kun je dan na dat ongeval zeggen dat de toekomst wel voorspelbaar was?

Mythe

De manier waarop onderzoekscommissies nu werken houdt de mythe in stand dat als je maar het juiste proces volgt, het resultaat voorspelbaar goed zal zijn. Dat wijst het onderzoek namelijk uit, gedaan door knappe koppen. Dus het moet wel waar zijn. Dat is de mythe van maakbaarheid.

Terwijl iedereen die een beetje logisch en non-egocentered nadenkt weet dat het niet zo is. Zeker als een gebeurtenis grotendeels wordt veroorzaakt door een boef. Als die een aanslag wil plegen zal hij dat doen, linksom of rechtsom. Welke acceptabele maatregelen je ook neemt.

Acceptabel in de zin dat het moet passen bij onze democratische rechtsstaat en mensenrechten. Natuurlijk kun je op de minste verdenking iedereen oppakken en opsluiten. Dat zal de kans op een aanslag onherroepelijk kleiner maken. Maar die tactiek botst enorm met de vrijheden die we in onze samenleving verworven hebben. En ja, die schuren soms met veiligheid.

Het lijkt mij dus logisch dat onderzoekscommissies en journalisten zich bescheiden opstellen en niet meer roepen na een ongevalsrapport dat het te voorkomen was geweest. Hetgeen niet betekent dat je geen zaken kunt verbeteren, want dat kan natuurlijk wel. Maar dan moet je HRO gaan organiseren, dat kan ik zonder ongevalsonderzoek vooraf voorspellen.

Al heb je ook dan geen garantie dat er geen Black Swan bij je neer zal strijken.


Dit is de tweede spin off van Het Onwaarschijnlijkheidsprincipe. De eerste ging over regressie naar het gemiddelde in de oefenpraktijk. Nauw gelieerd aan dit onderwerp is het blog over Taleb’s Toeval. Andere blogs over ongevalsonderzoek zijn De Barmhartige Onderzoeker, Elk ongeval heeft zijn eigen verhaal, je moet het alleen nog zien te vinden en Over het gelijk van de Onderzoeksraad voor Veiligheid

Doe zelf normaal. Een boekrecensie

‘Doe zelf normaal’ is het nieuwste boek van Maxim Februari. Het is een essay, zegt ie er zelf over, een Versuch. Een kapstok om jassen aan op te hangen, hoe meer hoe beter. Want er moet kennis over de toekomst worden opgehaald bij deskundigen om een publiek gesprek te gaan voeren. Over de veranderingen die op ons afkomen en wat die betekenen voor de rechtsstaat.

En voor de crisismanager, zo hang ik gelijk mijn jas ernaast. Veel van wat Februari bespreekt schurkt namelijk tegen het crisismanagement aan of is het dat zelfs. Volgers van deze website moeten dit boekje dan ook echt lezen, vind ik.

Dat is dit keer niet eens zo veel gevraagd. Net aan 120 pagina’s tekst, soepel geschreven en op handzaam formaat in een lekker stevige kaft. Twee avondjes lezen en je hebt gelijk een hoop nuttige kennis opgestoken.

Die je direct kunt toepassen in de praktijk. Ik had ‘Doe zelf normaal’ nog niet uit of ik hoorde de Amsterdamse wethouder Melanie van der Horst op TV zeggen dat ze de snelheid van e-bikes wil beperken. Tot maximaal 20 km/u.

Doe zelf normaal

Daarvoor laat ze nu onderzoek doen naar een technologische maatregel, waardoor in bepaalde gebieden je snelheid automatisch beperkt wordt. Dat klinkt logisch, in eerste instantie, maar Februari plaatst daar in zijn boek de volgende kanttekening bij. Die overigens betrekking had op een vergelijkbare maatregel, maar dan voor auto’s.

“Deze nieuwe manier om gedrag van burgers af te dwingen, verandert op een fundamenteel niveau iets aan het recht. De burgers kunnen zich opeens niet langer zelf tot de wet verhouden.”

Een papieren wet kun je overtreden, schrijft Februari, je kunt er voor worden opgepakt en voor het gerecht gedaagd. En dan alsnog gelijk krijgen als er belangrijker zaken meespeelden dan alleen het handhaven van een verkeersregel.

Computer says no

Of ongelijk. Dat is de kern van de rechtsstaat, dat het niet vooraf vast ligt wat de juridische uitkomst van een geschil zal zijn. Maar als je die regel afdwingt met technologie kan dat niet meer.

Want de computer says no.

Ik was dus gelijk tegen die maatregel, hoe verstandig het ook lijkt om op sommige plekken de snelheid te willen beperken. Het punt is namelijk dat dit niet de laatste ingreep van een algoritme zal zijn op menselijk gedrag. Overal zijn QR codes, vingeraflezers, kentekenplaatregistreerders, gezichtsherkenners, apps en irisscanners die je als mens reduceren tot een pakketje data.

Data die vergeleken kan worden met andere datapakketjes en die via allerlei statistische bewerkingen ergens een normaal uit destilleert. Een norm. Is dat dan het nieuwe normaal, zo is de vraag in ‘Doe zelf normaal’, en wat betekent dat dan? Worden nieuwe wetten op die manier gefabriceerd door algoritmes, volledig buiten de fysieke wereld om?

Dat het zo’n vaart wel loopt illustreert Februari met een casus uit China tijdens Covid. Om naar buiten te mogen moest je getest zijn en geregistreerd in een app. Zolang die app op groen staat, is er niets aan de hand. Springt ie op rood, dan kan je in isolatie worden gezet. Tot zover logisch, lijkt het.

In diezelfde periode waren er echter problemen met een bank in Zhengzhou, waardoor mensen dreigden hun tegoeden te verliezen. Wat ze vanzelfsprekend probeerden te voorkomen. Dus organiseerde men protesten met vele demonstranten ter plaatse. Zodra die mensen in de buurt kwamen van verboden gebied, sprong hun Covid-app op rood. Alle demonstranten werden opgepakt en in isolatie geplaatst.

Want de computer says no.

Nu heeft de burger geen griep of corona, maar ook geen burgerrechten

maxim februari

Hellend vlak

Nou weet ik wel, en Maxim ook, dat China niet hetzelfde is als Nederland. En dat zulks hier dus waarschijnlijk niet zal plaatsvinden. In ieder geval misschien niet nu. Maar straks? In de toekomst? Hoe weten we dat dit soort praktijken hier niet ook langzaam ingevoerd zullen worden, via een hellend vlak?

Little Britain heeft het thema ‘Doe zelf normaal’ 20 jaar geleden al op geheel eigen wijze uitgebeeld

Denk daarbij ook aan de Regel van Hermans: ook dat wat niet mis kan gaan, zal mis gaan. En aan de belangrijkste vraag van scenariodenken: wat als het erger wordt?

Precies daarom is die discussie, dat gesprek met al die jassen op de kapstok dus nodig. Voor als het erger wordt en het wel mis gaat.

Het probleem is namelijk dat we in deze samenleving steeds vaker overvallen lijken te worden door crises. Dat het soms crises zijn die men zelf veroorzaakt door het alsmaar vooruitschuiven van maatregelen, maakt de kwestie alleen maar erger. Dan valt opzet niet uit te sluiten en is vertraging een strategie. Een manier om lastige discussies te vermijden.

Zo schuiven we richting een polycrisis, als die er al niet is, en wordt er geroepen om krachtdadig optreden.

Waar Februari in ‘Doe zelf normaal’ terecht op wijst is dat dergelijke crises, zoals de klimaatverandering,  aanleiding geven tot allerhande noodmaatregelen buiten de democratische orde om. “De klimaatverandering is een existentiële dreiging en een noodsituatie, die vanwege de haast vraagt om uitzonderlijke ingrepen – om dwang en het opschorten van juridische procedures.”

Dat vraagt om een herziening van het staatsnoodrecht, citeert hij de Wetenschappelijke Raad voor het Regeringsbeleid (WRR). Als je dat zonder overwegingen in elke crisis toepast zet je de deur open naar een bestuurscultuur waarin de uitzondering op de regel het nieuwe normaal wordt.

Dat is ook de waarschuwing van Mike Hulme, een Amerikaanse hoogleraar die verbonden is aan een onderzoeksinstelling naar klimaatverandering.

Zodra je een situatie uitroept tot noodsituatie kan beleid alleen nog via een command and control bestuur worden geïmplementeerd

mike hulme

Dan kies je automatisch voor technocratische en gecentraliseerde interventies en bekommer je je niet meer om draagvlak en rechtsstaat.

Dat komt dan later wel, wordt er gesust. Eerst deze uitbreiding voorkomen.

Ongeoorloofd gebruik

Het deed me denken aan de tijd dat ik zelf nog Officier van Dienst (OvD) bij de brandweer in Amsterdam was. Regelmatig namen wij de dekking van de collega’s in Diemen over, als er in hun gemeente een tekort was. Op een vrijdagmiddag werd ik gebeld met de vraag een kraakpand aldaar te inspecteren op brandveiligheid, dan kon het aansluitend ontruimd worden.

DALL-E maakte op verzoek deze firefighter in Mondrian style. Hoe abstract kan je iets maken tot je het origineel niet meer herkent?

Ter plaatse bleken de bewoners er al jaren te wonen zonder enig brandje. Wel was er onlangs een geschil met de gemeente ontstaan over een hennepkwekerijtje voor eigen gebruik. Met een ongeoorloofd beroep op brandveiligheid probeerde men het geschil tot een eind te dwingen.

Hetwelk ik natuurlijk heb geweigerd. Oomes says no.

Waarin Februari mij overigens van harte ondersteunt. Rechtspraak en rechtstaat zijn ingericht om conflicten op een eerlijke manier te managen. De wereld is immers imperfect, die moet je af en toe lijmen om het vertrouwen in een samenleving te bewaren. Dat mag je niet lukraak passeren door een ongewenste gebeurtenis af te dwingen als noodsituatie of crisis.

Het is maar een zijpad op de gedachtegang van Februari. Maar denk eens goed na, crisismanager en/of hulpverlener in nood, op welke momenten werd jij verleid tot het ongeoorloofd gebruik van je crisismandaat? En wat heb je toen gedaan? Hoe gaat dat er in de toekomst uitzien? Wat kunnen ze aan je vragen bij een komende asielcrisis, een demonstratie of een nieuwe pandemie?

Volgens mij een onderwerp dat in de Toekomstverkenning Crisisbeheersing zeker niet achterwege mag blijven.

‘Doe zelf normaal’ is een boek uit de categorie waar ‘Kan de overheid crisis aan’ ook in zit. Op het grensvlak van bestuurskunde en crisismanagement worden thema’s als rechtsstaat, legitimiteit van besluitvorming en algemeen belang op een fundamenteel niveau aangesneden. Beide boeken stellen belangrijke vragen die in de drukte van de dagelijkse praktijk makkelijk aan je voorbijgaan.

Tot het te laat is. Life is what happens to you while you’re busy making other plans, zei John Lennon ooit, en voor de toekomst geldt hetzelfde. Misschien nog wel meer dan ooit.

Predictable Surprise. Een Boekrecensie

Ergens in het landschap van de Zwarte Zwaan, de Grijze Neushoorn en de Zwarte Eend bevindt zich ook de Predictable Surprise. Na het lezen van Max Bazerman’s boek ben ik geneigd de voorspelbare verrassing een olifant in de kamer te noemen. Een glazen olifant om precies te zijn. Eentje waar je dwars door heen kunt kijken, maar die als je hem verkeerd raakt met donderend geraas versplintert.

predictable surprise

Ik had stiekem een beetje gehoopt dat Bazerman in zijn boek alles zou onthullen over de geheime kunst van het voorspellen van verrassingen tijdens crises. Dat je ergens aan je Dikke BOB een checklistje kan toevoegen waardoor je nooit meer verrast zal worden. Naar zo’n soort uitgave zal ik nog verder moeten zoeken, weet ik nu.

Toch schreef Bazerman met zijn maatje Michael Watkins een herkenbaar boek. Beiden waren indertijd hoogleraar, Bazerman op Harvard en Watkins in Lausanne. Ook al is het 15 jaar oud, het boek is nog steeds zeer actueel. Logisch, met zo’n tijdloos onderwerp als het menselijk onvermogen om rationele besluiten te nemen in grijs gebied en vage omstandigheden. Daar kan je nooit genoeg over leren.

Predictable is in dit kader dan ook echt voorspelbaar: als je situation awareness op orde is en je ruggengraat recht wordt je niet zo snel verrast, zo is de algemene strekking. Frequente lezers van Rizoomes wisten dat natuurlijk al wel.

Maar er is meer over te vertellen.

Predictable surprise

Laten we beginnen om die voorspelbare verrassing eens wat nader uit te werken. Bazerman onderscheidt zes karakteristieken van een predictable surprise.

  1. De leiding weet dat er een probleem is dat zich niet vanzelf oplost, maar doen er niets aan. Regeren is immers vooruitschuiven. Bazerman geeft als sprekend voorbeeld dat de Amerikaanse overheid bekend was met het feit dat de aviation security voor 9/11 niet op orde was. Net als het stikstofprobleem in Nederland nu.
  2. Ondertussen zien ze op de werkvloer wel dat het probleem steeds groter wordt. En omdat het zichzelf niet oplost, wordt de voorspelbaarheid van de verrassing steeds groter. Daar komt ook die beroemde oneliner naar voren: het is niet de vraag of het gebeurt, maar wanneer het gebeurt. Da’s de opmaat naar een voorspelbare verrassing.
  3. Een derde kenmerk van predictable surprise is dat de kosten om het probleem op te lossen in het heden vallen, in jouw regeerperiode, terwijl de baten in de toekomst geoogst gaan worden tijdens iemand anders’ bewind. Daar hebben veel bestuurders geen zin in.
  4. Daaraan gerelateerd is dat de kosten om een voorspelbare verrassing te voorkomen vaak wel goed uitgerekend kunnen worden (en heel hoog zijn), maar dat de omvang van de vermeden schade niet goed is in te schatten.
  5. Het vijfde kenmerk van een predictable surprise is dat besluitvormers falen in hun preparatie omdat ze graag de huidige status quo handhaven. Anders gezegd, als er nog geen duidelijke crisis is, is de tendens om maar niet in te grijpen groot.
  6. Tot slot is er ook altijd een groepje die wel lekker vaart onder de situatie en er dus baat bij heeft om de eerste vijf kenmerken te versterken en grote veranderingen tegen te houden of zelfs te ondermijnen.

Hindsight Bias

De zes kenmerken zie je terugkomen in de hoofdstukken over 9/11 en Enron, waarin Bazerman uitpluist wat er allemaal al bekend was voor die rampzalige gebeurtenissen zich afspeelden. Dat leidt tot waarnemingen als deze:

People tend to ignore the harm that comes from inaction. When the benefits of actions are vague, such as a long term reduction in air disasters, individuals will be unwilling to accept sure losses, such as security fees and long lines at airports.

bazerman & watkins

Wat Bazerman en Watkins goed doen is het vermijden van hindsight bias. Sterker nog, ze laten goed zien op welk moment welke informatie al bekend was en hoe er expliciet niet ingegrepen is. Daardoor krijgt het met-de-kennis-van-nu-syndroom geen poot aan de grond. Eigenlijk wist men alles, zo blijkt, behalve het precieze tijdstip en de omvang van de aangekondigde ramp. Dat was dan ook de enige verrassing, de rest was voorspelbaar.

Ik had DALL-E gevraagd om een foto te maken van een glazen olifant met een zwarte eend en een Black Swan in een boardroom. Daar had ie moeite mee, zoals het systeem eigenlijk altijd moeite heeft met abstracte en conceptuele begrippen in een plaatje om te zetten. In deze tekst zie je drie probeersels van DALL-E, drie predictable surprises zou je kunnen zeggen.

Wortels van het kwaad

Na deze rampenanalyse buigen Bazerman en Watkins zich over de cognitieve, organisatorische en politieke wortels van het kwaad. Dat neemt het grootste deel van het boek in beslag, maar is samen te vatten in een paar hoofdlijnen. Lekker handig.

Bazerman onderscheidt vijf soorten irrationaliteit die hij betitelt als de cognitive roots van predictable surprise. Waarschijnlijk zou Kahneman ze als human bias bestempelen

  • Mensen schatten hun wereld en de naaste omgeving vaak positiever in dan de rest van de wereld. Daarnaast vindt iedereen zich een betere chauffeur dan het gemiddelde, schat men zich slimmer in dan de meeste anderen in het land (“ben ik nou zo slim of zijn jullie zo dom”) en zien we onszelf als een deskundiger vakmens dan de gemiddelde collega.
  • Wat we ook vaak doen: de credits pakken als iets goed ging, en de schuld afschuiven naar een ander. De fout is de ander; ik doe het goed. Mensen redeneren dus egocentrisch, schrijft Bazerman.
  • Waar ook Kahneman al op wees is dat mensen de neiging hebben liever voor iets zekers in het nu te gaan, dan voor een mogelijke beloning in de toekomst. Present bias, heet dat. Het mechanisme erachter zorgt er onder andere voor dat goede voornemens voor straks stralen vanwege de verleidingen in het nu.
  • We houden graag de bestaande status quo in stand en zijn niet erg geneigd iets te veranderen met te grote gevolgen, al helemaal als ze negatief kunnen uitpakken. Don’t fix what isn’t broken.
  • Tot slot willen mensen niet graag iets doen om een probleem te voorkomen dat ze niet zelf herkennen of waar ze zelf geen last van hebben. “Dat gebeurt alleen daar, wij zijn beter, wij weten wel hoe het moet.”

En zo worden ongewenste gebeurtenissen dus langzamerhand steeds meer in de hand gewerkt. Want het is niet dat deze vijf eigenaardigheden zich stuk voor stuk aandienen, het is een setje van vijf dat altijd samen werkt.

Dan wordt het opgeteld ongeveer zo. Mensen zien de toekomst te rooskleurig in, gaan liever voor iets zekers nu dan wat onzekers later, denken dat ze zelf de betere besluiten nemen en dat het heden dus helemaal nog zo slecht niet is en menen dat problemen die elders spelen hier niet zullen gebeuren.

Morgen begin ik meteen is een liedje van Huub van der Lubbe die de cognitieve factoren treffend vertolkt in het uitstellen van de goede voornemens

Organisatorische factoren

Komen we bij de organisatorische roots. Volgens Bazerman moet een organisatie over vier vaardigheden beschikken om voorspelbare verrassingen zo veel als mogelijk te voorkomen.

In de eerste plaats moet je continu de omgeving blijven scannen op mogelijke dreigingen. Voorkom dat je de onderstroom mist, denk nooit dat iets niet zal gebeuren en zorg voor een situational awareness niveau drie. Hier huist namelijk ook de fundamental surprise en die moet je zien te voorkomen.

Combineer en analyseer de informatie uit de verschillende bronnen in je organisatie tot een integraal geheel waar je op kan acteren. En doe dat dan ook, zo schrijft de derde vaardigheid voor, waarna je de resultaten van je acties opnieuw analyseert. Weak signals, hard response noemt Weick dat.

Tot slot moet je structureel op dit proces blijven reflecteren, het steeds weer herhalen en de resultaten opslaan in een organisatorisch geheugen. Om te voorkomen dat je de fouten uit het verleden gaat herhalen.

Hoe eenvoudig dit ook klinkt, er gaat onderweg erg veel fout. Om te beginnen door scanning failures, zegt Bazerman. Mensen hebben last van tunnelvisie en missen daardoor een stuk van het plaatje, vaak zonder dat ze het door hebben.

Dat wordt versterkt door ruis, zoals ik onlangs in dit blog schreef, plus een information overload. Er is te veel en de hoofd- en bijzaken worden door elkaar gehaald.

Ook bij de verwerking van de informatie gaat er veel mis in organisaties. Ten eerste als er te veel in silo’s wordt gewerkt. Afdelingen werken dan langs elkaar heen en wisselen nauwelijks data uit. Los daarvan houden mensen ook sommige kennis geheim. Informatie is volgens hen handel en dat geef je niet gratis weg, denkt men dan.

Verder zijn er ook gewoon belangentegenstellingen; waar veel mensen werken zijn veel verschillende belangen. Niet iedereen kan immers promotie maken, ‘maar die hansworst uit die kamer hiernaast al helemaal niet.’ Daar zorgen de collega’s onderling dan wel voor in hun krabbenmandjes. Individuele bonusregelingen werken dit gedrag trouwens in de hand.

Ook niet onbelangrijk: organisaties die voldoen aan de kenmerken van het vulnerable system syndrome hebben nogal eens last van illusionaire consensus, oftewel de gedachte dat iedereen het met elkaar eens is. In werkelijkheid houden mensen op cruciale momenten hun mond omdat ze weten dat ze anders een hoop gezeik krijgen.

Lerende organisatie

De laatste van de vier vaardigheden is leren. Bazerman kijkt naar de lerende organisatie vanuit twee variabelen. Ten eerste op de as van individuele kennis versus groepskennis. En ten tweede van tacit knowledge tot explicit knowledge. Het levert vier vlakken op met een verschillend kennisprofiel, zie hieronder.

Het kwadrant linksboven is het makkelijkste te realiseren en wekt de illusie van control. Daarom zijn veel bedrijven en organisaties daar ook zeer druk mee en gooien hun medewerkers vol met gedragsregels, geboden en verboden. Dat is overigens niet verkeerd, maar het is maar een deel van wat een lerende organisatie nodig heeft.

Helaas gaan veel organisaties niet verder dan het linker bovenkwadrant en roept men bij wat mis ging dat het een menselijke fout was.

Tacit knowledge is veel lastiger te managen. Het is de ervaring die mensen opdoen in de praktijk, de oude bootsman die weet waar te slaan om de boel weer aan de praat te krijgen.

Think of the employees responsible for mainitaining production equipment in a manufacturing plant. They come to know all of the idiosyncrasies of many, seemingly similar systems – a knowledge that is very difficult to codify and transmit.

bazerman & watkins

Het meest lastige vak om te managen is die rechtsonder. Daar zit teamervaring. Mensen die veel samenwerken, weten hoe de anderen zullen handelen in de praktijk, wat ze gaan doen in verschillende omstandigheden. Het zijn ervaringen die moeilijk zijn om te zetten in explicit knowledge en daarom gebeurt het meestal ook niet.

Bij reorganisaties worden teams vaak door elkaar gegooid en verliest men de tacit – relational knowledge, wat pas later in de praktijk duidelijk wordt als de performance opeens schrikbarend daalt. Het is een predictable surprise op zich. Hetzelfde zie je gebeuren als ervaren mensen en masse een bedrijf verlaten en er grote gaten vallen in de opgebouwde expertise; dan ben je een bedrijf met geheugenverlies, een vergetende organisatie.

En het interessante van vergeten is dat het in principe oneindig is. Het houdt niet op, niet vanzelf.

Glazen Olifant

De derde categorie wortels van het kwaad is de politiek. Bazerman schrijft een hoofdstuk vol over het Amerikaanse politiek systeem en hoe dat bijdraagt aan predictable surprise door voornamelijk de status quo van het land in stand te houden en grote veranderingen tegen te houden. Zijn bevindingen zijn niet zonder meer op ons land over te zetten, maar zijn niettemin wel interessant en ook herkenbaar.

Het twee partijen systeem maakt de Amerikaanse politiek kwetsbaar voor belangengroeperingen, lobby’s en beïnvloeding vanuit industrie en heersende macht. Wie aan de macht wil komen, moet veel geld hebben of regelen en tracht daarna die macht ook te houden. Dat proces voorkomt noodzakelijke veranderingen en vergroot de kans op een voorspelbare verrassing.

Foto is van Quakeltje op glasblazer.com

A core problem is that the decisionmakers who must act to prevent the surprise are benefitted, at least in the short term, by the failure to expense stock options. Preventing predictable surprise requires changing traditional approaches to problems, and change inevitably creates winners and losers. Yet when the gains far exceed the losses, change should occur. The challenge to leaders is to block the destructive political behavior of those who will be negatively affected by change – even if these people are the leaders themselves.

bazerman & watkins

Dat is nog eens een glazen olifant in de kamer. Bazerman zette hem er in 2008 in. Toen ik laatst keek stond hij er nog steeds, op precies dezelfde plaats.

Ongoing predictable surprise, zo noemt Bazerman dat. Als voorbeeld geeft hij het systeem van landbouwsubsidies en visserij in Europa, die altijd zijn verantwoord om traditionele systemen in stand te houden en te voorkomen dat het platteland leegstroomt. Daar is niks op tegen, schrijft hij, maar inmiddels krijgen boeren veel geld om een hoeveelheid voedsel te produceren die groter is dan wat de wereld nodig heeft. Dat zulks tot milieuproblemen zal leiden noemt hij een predictable surprise.

Vijftien jaar geleden dus al.

Black Swan

Andere voor hem toekomstige predictable surprises zijn global warming, de kosten van vergrijzing en exploderende frequent flyer programs. Ook die komen niet onbekend voor. Hetgeen niet betekent dat daarmee het probleem is opgelost, laat Bazerman met zijn boek zien. Tussen droom en daad staan praktische bezwaren en diep ingesleten gedragspatronen. Problemen veranderen wel, maar de menselijke aard niet. Dat maakt uiteindelijk elke verrassing voorspelbaar, lijkt het.

Wat Bazerman en Watkins laten zien is hoe een systeem steeds fragieler wordt door die cognitieve, organisatorische en politieke factoren. Men schuift alles voor zich uit, waardoor noodzakelijke aanpassingen en veranderingen uitblijven. Langzamerhand gaat alles schuren en wringen en verdwijnen één voor één de opties om een crash van de glazen olifant te voorkomen.

Op enig moment zal er hoe dan ook schade zijn, wat je ook doet. Zelfs als je niets doet. Dat is zugzwang, schreef ik hier. De crises en rampen die daar uit voortkomen zijn in die zin dus voorspelbaar. Niet de precieze omvang en tijdstip van zo’n voorval; wel dat de boel zo wankel staat dat er een keer iets mis zal gaan.

De vraag is nu of het ook Black Swans zijn, die predictable surprises. Black Swans kun je immers slechts achteraf voorspellen, zegt Taleb, terwijl Bazerman nu claimt ze vooraf te kunnen voorzien. Als je maar goed om je heen kijkt.

Tegelijkertijd schreef Zvi Lanir over de fundamental surprise. Dat crises ontstaan door een te groot ego en een fout wereldbeeld. Daaruit concludeerde ik dat elke fundamental surprise wel een Black Swan is, maar niet elke Black Swan een fundamental surprise. Overigens kwam Taleb later wel iets terug van zijn rigide opvatting over de onvoorspelbaarheid van de Black Swan.

‘Don’t be the Turkey’, zei hij daarover, waarmee hij bedoelde dat in ieder geval je situation awareness op niveau moet zijn om een Black Swan te voorkomen.

De vraag die nu nog rest is of er ook echt onvoorspelbare verrassingen zijn? Hoe ziet een unknown unknown eruit voor hij zich onthult? En als je hem kunt zien, is het dan geen known unknown?

We zoeken door.

Kahneman’s Ruis. Een boekrecensie

Kahneman’s ruis is de opvolger van zijn bestseller ‘Ons feilbare denken’ over systeem1 en systeem 2. Dit boek gaat opnieuw over besluitvorming, deze keer is de spreiding van oordelen door experts het onderwerp. Hoe betrouwbaar zijn experts eigenlijk? Wat heb je nodig om een respect-expert te worden? En wat is beslissingshygiëne? Vragen zat, nu nog de antwoorden. Met zo min mogelijk ruis.

Altijd als ik een boek lees, kijk ik wat anderen voor mij ervan vonden. Nogal eens is dat niets, dat wil zeggen, ik vind niet zo gauw een recensie over het betreffende boek. Omdat ik te vroeg ben, te laat, dan wel is het boek te obscuur en heeft nog niemand er iets over geschreven. En soms omdat de review achter een betaalmuur zit.

Bij boeken als ‘Ruis’ van Kahneman is dat anders. Daar zijn voordat ik er iets over blog al allerlei stukjes geschreven en meningen gegeven. Die bij bestudering blijken te variëren van ‘geweldig boek’ tot k*t. De ruis in het oordeel van al die experts is dus groot.

Expert judgement

Kahneman moet daar zeer tevreden over zijn. Het bewijst immers zijn stelling dat experts er zonder duidelijke regels en richtlijnen van alles uit hun eigen ervaring bij betrekken om een oordeel te vellen. Een gedegen oordeel waar de expert trots op kan zijn, gepresenteerd als de waarheid. Het is expert judgement, hun unieke vaardigheid om in grijs gebied tot een duidelijk besluit te komen.

Maar ze maken er in de praktijk een potje van.

Uit één van Kahneman’s onderzoeken bij een verzekeringsmaatschappij bleek het oordeel van de experts een spreiding te hebben van maar liefst 55%. Dat is vijf keer zo veel als de leidinggevenden van dat bedrijf verwacht hadden. En kostte de verzekeraar miljoenen, variërend van te goedkope polissen tot te dure uitkeringen.

Waarop één van de managers zei, in totale ontkenning, dat de plussen en minnen elkaar wel zouden opheffen. Maar dat is natuurlijk niet zo, die plussen en minnen zijn twee onafhankelijke variabelen die elkaar net zo makkelijk kunnen versterken. Dat wil zeggen dat de inkomstenkant mogelijk nog lager werd door verkeerde besluiten, net als de uitkeringen nog hoger konden worden door foute inschattingen.

Min maal min is geen plus, maar dubbelmin. Soms. De kunst is te weten wanneer dat is.

Ruis en bias

Fouten kunnen elkaar namelijk net zo goed versterken als dat ze elkaar opheffen. Dat is nou precies wat het random karakter van ruis is. Ruis betekent een willekeurige spreiding van resultaten of oordelen, waar bias wijst op een systematische afwijking. Zoals vooroordelen, of tunnelvisie.

Spreiding betekent dus niet automatisch dat antwoorden fout zijn, alleen dat ze heel erg van elkaar verschillen. Er zijn dus kennelijk heel veel waarheden naast elkaar actief. Als je daar niet bewust van bent, presteert je organisatie dus anders dan je denkt. En dat is wel fout, natuurlijk.

Kahneman licht het toe aan de hand van een schietschijf. Vier teams worden uitgenodigd voor een schietwedstrijd. Het is de bedoeling dat de deelnemers zo veel mogelijk in de roos schieten. Dat is de norm. De uitslag laat echter een diffuus beeld zien.

Kahneman's Ruis
De schietschijf metafoor van Kahneman is een krachtig hulpmiddel om het verschil tussen ruis en bias uit te leggen. Maar let op: bij veel soorten problemen en dilemma’s is de roos zeer onduidelijk dan wel onzichtbaar. Hetgeen betekent dat de spreiding dan alsnog heel groot kan zijn. Alleen niet ten opzichte van een norm. Je kan wel met zo’n spreidingsanalyse een soort van een norm of richtlijn vaststellen. Die is dan niet objectief, maar intersubjectief. En je mag er daarna natuurlijk van afwijken als de situatie er om vraagt. De essentie blijft dat je je er bewust van moet zijn. Dus daar is de situation awareness weer.

Team A heeft het beste resultaat behaald. Daar schoten de experts dichtbij in de buurt van de roos. Team B daarentegen heeft een systematische afwijking, een bias. Misschien wijkt hun vizier af, of is de loop niet helemaal recht. Team C laat echte ruis zijn. Een willekeurige spreiding. Team D tenslotte heeft zowel last van bias als ruis. De spreiding zit verdeeld op dezelfde plek en niet random over de hele schijf.

Dit voorbeeld is exemplarisch voor het hele vraagstuk over ruis. Kahneman komt met veel voorbeelden die het probleem van deze spreiding duidelijk moet maken. Krijgen mensen wel het juiste advies van hun arts? Is de rechtspraak eigenlijk wel eerlijk als er een grote spreiding in veroordelingen zit? Zijn de uitslagen van examens wel terecht?

En, niet onbelangrijk, kloppen de besluiten van een scheidsrechter wel? Wordt er terecht wel of geen penalty gegeven in de finale van een EK, WK of Champions League? Om over de handsbal van Messi op het WK 2022 nog maar te zwijgen.

Dit kan om miljoenen gaan. Als je de groepsfinale van de Champions Leuague haalt, verdient een club bijna 16 miljoen euro. De winnaar vangt 20 miljoen. Daarnaast levert winst in de groepsfase € 2,8 miljoen op en een gelijkspel € 0,93 miljoen. De juistheid van een besluit doet er dus echt toe.

De implicaties van ruis zijn enorm, blijkt, en op vele vlakken. Maar het wordt in de praktijk nauwelijks onderkend. Omdat het om experts gaat. Zoals artsen, rechters, verzekeraars en docenten.

Dilemma’s

Kahneman geeft geen voorbeelden uit de wereld van brandweer en crisismanagement. Dus daar zocht ik er een paar van bij elkaar.

Zoals voor de brandweer. Die moeten nogal eens lastige dilemma’s oplossen in complexe situaties. Kiest de bevelvoerder voor een defensieve binnenaanval of een defensieve buitenaanval? Wanneer trek je je terug? Ga je een aangestraalde tank koelen of neem je afstand? Laat je een flat ontruimen of zit iedereen wel veilig binnen? Denk maar aan Grenfell Towers.

Op 27 oktober 1978 kantelde deze vrachtwagen met vaten zoutzuur, salpeterzuur en zwavelzuur op de dijk bij Lexmond. Het zou interessant zijn om de spreiding in de besluitvorming van bevelvoerders en OVD’s te onderzoeken. Hoeveel ruis zou er optreden? Foto ANP

Als ook bij de brandweer een spreiding van 55% bestaat, dan is het korps misschien minder veilig dan iedereen dacht. Of zijn sommige bevelvoerders juist veel daadkrachtiger dan anderen. Het betekent hoe dan ook dat de burger niet overal dezelfde (brand)veiligheid krijgt in vergelijkbare situaties.

Want ruis voltrekt zich bij gelijke gevallen, niet bij verschillen. Die kun je namelijk niet met elkaar vergelijken. Wat je wel kunt vergelijken is of de ruisverdeling bij verschillende cases vergelijkbaar is. Dan is er sprake van patroonruis. Of bias.

Hetzelfde type dilemma’s zie je ook bij bedrijven. Laat ik het treinverkeer / vliegverkeer zo veel mogelijk doorgaan bij een stroomstoring? Kies je voor een offensieve benadering in de pers of laat je het juist lopen als je ergens van beschuldigd wordt? Moet je die populaire disfunctionerende manager laten zitten of gooi je hem eruit? Lastig, lastig. Vragen voor experts, mensen met kennis en ervaring, maar die zijn het volgens Kahneman dus zelden eens.

Nou maakt het natuurlijk wel uit of je experts vraagt naar een besluit over een resultaat (zoals een gerechtelijke uitspraak) of over een methode (kies ik voor een binnenaanval of buitenaanval). Ruis is met name vervelend bij eindoordelen over een resultaat. Bij oordelen over de manier waarop je een doel wilt behalen is de ruis meestal minder van belang; er zijn altijd meerdere wegen die naar Rome leiden. Ruis is dus niet altijd slecht. Maar je moet je er wel bewust van zijn.

Respect-experts

Om beter te kunnen oordelen zijn er drie zaken van belang, schrijft Kahneman. “Goede oordelen zijn afhankelijk van wat u weet, hoe goed u kunt nadenken en op welke manier u nadenkt.”

Veel weten alleen is niet genoeg, gaat Kahneman door. Het gaat er ook om dat je kennis wordt geaccepteerd in de gemeenschap van deskundigen, dat je erkend wordt als expert. Respect-experts, noemen de schrijvers het. Met name in gebieden en situaties waar oordelen moeilijk geverifieerd kunnen worden gaan we makkelijker af op oordelen van experts met een glimmend blazoen.

Vaak hangt aan een respect-expert een lange staat van dienst. De ervaring van zo iemand is een maatstaf voor deskundigheid. Je geloofwaardigheid wordt in die zin letterlijk opgebouwd. Daar hoort ook een goed zelfvertrouwen bij. “De zelfvertrouwen heuristiek wijst op het feit dat mensen met zelfvertrouwen in een groep meer invloed hebben dan anderen, zelfs als dat zelfvertrouwen nergens op gestoeld is.”

Respect-experts zijn tenslotte goed in het vertellen van samenhangende verhalen. Dat komt omdat ze door hun ervaring snel patronen herkennen, analogieën kunnen presenteren op basis van eerdere ervaringen en zodoende gemakkelijk onderbouwde hypotheses opstellen. Precies die kwaliteiten die Gary Klein beschrijft in zijn Snapshots of the Mind.

De sturingsdriehoek is achteraf gezien een poging geweest om de ruis in besluitvorming te verminderen. Door incidenten te verdelen in standaards, standaardafwijkingen en afwijkingen geef je een richtlijn om besluitvorming te sturen, gebaseerd op het skill-, rule- en knowledgebased model van Rasmussen. In termen van Kahneman: je maakt de roos zichtbaarder, waardoor je een anker voor je besluitvorming schept. Voor de brandweer had ik bijvoorbeeld bedacht dat een Kleine Brand brand meester moet zijn met één voertuig (TAS6) in 15 minuten.

De wereld van brandweer en crisismanagement is ook sterk gebaseerd op de positie van respect-experts. Ik heb dat ooit wel vergeleken met de jager-verzamelaars cultuur. Daarin is de leider degene die de belangen van de groep moet vertegenwoordigen en dat mag omdat ie door de rest als het beste geschikt wordt gezien. De leider is de top-expert.

De overige groepsleden zijn ondertussen allemaal expert op een deelgebied en worden daarin serieus genomen door de collega’s. Om de onderlinge verhoudingen te bevestigen en verstevigen vormt verhalen vertellen een belangrijk onderdeel van zo’n cultuur. Die bepalen de onderlinge pikorde. Het waarheidsgehalte van een verhaal wordt zodoende bepaald door wie het vertelt.

Iedereen moet hard werken om dat beeld over zichzelf in stand te houden en gezichtsverlies is dan ook zeer pijnlijk. Een goede reputatie (als respect-expert) komt te voet en gaat te paard.

Intelligentie

Om expert te worden moet je niet alleen veel weten en gerespecteerd zijn, je moet ook intelligent zijn. Er is een onweerlegbaar verband tussen algemene mentale vaardigheden (dat wat een IQ test meet) het beroepsniveau en de prestaties in je vakgebied. Hoe complexer een vakgebied is, hoe groter de impact van intelligentie op het resultaat is.

Brand in de Grote Kerk van Hilversum, 3 december 1971. Wat zou de spreiding in het oordeel van bevelvoerders zijn als je ze vraagt naar wat ze vinden van wat hier gebeurt? Nogmaals, het gaat niet om goed of fout, maar om de spreiding van antwoorden. Daarna kun je bekijken of je een soort standaard kunt benoemen. Dat is doctrinevorming en ruisonderdrukking.

Als professionele oordelen niet verifieerbaar zijn en er dus op een ‘onzichtbare’ roos geschoten moet worden, zullen de oordelen van cognitief superieure mensen toch dichter bij die roos zitten

daniel kahneman

Dan is er nog een derde component om een goede expert te worden, naast kennis en intelligentie, en dat is kritisch denken of actief onbevooroordeeld denken. Wie actief onbevooroordeeld is, gaat zelf op zoek naar informatie die zijn hypothese of oordeel tegenspreekt. Een soort van zelf-falsificatie dus. Als je kritisch denkt heb je geen moeite om een andere mening over te nemen en denk je ook niet dat je je bij het nemen van een besluit vooral naar je intuïtie moet luisteren.

Eigenlijk ben je dus kritisch over je eigen kennis en intelligentie. Dat ondermijnt de andere twee pijlers van een goed oordeel niet, maar versterkt ze juist. Zo maak je dus betere besluiten met minder ruis.

Beslissingshygiëne

Maar daarmee ben je er nog niet. Om ruis te verminderen moet je je houden aan zes regels van beslissingshygiëne.

  1. Het doel van beoordelen is nauwkeurigheid, niet individuele expressie. Individuele verschillen (benoemd als patroonruis) moet je zo klein mogelijk houden. Bedenk wat andere experts in jouw geval zouden beslissen.
  2. Denk statistisch en kijk met een externe blik. Benader kwesties niet als een unieke zaak maar zie ze als onderdeel van een referentieklasse met vergelijkbare zaken. Let dus meer op overeenkomsten en minder op de verschillen.
  3. Structureer oordelen door ze onder te verdelen in afzonderlijke taken. Hakken in vakken en zagen in lagen is zo’n manier. Maar ook het gebruik van regels en richtlijnen als ankerpunt is een manier om betere besluiten te nemen.
  4. Geef niet toe aan premature intuitie. Dat wil zeggen, je mag best gebruik maken van intuïtie, maar onderzoek het wel en bevestig wat je als eerste dacht met feiten en argumentatie. Snelle expertise is immers onbetrouwbaar.
  5. Win onafhankelijke oordelen in van meerdere beoordelaars. Bij wijze van contra expertise. Zie ook de negen momentopnamen van de geest voor tacit knowledge van Klein.
  6. Geef de voorkeur aan relatieve schalen en oordelen. Zoals veiligheidskundigen bijvoorbeeld doen met relative ranking bij risico analyses. Mensen zijn beter om kwesties paarsgewijs te matchen dan om een absoluut oordeel te vellen.

Kahneman schreef met zijn makkers Cass Sunstein (ja, die van die ramp voorkomen) en Olivier Sibony een interessant boek. Het gaf mij enerzijds nieuwe inzichten over de schade die ruis veroorzaakt, maar ik zag ook veel bevestiging van wat ik op de één of andere manier al wist of deed. Zoals met de Sturingsdriehoek.

Grappig genoeg schreef ik er onbewust over in de inleiding van dit blog. Door naar andere recensies te kijken bij de beoordeling van een boek hanteer ik eigenlijk de regels twee en vijf van de beslissingshygiëne.  

Tegelijkertijd heb ik geprobeerd om tijdens het lezen de voorbeelden die de schrijvers aandragen te vertalen naar kwesties die ik ken uit het veld van brandweer en rampenbestrijding. Enkelen daarvan heb ik opgenomen in dit blog.

Mijn conclusie is dat ruis best wel eens een majeur probleem kan zijn voor de veronderstelde veiligheid van brandweermensen en burgers. Daarom denk ik ook dat dit een relevant boek is voor iedereen die in dat veld werkt en op de een of andere manier te maken heeft met besluitvorming in complexe situaties.

Dat wil niet zeggen dat het lezen van dit boek alleen maar een onverdeeld genoegen is. Er zit veel herhaling in en de lezer wordt wel heel erg aan het handje meegenomen. Van wat ik aan andere recensies las ben ik daar niet de enige in die dat vindt. Overigens is daar een eenvoudige remedie voor, zo schreef ik in het blog over de lezende mens: scannend lezen. En pas de diepte in als het echt relevant wordt.

Al met al zou ik je aanraden dit boek te lezen met je eigen werkveld in het achterhoofd en je af te vragen: waar zit bij ons allemaal die ruis?

Momentopnamen van de geest. Een Boekrecensie

Momentopnamen van de geest is de letterlijke vertaling van Snapshots of the Mind, het nieuwste boek van Gary Klein. Waarschijnlijk is het ook zijn laatste, Gary vindt het wel mooi zo. Gelukkig voor ons is dit boek een verzameling van zijn beste columns voor Psychology Today. Daarmee heb je eigenlijk alle kernpunten uit zijn werk over Recognition Primed Decisionmaking (RPD) in één uitgave te pakken, plus nog van alles erbij. Een buitenkans voor de lezer van kleine stukkies.

momentopnamen van de geest

Het werk van Klein over besluitvorming onder tijdsdruk ken ik sinds 1995, toen Ira Helsloot en Menno van Duin onderzoek deden naar veiligheid bij repressie voor het toenmalige Nibra. Ik deed en las mee in de begeleidingscommissie en ben Klein altijd blijven volgen. Ook toen RPD na de aanvankelijke hype langzaam wegzakte naar een wat marginale stroming in de cognitiewetenschappen.

Tot grote frustratie van Klein ging Kahneman er namelijk dankzij diens Human Bias (HB) theorie met de wetenschappelijke buit vandoor, zeker nadat Kahneman ‘Thinking Fast en Slow’ had gepubliceerd over Systeem 1 en Systeem 2. De kernboodschap van dat werk is dat je expertise niet moet vertrouwen. Terwijl Klein in zijn RPD model juist wel expertise centraal stelt, als basis van besluitvorming onder tijdsdruk.

Valide omgeving

In een gezamenlijk artikel, ‘A failure to disagree’, poogden de heren uit het meningsverschil te komen met een hulpconstruct. In hoog valide omgevingen kun je best vertrouwen op expertise, zo schreven ze.

Een hoog valide omgeving is er eentje waar een bepaalde variabele of actie altijd (vrijwel) hetzelfde resultaat oplevert. Dan heb je het dus voornamelijk over ambachten, vakbekwaamheid en meesterschap.

De expertise in laag valide omgevingen is daarentegen onbetrouwbaar volgens Klein en Kahneman. Denk aan economie, aandelenbeurzen en politiek. In dit blog, de onbetrouwbaarheid van snelle expertise, ben ik er veel dieper op ingegaan. Dat doe ik nu niet.

Hier zie je Systeem 1 en systeem 2. Systeem 1 bevat de automatische besluitvorming, gebaseerd op ervaring en gewoontes. Systeem 2 is het actief redeneren om een oplossing te vinden, bijvoorbeeld via de Dikke BOB.

De reden dat ik er toch zo veel aandacht aan besteed is dat Klein in Hoofdstuk 3 nogal tekeer gaat tegen de onderzoekers uit de Human Bias stroming. Niet omdat ie tegen HB is, zo vermeldt Klein meermaals, maar wel omdat HB naar zijn mening tegen RPD is. En dus haalt ie er van alles bij om zijn gelijk over expertise te bevestigen.

Terwijl dat helemaal niet nodig is. Want de mensen uit de praktijk weten al lang dat besluitvorming onder tijdsdruk een kwestie van herkenning is, van gebruik maken van de ervaring die je zelf hebt of de mensen in je team.

NDM

Het is een beetje hetzelfde als de fittie tussen Taleb en Sunstein zoals ik die in dit blog omschreef; als het gaat om wetenschap wil er toch eentje het meest gelijk hebben. Zo gaat dat kennelijk met theorie. Voor de praktijk is dat helemaal niet zo belangrijk. Alles wat werkt, dat werkt en kun je dus gebruiken. Zo denkt de praktijk.

Het RPD model van Klein. Na waarneming van de situatie vindt er een match plaats aan de hand van vier aspecten (doelen, verwachtingen, aanwijzingen en acties. Het tweede deel van de herkenning is een snelle simulatie die de haalbaarheid toetst. Herkenning kent dus twee cruciale momenten: waarnemen en simuleren, beiden aan de hand van reeds opgebouwde ervaring. Als je goed kijkt zie je ook dat er in de linkerbovenhoek twee routes tot een doordraaiende loop kunnen leiden. In dit blog over het begin van Sturingsdriehoek schrijf ik hoe ik daar tijdens een metrobrand zelf tegenaan liep.

Helemaal aan het eind van het boek, we zitten dan in hoofdstuk negen, ziet Klein het gelukkig zelf ook. Al verbreedt hij RPD daar naar Naturalistic Decision Making. Dan valt bijvoorbeeld Micah Endsley met de situation awareness levels er ook onder.

Naturalistic Decision Making is not an academic discipline. It does have many adherents within universities, but it emerged and has primarily taken root in applied settings as a basis for action—for training decision-making skills and achieving higher levels of expertise, for designing systems that strengthen rather than compromise expertise, for organizational interventions that seek to promote expertise instead of fixating on ways to reduce errors

gary klein

Terug naar het boek zelf.

Cognitie

Klein schrijft dat het zijn doel is om met dit boek mensen bewuster te maken van cognitie. Voor niet-psychologen is dat inderdaad een lastige term. Ik herinner mij dat ik er als eerstejaars student psychologie weken over deed om cognitie goed te kunnen plaatsen. Dat alle leerboeken in het Engels waren hielp daar trouwens niet aan mee.

Wat is de Nederlandse vertaling van het woord mind, bijvoorbeeld? Geest? Verstand? Brein? Hersenen? Ik hou het er op dat mind niet goed vertaalbaar is met één woord.

Maar je kunt het wel omschrijven, denk ik. Volgens mij is mind het ding waardoor je kunt waarnemen, denken, patronen herkennen, besluiten nemen, redeneren en oriënteren. Je mind helpt je met situation awareness, Dikke BOB en commandovoering. Je mind is het construct waarin je expertise huist. Dat alles bij elkaar is ook wat cognitie is.

Je mind maakt cognitie.

The word “cognition” may sound academic, but I am using it as a blanket term to capture everyday activities such as decision-making, detecting and solving problems, making sense of confusing situations, and managing risks and uncertainty

gary klein

Rotsvissers

Klein komt met een prachtig voorbeeld hoe je cognitie in de praktijk kunt beschrijven. Hij vertelt over de rotsvissers in Australië, waar jaarlijks zo’n tien doden te betreuren zijn. De regering besloot daarom een onderzoek te laten verrichten door de National Safety Board. Na enige tijd kwam de Board met aanbevelingen over waarschuwingsborden, zwemvesten en high visibility clothing.

Tot groot verdriet van de ervaren rotsvissers, zo ving Peter Kamstra op, een Canadese onderzoeker. Kamstra ontdekte dat er niemand van de Board met de vissers had gesproken. Die vertelden dat de fatale ongevallen plaatsvonden met onervaren vissers. Als hun lijn vast kwam te zitten bewogen ze zich bijvoorbeeld naar de rotsrand en werden daar makkelijk overvallen door een golf.

Terwijl een ervaren visser altijd zijn lijn opoffert; veel te gevaarlijk om naar de rand te lopen. Daar hielp geen waarschuwingsbord tegen, tegen deze vorm van gedrag. (Tegen welke vorm van gedrag helpt een bord wel, zo vraag ik mij af? Het is eerder een reminder wanneer je in overtreding bent dan een middel om onbesuisdheid te temperen)

Rotsvissers bij Muriwai Rock, Australïe. Foto Wikipedia

Nog zo’n ervaringsdingetje: ervaren vissers vragen hulp als de vis te zwaar is om veilig binnen te halen, waar onervaren vissers dat in hun eentje doen om te laten zien hoe goed ze al zijn. En mocht de ervaren visser onverhoopt toch in het water zijn gevallen, dan weet ie al hoe hij terug moet zwemmen omdat hij dat al uitgezocht had voor hij ging vissen.

En dat is niet via de rots waar hij vanaf was gevallen, wat onervaren vissers wel doen.

Cognitieve dimensie

Klein schrijft dat je beter kunt kijken naar de besluiten die mensen nemen dan naar hun gedrag. Ervaren vissers begrijpen de risico’s beter (situation awareness level 2) en kunnen voorspellen wat er verder gaat gebeuren als het mis gaat (SA level 3).

He captured the cognitive dimension of staying safe during a high-risk activity: anticipating problems (noting any nearby sandy beaches to swimto), managing risks (cutting a line that gets snagged instead of trying torecover it), making sense of situations (gauging whether a location is safe, given the current and wind directions), making tough decisions (inhibiting the impulse to swim back to the ledge after being swept off it), anticipating opportunities (waiting for a friendly wave to wash your fish onto the ledge), managing attention (scanning the wave patterns while looking for that friendly wave in case a freak wave is approaching)

gary klein

Uiteindelijk, concludeert Klein, is expertise tacit knowledge. Dat is kennis die niet kan worden verkregen door het volgen van procedures en rijtjes aandachtspunten, maar door ervaring.

Tacit knowledge is patroonherkenning, afwijkingen detecteren en besluiten nemen gebaseerd op je mentale modellen. Dat is de cognitieve dimensie die Klein bedoelt en dat leren zien is het doel van momentopnamen van de geest.

Klein benoemt negen momentopnamen van de geest om je tacit knowledge te vergroten.

  • Vraag om feedback. Stel jezelf open voor kritiek en leer over jezelf door de ogen van anderen
  • Consulteer experts. Maar zorg er dan wel voor dat je goede vragen hebt die verder gaan dan ‘hoe doe ik het?’
  • Leren van anderen. Dat lijkt op de eerste twee acties, maar het verschil is hier dat het niet om jouw tacit knowledge gaat maar om die van de ander. Hoe gingen zij om met een lastige casus?
  • Wees nieuwsgierig. Kijk en zoek altijd verder. Stel vragen. Wees bewust van je OK-Plateau.
  • Zorg voor een open houding die is gericht op geestelijke groei. Denk niet: dat weet ik al. Denk: wat weet ik nog niet?
  • Stap af van een procedurele modus en omarm de probleemoplossende houding.
  • Leer van je fouten door ze te analyseren en daarna wel goed te doen. Ook al is het met hindsight, zo formuleert Klein, want als ik niet slim genoeg ben met hindsight dan ben ik het nooit.
  • Heb er lol in om ingewikkelde problemen op te lossen. The obstacle is the way, roepen de stoïcijnen dan.
  • Verwar trainen en beoordelen niet met elkaar. Een training is bedoeld om te groeien, een beoordeling om vast te stellen of je het kan. Dat zijn strijdige doelen.

Momentopnamen van de geest

Tacit knowledge vraagt dus om een nieuwsgierige instelling, flexibel en beweeglijk. Leg je niet vast in procedures als het niet kan, maar wees juist probleemoplossend; als het niet kan zoals het moet, dan moet het maar zoals het kan. Kijk hoe anderen het doen en kijk hoe je het zelf doet: het kan altijd beter. Dat is precies wat Prohairesis is.

Een expert in een hoogvalide omgeving. Scheepssloper aan het werk. Jaartal onbekend, foto ANP.

Gary Klein maakte met momentopnamen van de geest een intrigerend boek over de menselijke besluitvorming onder tijdsdruk. Een uitgelezen moment om als nieuweling op het gebied van RPD en NDM snel met het vakgebied bekend te worden. Steile leercurve gegarandeerd, want Klein maakt het niet moeilijk en vooral niet al te lang. Dat leest lekker weg.

Het boek is namelijk opgebouwd uit oude columns. Dan is het net of je blogs zit te lezen. Elke bijdrage staat op zichzelf en tegelijkertijd bouwen ze gezamenlijk een netwerk aan kennis, een rizoom. Dat maakt het ook een fijn boek om mee te nemen tijdens een weekendje weg.

Voor degenen die Klein al wel langer lezen, ik reken er mezelf toe, is er ook genoeg te beleven. Dit boek ervaarde ik daarom als een prettige opfrisser. Hoofdstuk 7 bijvoorbeeld gaat over training en die heb ik met extra aandacht gelezen omdat ik zelf regelmatig trainingen geef. En daar is een verbeterslag in te maken, concludeerde ik. Door nog meer dan ik nu al probeer de cursisten te begeleiden op hun ontdekkingsreis, in plaats van hen het antwoord op een vraagstuk te geven.

Dus mocht je als goed voornemen in 2023 meer willen gaan lezen, dan zou ik dit boek zeker willen aanbevelen.

Hoe je een ramp voorkomt. Een Boekrecensie

Hoe voorkom je een ramp? Dat is het onderwerp van een handzaam boekje van Cass R. Sunstein onder de titel Averting Catastrophe. Voor zover ik kon nagaan bestaat er geen Nederlandse vertaling van, maar dat vond ik geen probleem. De tekst is makkelijk te volgen. De vraag die vooral bleef hangen was wat je nou eigenlijk met dit boekje moet. Het antwoord erop verraste mijzelf ook.

Averting Catastrophe explores how governments ought to make decisions in times of imminent disaster.

Zo ronkend laat Cass zijn boek aanprijzen op de kaft, door enkele van zijn geleerde vrienden. Ik stonk erin en kocht het ongelezen. Want wie wil dat nou niet, besluiten kunnen nemen rondom de vraag hoe je een ramp voorkomt?

Voor hen die gehoopt hadden daarop een duidelijk antwoord te krijgen, volgt dan nu alvast de dikke vette spoiler: na lezing van Averting Catastrophe weet je het nog steeds niet. Maar weet je wel beter waarom je het niet weet.

Wat ik ook wel weer geruststellend vond.

Hoe je een ramp voorkomt

Want stel je voor, in 2023 zit ik dertig jaar in het vak van hoe je een ramp voorkomt en dan opeens schrijft iemand een boekje die daar in netto 117 pagina’s een antwoord op heeft. Dat zou wat zijn, zeg.

Maar goed, dat antwoord heeft Sunstein dus niet, maar wat heeft ie dan wel? Nou, enkele inzichten uit de decision theory die mij wel wat meer houvast gaven.

Of laat ik het anders zeggen, die mij bevestigden in een paar aannames die ik uit mijn praktijk had afgeleid, zoals het feit dat de te verwachten schade een belangrijker graadmeter is om op te handelen dan de kans op die schade. Sowieso vind ik ‘kans’ een overschatte parameter die nogal vaak leidt tot het-met-de-kennis-van-nu syndroom.

Nu moet ik eerst nog met een validiteitsdingetje aan de gang.

IYI

Die validiteitskwestie begint met een uitspraak van Jung. “Everything that irritates us about others can lead us to an understanding of ourselves.”

En dat geldt ook voor Nicholas Taleb. Everything that irritates Nicholas Taleb can lead us to an understanding of Nicholas Taleb.

En Cass Sunstein irritates Nicholas Taleb a lot. Zoveel zelfs dat Sunstein model stond voor Taleb’s tirade over IYI in zijn boek Skin in the Game: Intellectual Yet Idiot. Een IYI wordt door Taleb als volgt beschreven:

An inner circle of no-skin-in-the-game policymaking “clerks” and journalists-insiders, a class of paternalistic semi-intellectual experts with some Ivy league, Oxford-Cambridge, or similar label-driven education who are telling the rest of us 1) what to do, 2) what to eat, 3) how to speak, 4) how to think… and 5) who to vote for.

nicholas taleb

De Ivy League is een groep topuniversiteiten in Amerika, waaronder Princeton, Columbia en Harvard. Alumni ervan verkeren in hoge kringen en spelen elkaar volgens Taleb ondershands baantjes toe. Iets vergelijkbaars vind je in Frankrijk met de Grande Ecoles en met Oxbridge in Engeland.

Het is duidelijk dat Taleb er niets van moet hebben, IYI. Wellicht omdat ie zelf niet uit de League komt. Tegelijkertijd lijkt hij erg gevoelig voor erkenning uit dergelijke kringen. De validiteitsvraag is dan hoe serieus je de stellingen van Sunstein moet nemen. Of die van Taleb, natuurlijk. Kan het zijn dat hij zich overschreeuwt?

Want Sunstein is echt niet de eerste de beste. Onder Obama was hij verantwoordelijk voor een programma om de maatschappelijke kosten van fossiele brandstoffen in kaart te brengen, als onderdeel van een groter onderzoek naar de effecten van klimaatverandering.

Dat is ook de link met Averting Catastrophe, naast de schadelijke gevolgen van de Covid pandemie: de vraag hoe je een ramp voorkomt in onzekere omstandigheden.

Ik had DALL-E gevraagd een tekening te maken van een astronaut die een bord schildert met de tekst: watch out, black hole. Dat kwam er niet helemaal uit.

Maar Sunstein is vooral bekend geworden met zijn boeken over ‘nudging’. Dat is het onbewust beinvloeden van menselijk gedrag, bijvoorbeeld door de gezonde broodjes op ooghoogte te leggen en de ongezonde onderaan. Dat zou mensen aanzetten om gezonder te eten. Het wetenschappelijk bewijs erover schijnt mager te zijn, maar zolang supermarkten de gewenste snellopers in hun schappen op ooghoogte blijven leggen weet ik dat het werkt. Anders zouden ze dat niet doen.

Wat dan wel weer een leuk weetje is, is dat Aad Kieboom, een oud collega van mij, de beroemde vlieg in het urinoir heeft bedacht om de schoonmaakkosten van de toiletten op Schiphol in bedwang te helpen houden. Die piesvlieg geldt als de grootvader van alle nudges. Toen ik hem daar een keer over sprak keek hij mij vol verbazing aan; hij wist nergens van en was nooit ergens naar gevraagd of over geïnformeerd. Laat staan dat ie wist wat een nudge was.

Die middag nog kocht Aad het boek over nudging en liep mij de ochtend erna glunderend voorbij, terwijl hij uitgebreid zijn duim opstak en naar het boek wees. Hoe de dingen soms gaan.

Hoe je een ramp voorkomt

Ik vertel bovenstaand verhaal als context bij het boek Averting Catastrophe. Het werk van Sunstein is niet onomstreden, maar hetzelfde geldt voor zijn criticasters. Uiteindelijk is het niet mijn bedoeling aan te wijzen wie gelijk heeft, wel wil ik kort schetsen in welk krachtenveld het zich allemaal afspeelt. Wat je wel of niet voor waar aanneemt is verder aan jezelf. Mij gaf de verbreding in ieder geval meer inzicht in hoe je een ramp voorkomt.

Ga ik nu weer terug naar het boek zelf.

Met zijn boek wil Sunstein hulpmiddelen aanreiken over hoe je een ramp voorkomt. Daarbij sla ik het stukje over risicomanagement en expected value grotendeels over. Risico’s kun je namelijk kwantificeren, door een getal te geven aan waarschijnlijkheid (of frequentie) en effect. Dat geeft voldoende houvast om een besluit te nemen gebaseerd op expected value.

Maar dat is niet altijd het geval, dat je waarschijnlijkheid kunt toewijzen aan een situatie. In dergelijke omstandigheden weten we niet wat er kan gebeuren en ook niet goed wat de effecten kunnen zijn. Knightian uncertainty noemt Sunstein dat, naar de economoom Frank Knight.

Uncertainty must be taken in a sense radically distinct from the familiair notion of risk, from which it has never been properly separated… The essential thing is that ‘risk’ means in some cases a quantity susceptible of measurement, while at other times it is something distinctly not of this character; and there are far-reaching and crucial differences in the bearing of the phenomena depending on which of the two is really present and operating.

frank knight

We simply don’t know, voegde John Maynard Keynes daar aan toe. We weten niet wat de rente is over tien jaar, of er een oorlog komt in Europa, welke uitvindingen de markt zullen veranderen of wat de prijs van koper volgend jaar is. Knight beschreef zijn definitie van onzekerheid in 1933, Keynes die van hem in 1936.

We simply don’t know, hoe je een ramp voorkomt. Of hoe je de hoofdprijs wint. Want dat is wat onzekerheid is. VUCA heet dat ook wel: volatiel, onzeker, complex (of connected) en ambigu. Hier schreef ik er al eens eerder over.

Maximin

In de theorie van decisionmaking zijn een aantal principes benoemd die kunnen helpen om besluiten te nemen in onzekere omstandigheden. Zoals het maximin principe. Dat gaat ervan uit dat je het worst case scenario elimineert en vormt eigenlijk de kern van Averting Catastrophe: je voorkomt een ramp door het worst case scenario uit te schakelen.

DALL-E tekent een hand die een meteoor opvangt. Vind ie.

Toch stelt Sunstein daar wat vragen bij aan de hand van een aantal voorbeelden. Wat zou je kiezen:

  1. 99,9% kans om €10.000 te winnen en 0,1% kans om €60,- te verliezen of
  2. 50% kans om €50 te winnen en 50% kans om €50 te verliezen.

In regulier risicomanagement zou je kiezen voor optie 1. Dat heeft de hoogste te verwachten waarde. Maar als je gaat voor het maximin principe rolt optie 2 eruit. Dan mis je dus de kans op een grote winst. Dat is de waarschuwing van Sunstein: als je de worst case scenario in alle omstandigheden probeert te voorkomen, snij je misschien ook een grote winstkans af.

Nog een voorbeeld. Wat zou je kiezen:

  1. 100% kans om een euro te winnen of
  2. 100% kans om een ton te winnen met een onbekende kans om te sterven

Volgens het maximin principe kies je nu voor optie 1, ook als is de kans op sterven bij optie 2 onbekend. Overigens wordt bij regulier risicomanagement de kans van 1 op een miljoen in voorbeeld 2 acceptabel geacht bij de vergunning van risico opleverende activiteiten.

Maar als die 10-6 kans alleen op jouw betrekking heeft en niet op anonieme persoon, vind je die kans dan nog steeds acceptabel? Dat is de skin in the game vraag.

Er is ook nog het minimax principe. Daar heeft Sunstein het niet over in dit boekje, maar lang geleden kwam ik het tegen in een artikel van Mintzberg. Volgens Mintzberg nemen managers altijd het besluit waar ze achteraf het minste spijt van krijgen; minimaxen van spijt heet dat dan. Misschien is dat nog wel het beste principe om een ramp te voorkomen. Jammer dat Sunstein het daar niet over heeft.

Voorzorgsmaatregel

Dan is er nog een instrument dat het precaution principle wordt genoemd. Dat gebruik je om risico’s te vermijden, met name bij reguleringsvraagstukken. Als je niet weet wat het effect van genetisch gemodificeerde organismen (GMO) in de vrije natuur is, kun je ze maar het beste verbieden volgens de voorzorgsmaatregel. Zie ook het blog over georganiseerde onverantwoordelijkheid en manufactured risks.

Taleb vindt het onverantwoord om GMO’s los te laten in de natuur, omdat het totaal onzeker is wat er daarna mee gaat gebeuren. Daarbij wijst hij op de fat tail; de kans op een extreme gebeurtenis is groter dan je op basis van een normaalverdeling zou verwachten en dat heeft te maken met complexiteit en exponentiële ontwikkeling.

Voor kernenergie is zo’n onzekere uitkomst niet aan de orde, omdat daar veel meer over bekend en meetbaar / berekenbaar is. Dat raakt eerder risicomanagement principes dan onzekerheidsprincipes.

Vluchten voor de vulkaan. Soms is dat de enige manier om een (grotere) ramp te voorkomen

Aansluitend op deze redenatie geldt nog het argument van onomkeerbaarheid. Bepaalde negatieve uitkomsten zijn niet terug te draaien of te herstellen. Een extra argument voor een voorzorgsmaatregel.

Toch, zegt Sunstein, kun je met voorzorgsmaatregelen ook positieve uitkomsten blokkeren. Daarom is hij het niet met Taleb eens. Er zijn voldoende wetenschappelijke artikelen die de kans op een onomkeerbare escalatie met GMO zeer onwaarschijnlijk achten.

Als tweede voorbeeld van geblokkeerde opbrengsten door de voorzorgsmaatregel noemt hij de vergunning voor zelfrijdende auto’s. Die zou je kunnen verbieden, omdat er onherroepelijk doden zullen vallen en dat is onomkeerbaar. Maar het betekent ook misschien dat er juist veel extra slachtoffers te betreuren zijn omdat zelfrijdende auto’s minder ongevallen veroorzaken dan menselijke bestuurders en dus uiteindelijk veiliger zullen zijn.

Je kunt je er dus niet zonder meer met één regel of principe vanaf maken. Het blijft denken in scenario’s, in mogelijkheden, in het vergroten van je situational awareness, zoeken naar kwetsbaarheden maar ook naar kansen. Want in keuzes valt er ook vaak wat te winnen en dat wil je ook niet uitsluiten.

Uiteindelijk concludeert Sunstein dat in situaties van grote onzekerheid waarin het ‘wait and learn’ principe te onvoorzichtig is, het logisch is om toch zware preventieve maatregelen te nemen, of het nu gaat om pandemieën, klimaatverandering of GMO. “Those measures will enable us to sleep better at night. And if we end up buying too much insurance, well, so be it.

Lichtzwarte Zwaan

Gaat Averting Catastrophe nou echt over hoe je een ramp voorkomt, zo vroeg ik me af na lezing. Ten dele, denk ik. Het gaat voornamelijk over het managen van onzekerheid, Knightian Uncertainty. Gebeurtenissen met een zeer kleine kans op een groot effect, waar je geen getallen aan kunt toekennen en zodoende buiten het reguliere risicomanagement vallen.

Highly impropable events with an extreme impact, dus.

Toen pas, bij die definitie, begon bij mij het lampje te banden. Taleb en Sunstein hebben het over hetzelfde in hun boeken. Alleen voegde Taleb wel de achteraf explanatie toe aan zijn definitie van de Zwarte Zwaan en Sunstein niet. Sunstein bespreekt dus eigenlijk een lichtzwarte Zwaan.

Hoe dan ook, de meerwaarde van Averting Catastrophe ligt voor mij in de verbreding van het veld dat Taleb heeft geclaimd als het zijne, het land van de Black Swan, maar waar ook andere denkers hun licht op hebben laten schijnen.

Jung had gelijk; dankzij Sunstein begrijp ik Taleb en het veld van onzekerheidsmanagement beter.  Maar hoe je een ramp voorkomt weet ik nog steeds niet zeker.

De Nieuwe Wet van Murphy

Van de Wet van Murphy had ik ooit geleerd dat alles wat mis kan gaan, ook mis zal gaan. Er sprak desondanks een bepaalde geruststelling uit; als het niet mis kan gaan, gaat het goed. Tot ik las over de Regel van W.F. Hermans: Alles wat niet mis kan gaan, zal ook mis gaan. Dat verandert de zaak nogal.

De eerste aanvulling op dit blog is van 2 maart 2023 en vind je onderaan

Ergens op een verlaten plankje in de boekenkast staat een onooglijke uitgave van Arthur Bloch. Murphy’s Law heet het, en het gaat, je raadt het al, over de Wet van Murphy.

Deze dus;  “alles wat mis kan gaan zal ook mis gaan.”

Some of your decisions are going to be mistakes. You have to make them anyway.

Picard Management Tip

Het is niet een boekje dat je echt leest, hooguit scan je het, op zoek naar de leukste vondsten. Of je pakt het erbij als je een blog schrijft over de Wet van Murphy. Allebei kan natuurlijk ook. Dan krijg je een rijtje zoals deze, met een paar voorbeelden die ik uit het boekje van Bloch scande:

  • Murphy’s Wet van Crisis; Je zit in een crisis als je niet kan zeggen: zand erover.
  • De Wet van Patton; Een goed plan vandaag is beter dan een perfect plan morgen.
  • De Wet van Sweeney; De lengte van een voortgangsrapportage is omgekeerd evenredig aan de voortgang.
  • De Wet van Smith; Geen enkel werkelijk probleem heeft een oplossing
  • De Wet van Hoare; In ieder groot probleem zit een klein probleem dat zich naar buiten vecht
  • De Thermodynamische Wet van Murphy; De dingen worden onder druk nog erger

Wet van Murphy

De Wet van Murphy is in de praktijk een soort onbewuste onderlegger bij risicoanalyses en scenariodenken. Daarmee zoeken we naar de dingen waarvan we denken dat ze mis kunnen gaan, zodat we maatregelen kunnen nemen om het niet mis te laten gaan, om het te beheersen. Te voorkomen, te beperken, te bestrijden of op te ruimen.

In de loop der tijden zijn er steeds meer professionele tools ontwikkeld voor risicoanalyse en scenariodenken. Denk maar aan Hazops, Vlinderdassen en FMECA. Er zijn er vast veel meer, ik ben er niet erg meer in thuis. Mijn carrière ontwikkelde zich in een andere richting.

Nieuwe Wet van Murphy

Maar één ding weet ik wel en dat hebben alle tools gemeen; het zijn altijd de deskundigen van een bedrijf die de risico’s aandragen.

Die deskundigen zijn meestal ook echt deskundig. Zij weten wat er mis kan gaan in jouw bedrijf of organisatie. Dankzij jarenlange ervaring en vaak ook relevante opleidingen leveren ze de benodigde informatie moeiteloos aan. Ik deed het zelf ook regelmatig. Precies conform de Wet van Murphy inventariseer je alles wat mis kan gaan. Want eens zal dat misgaan, is het niet nu dan ergens in een miljoen jaar.

En dat stoppen we in een lijst, een tool, een programma. Wat overblijft is discussie over kans en effect. Daar schreef ik al eerder over in deze blogs over Geelwassen en Risicomanagement.

Regel van Hermans

Daarmee was het tot voor kort klaar, volgens mij. Tot ik op een onbewaakt ogenblik tegen een column van Michel Krielaars in het NRC aanliep. Hij vertelde over de presentatie van het laatste deel van de verzamelde werken van W.F. Hermans en het boekje dat speciaal ter ere daarvan werd uitgereikt.

Bas Godska, ik ken hem verder niet, had daar volgens Krielaars ook een stukje in geschreven. Godska had ooit als scholier contact gelegd met Hermans en ze waren elkaar daarna blijven schrijven tot Hermans overleed. Kennelijk was Godska daarna geëmigreerd.

Zevenentwintig jaar later schrijft Godska Hermans postuum hoe hij kort voor de Russische invasie in Oekraïne zijn huis bij Kiev heeft verlaten met alleen hun briefwisseling op zak. De oorlog doet hem beseffen dat Hermans’ lessen over beschaving en chaos nooit eerder zo toepasselijk zijn geweest als nu. En dan schrijft Godska tot slot: ‘Maar je regel dat alles wat niet mis kan gaan ook misgaat, blijft geldig.’

Michel Krielaars

Alles wat niet mis kan gaan, zal ook mis gaan; dat is dus de Regel van W.F. Hermans.

Tunnelvisie

Wat er dan gebeurt in mijn hoofd.

W.F. Hermans probeert zijn nieuwe camera uit, 1985. Foto Rob Croes ANP

Als eerste sprong mijn tunnelvisie alert aan na het lezen van Krielaars’ column. Alles wat niet mis kan gaan is nooit input van risicoanalyses. Daar wordt niet naar gekeken en feitelijk is het dus een omissie, een blinde vlek.

Ten tweede ging het Taleb lampje branden. Was dit niet een andere formulering van een Black Swan? Een unknown known? Mogelijk zelfs een fundamental surprise dan wel een fundamental risk? Kan je tunnelvisie hebben voor tunnelvisie; dat je zo in een tunnel zit, dat je niet ziet dat je in een tunnel zit?

Ten derde, wat gaat er op het moment toch allemaal mis wat niet mis kon gaan? Betaalbare energie. Arbeidsmarkttekorten. Hyperinflatie. Drinkwatertekorten. Om er maar eens een paar te noemen.

En wachtrijen voor van alles. Dat alles in een half jaar. Tot eind februari 2022 leefden we nog in een lockdown.

Hypocognitie is geintroduceerd door de antropoloog Robert Levy en sluit aan op de Sapir Whorf hypothese. Het betekent dat je geen linguistische of taalkundige representatie hebt voor een object, een situatie of een idee. Dat kan er toe leiden dat je een unknown unknown ervaart (situation awareness level nul) ofwel dat je iets ziet maar het niet kunt benoemen omdat je er geen woorden voor hebt. Of dat je aan het dunning kruger syndroom lijdt, dat kan ook nog.

De Nieuwe Wet van Murphy

Hermans heeft gelijk.

Het kon niet anders, zo bedacht ik mij verder, dan dat we de input voor risicoanalyses moeten aanpassen. Niet alleen moeten we kijken naar wat er mis kan gaan, we moeten ook kijken naar wat er niet mis kan gaan. Met andere woorden, kijk eerst in je tunnel en daarna nog eens heel goed buiten je tunnel. Want daar zitten je grootste risico’s.

Wat we ook moeten doen is de Wet van Murphy combineren met de Regel van Hermans tot De Nieuwe Wet van Murphy. Want nu weten we dat alles mis kan gaan, alleen nog niet wanneer. Of eigenlijk weten we dat wel: altijd als het slecht uitkomt.

Alles zal misgaan en altijd op het verkeerde moment.

Dat is de Nieuwe Wet van Murphy.

Update 2 maart 2023: Lessen uit B&B

Op 1 maart 2023 publiceerde de Onderzoeksraad voor Veiligheid (OvV) het onderzoek Bewaken en Beveiligen: lessen uit drie beveiligingssituaties. Het is een uitgebreid rapport dat ingaat op wat er allemaal fout ging in de beveiliging van drie personen die betrokken waren bij het Marengoproces. Eén van hen was Peter R. de Vries.

Veel van wat de OvV beschrijft past naadloos in de Nieuwe Wet van Murphy: alles zal mis gaan en altijd op het verkeerde moment. De oorzaken van dat falen zie je ook terug in dit verhaal over de Predictable Surprise; door een combinatie van cognitieve, organisatorische en politieke factoren wordt een systeem zo fragiel, dat een ongewenste gebeurtenis voorspelbaar wordt.

Je creëert gewoon je eigen Black Swan.

Eén van de zaken die mij het meeste trof was een passage over omgaan met onzekerheid en de reactie daarop van de baas van het OM, Gerrit van der Burg. Eerst de conclusie van pagina 115 uit het rapport:

Nou weet iedere crisismanager dat aannames gevaarlijk zijn. Het is namelijk altijd onzeker of ze waar zijn of niet. Aannames moet je dus altijd checken, roep ik tijdens trainingen. Waarbij we tegelijkertijd moeten beseffen dat aannames hardnekkige processen zijn waar iedereen in kan stinken. Vroeg of laat maak je gewoon een verkeerde inschatting , meestal heb je het zelf niet eens door.

Maar als je weet dat mensen kwetsbaar zijn in het hanteren van hun veronderstellingen, kun je als organisatie ook maatregelen treffen. Dat je die verkeerde inschatting dus niet maakt. En als het toch gebeurt, dat je het toegeeft. Want na zo’n fout moet je ook weer verder met elkaar.

De aannames uit de conclusie van de OvV zijn van een ander niveau, een soort van double loop verkeerde aannames, waarover ik toevallig eind februari een kattebelletje naar mezelf had gestuurd als update voor dit blog.

Kan het echt niet gebeuren of denk je alleen maar dat het niet kan gebeuren? Ben jij de enige die dit denkt of doet de hele organisatie dat? That’s the question

In de kern is die vraag de Regel van Hermans: ook dat wat niet mis kan gaan, zal mis gaan. Zodoende raak ik er steeds meer van overtuigd dat je aannames niet alleen moet gebruiken als begrenzing van je beeldvorming, maar ook als escalatie: wat als het erger wordt dan je aannemelijk vindt?

En sla zo’n discussie niet gelijk stuk met opmerkingen over kans. Het gaat er niet om of het kan gebeuren, maar wat je doet als het wel gebeurt.

Dan naar Van der Burg. In het NRC van 1 maart geeft hij antwoord op een paar vragen. Daaruit pikte ik deze vraag van de journalist:

De Onderzoeksraad concludeert dat de gevaren te voorzien waren. Dat het OM alle signalen, die er wel degelijk waren, negeerde of door miscommunicatie heeft gemist.” Daarop zegt Van der Burg het volgende.

‘Achteraf kun je natuurlijk zeggen dat er gebeurtenissen zijn geweest die een voorspellende waarde hebben gehad. Maar ik vind het wel belangrijk om het in de context van toen te plaatsen. Het was nog nooit gebeurd dat de broer van een kroongetuige werd vermoord.’

gerrit van der burg

Het was nog nooit gebeurd, dus we namen aan dat het nu ook niet zo gebeuren, dat is wat de baas van het OM hier durft te zeggen. Waarschijnlijk meent ie het nog ook. Tip aan alle boeven: pleeg een misdaad die hier in Nederland nog nooit gebeurd is. Het OM zal ze in ieder geval niet ontdekken.

Veel duidelijker dan dit zal je een fundamental surprise niet aantreffen.

Overigens bleek vandaag dat de Britse veiligheidsdienst MI5 ook vele signalen gemist had om de bomaanslag in Manchester tijdens een concert van Ariane Grande te voorzien en te voorkomen. Maar die directeur gaf wel toe dat ze fouten hadden gemaakt en verstopte zich niet achter het met-de-kennis-van-nu syndroom.

Hij ontkende het probleem niet. Dat geeft in ieder geval hoop op verbetering.

Nou hier nog.

Gidswoorden voor crisis scenario’s

Gidswoorden voor crisisscenario’s zijn een hulpmiddel om tunnelvisie te verminderen. Het gaat daarbij niet om het managen van de vechten / vluchten respons, maar om het herkennen van situaties waarin je aandacht wordt getrokken door een afwijkend patroon en je daar zo op focust dat je het zicht op het totaal verliest. Zonder dat je het doorhebt, overigens. Wij mensen houden onszelf namelijk nogal makkelijk voor de gek.

Het is eigenlijk opvallend dat de meeste mensen heel weinig weten van iets dat ze de hele dag door doen: denken. Veel slimmeriken zeggen bijvoorbeeld dat je bent wat je denkt. Ze kunnen zich niets voorstellen bij een probleem dat je niet kunt oplossen. Gewoon je hersens gebruiken, hoe moeilijk kan het zijn? En inderdaad, met logica, ratio en metasyntactische variabelen kan je veel oplossen.

Dit deel van denken wordt cognitie genoemd. Het gaat onder andere over informatieverwerking, geheugen, kennis en redeneren. De Dikke BOB is in die zin een cognitief hulpmiddel, bedoeld om op chaotische momenten toch rationeel te blijven redeneren en handelen.

Maar cognitie bepaalt niet alles in de besluitvorming. Waarom vind je bijvoorbeeld geel een mooie kleur, of juist niet? Hoe komt het dat de ene mens graag een beetje risico neemt en de ander helemaal niet?

Schipholtunnel 1966. Foto ANP Anefo.

Omdat er ook een stuk biologie in je denken huist. Ervaringen, voorkeuren en aanleg hebben zich ergens in je brein genesteld en bemoeien zich zo nu en dan ongevraagd met je cognitie. Vaak heb je dat niet eens door. Zo goed ken je je denkproces dus. 

Overlevingsstrategie

Vechten / vluchten respons, daar hebben de meeste mensen dan nog wel van gehoord. Dat het een reactie is van het autonome zenuwstelsel op een grote dreiging, waardoor je op de vlucht slaat, van schrik verstijft, de boel in elkaar timmert of met je smartphone een opname gaat staan maken. Allemaal biologische overlevingsdrift.

Intermezzo

In diverse blogs over besluitvorming onder tijdsdruk heb ik ook geschreven over verraderlijke mechanismen in de menselijke psyche. Generieke conclusie daaruit is dat je organisatorische maatregelen (het vangnet) moet nemen om menselijke fouten te voorkomen en compenseren. Dat geldt voor tunnelvisie net zo. Verhoog de vigilantie van je organisatie en maak snelle opschaling de standaard (weak signals, hard response). Regel tegensprekers in je crisisteams. En laat na x tijd automatisch opschalen naar een hogere regelkring om vast te stellen of de shared situational awareness op het goede niveau zit.

Uit diezelfde overlevingsdrift komt een eigenschap voort die focus heet, of aandacht. Er is iets dat afwijkt van een patroon, je oog valt er op, je hoort of ruikt iets geks, het kan van alles zijn. Maar het trekt je aandacht en je gaat er op af. Je blik focust zich op één bepaalde plek, je zoomt in en knalt gelijk in de solution modus. Oplossen die hap. Omdat je een slim mens bent weet je best hoe je moet handelen om de situatie te managen. Dat zal je dus laten zien ook.

Vanuit je tunnel. 

Tunnelvisie is een verraderlijk fenomeen. Het is een combinatie van biologische en cognitieve denkprocessen die bij elkaar komen en je soms volledig voor de gek houden. Dan denk je lekker rationeel bezig te zijn, maar in het echt heb je een groot deel van de werkelijkheid niet eens opgemerkt. Je blijft dan steken in situational awareness level nul. Of een half: je ziet het wel, maar niet alles.

IJ-tunnel in aanbouw, 1965. Foto Jac Nijs ANP.

Inzoomlampje

Nieuwe voorzitters of teamleiders laten we tijdens hun initial training daarom altijd een tunnel inlopen zonder dat ze het door hebben. Zodat ze in ieder geval één keer in de valkuil hebben getrapt tijdens een veilige leerervaring en het daardoor misschien beter herkennen als ze er in de praktijk dreigen in te lopen.

In dit blog over personal resource management heb ik die herkenning het inzoomlampje genoemd, als één van de controlelampjes van de crisismanager: als je de neiging voelt ergens sterk op in te zoomen, doe dan precies het tegenovergestelde. Zoom uit. Neem afstand.

En ga aan de slag met deze vier vragen:

  • Wat gebeurt er?
  • Wat betekent dat?
  • Wat kan er nog meer gebeuren?
  • Wat gaan we daaraan doen?

HAZOP

Ja, dat is inderdaad de Dikke BOB in het klein. Dat ga ik hier dus niet herhalen, check daarvoor onder andere deze blogs. Waar ik het hier verder over wil hebben is de derde vraag. Wat kan er nog meer gebeuren?

Ga scenario denken, is dan meestal de opdracht. Maar scenariodenken is nog niet zo heel eenvoudig. Zeker niet als je weinig ervaring hebt. Hoe pak je scenario’s bedenken aan?

Nou, bijvoorbeeld met gidswoorden.

Gidswoorden komen uit de HAZOP. Dat staat voor Hazard and Operability Analysis. Het is een risico analyse techniek uit de veiligheidskunde die veel wordt toegepast in de chemische industrie. Het komt er in het kort op neer dat een installatie in stukken wordt verdeeld. Elk stuk wordt geanalyseerd aan de hand van gidswoorden. Zoals bijvoorbeeld NO. Of MORE.

Gidswoorden uit de HAZOP

Neem bijvoorbeeld een transportbuis van een brandbare vloeistof. Het gidswoord NO geeft aan dat er geen flow optreedt in de buis. Wat zijn daar de oorzaken van? Welke oplossingen zijn er? Hetzelfde geldt voor gidswoorden die onderzoeken waarom er te veel flow optreedt, of te weinig. Of te heet, dan wel te koud. Van alles.

Waarschijnlijk doe ik hier de HAZOP verschrikkelijk mee te kort, maar het gaat voor dit blog even om de context van de gidswoorden. Dat je een beetje ziet wat je daar mee kan: op een gestandaardiseerde manier afwijkingen zoeken in een systeem. Het is scenariodenken met een methodiek. Niet alleen maar vertrouwen op je intuïtie of ervaring, op je biologie dus. Maar ook op je cognitie. Logica en redeneren. Systeem 2 van Kahneman.

Gidswoorden voor crisisscenario’s

Naar analogie van de HAZOP maakte ik een rijtje gidswoorden voor crisis gebaseerd op mijn eigen ervaringen. Het is vast niet compleet, noch is het wetenschappelijk gevalideerd. Maar scenariodenken zonder handvat, dus uit je blote hoofd, is dat ook niet.

  • Sneller.
    • Wat als het incident sneller gaat verlopen. Kun je het dan nog bijhouden, kun je er dan nog steeds vooruit komen?
  • Langzamer.
    • Het incident verloopt langzamer dan iedereen denkt. Of de oplossing verloopt langzamer dan nu wordt gezegd. Wat betekent dat?
  • Langer.
    • Wat als het probleem vanavond niet is opgelost? Dat de stroomstoring ook morgen en overmorgen duurt? Of nog langer? Een week? Of een maand?
  • Groter.
    • Wat als het incident zich uitbreidt, groter wordt. Kan je het dan nog steeds aan? Moet je daar nu al proactief rekening mee gaan houden?
  • Meer.
    • Is het mogelijk dat zich nog meer ongewenst gebeurtenissen aandienen? Dit gaat niet alleen over gelijktijdigheid, maar ook over interferentie. Kunnen ze vermengen?
  • Net als.
    • Het incident wordt extern geframed als een ander, berucht incident. Ofwel van jezelf, ofwel die van een ander. Welk incident bevecht je dan nog?
  • Anders.
    • Kan dit onverwachts een ander incident worden? Bijvoorbeeld, kan een brand opeens een discussie worden over naleving van wet- en regelgeving en wordt je opeens als onbetrouwbaar afgeschilderd?
  • Domino.
    • Zijn er domino effecten mogelijk dan wel te verwachten? Bijvoorbeeld dat jouw rookwolk leidt tot de sluiting van een ander bedrijf plus evacuatie waardoor het onderliggend wegenstelsel verstopt, et cetera.
  • Schuld.
    • Is er sprake van schuld dan wel nalatigheid van jou of je partners / stakeholders?
  • Opzet.
    • Wat als er sprake is van opzet, sabotage of een aanslag?
  • Framing.
    • Hoe moet je omgaan met laster, valse beschuldigingen, insinuaties of kwaadsprekerij?
Brandweer bezet de IJ-tunnel 16 december 1982. Foto Rob Croes ANP

Het gebruik van gidswoorden is een manier om uit je tunnel te komen, maar wees er niet rigide in. Het is niet de bedoeling dat de gidswoorden je een nieuwe tunnel in helpen. Ga er dus zorgvuldig, maar wel creatief, mee om. Oefen je organisatie er mee in de praktijk, kijk wat werkt en wat niet. Let er bijvoorbeeld op dat je niet plichtmatig het rijtje afloopt en voorbij gaat aan de mogelijkheid dat er meerdere gidswoorden met elkaar interfereren tot een nieuwe dreiging.

Misschien moet je rollen definiëren zoals in de officiële HAZOP, met een teamleader, schrijver en specifieke inhoudsdeskundigen. Dat is natuurlijk afhankelijk van het risicoprofiel en gevoeligheid van je organisatie voor ongewenste gebeurtenissen. Maar als het goed is was je daar al op ingericht. Inclusief de vier principes van de safe systems approach.

Overigens heb ik geen idee wat je met metasyntaxische variabelen moet. En oh ja, mocht je nog aanvullingen hebben op de gidswoorden voor crisisscenario’s, mail ze dan naar info@rizoomes.nl. Rijtjes kunnen altijd langer.

Update 11 juni 2022: de andere scenariovraag

De afgelopen drie weken heb ik een paar trainingen gegeven aan nieuwe crisisteamleden en voorzitters. Vanzelfsprekend kregen die van alles te horen over De kleine taxonomie van de ongewenste gebeurtenis, de Dikke BOB en De regels van het Dode Paard. En daarna gingen we oefenen. Met scenario’s.

Wat me toen voor het eerst echt opviel: de moeite die mensen hebben om scenario te denken. Vraag ze wat er hoogstwaarschijnlijk gaat gebeuren als je niet ingrijpt bij een startgebeurtenis en je krijgt gloedvolle betogen over wat je dan allemaal te wachten staat. Dus met de hard skills zit het echt wel goed.

Maar als je vraagt om bij dezelfde startgebeurtenis een best-, real- en worstcase- scenario te maken dan wordt het stil. Dat vinden vakprofessionals moeilijk, als incidentbestrijding hun bijvak is. Omdat ze vanuit de inhoud van hun werk opeens in een vorm van procesdenken worden gestopt. Waar ze eerst in hun vak zaten, komen ze er door scenariodenken opeens buiten te staan. Alsof plotseling hun ervaring in één keer was weggevallen.

De oplossing bleek eenvoudig. Stel de andere scenariovraag.

Wat wil je absoluut niet dat er gebeurt? (worst case)

Wat wil je dat er wel gebeurt? (real case)

Als je het zo omschrijft vervalt bovendien de noodzaak van een best case. Die stopt iedereen er eigenlijk alleen maar bij omdat de anderen het ook zo doen. Want eigenlijk stuur je op maar twee scenario’s. Wat je absoluut niet wilt en wat je wel wilt.

Bovendien stuur je op beide scenario’s tegelijk, als het kan. Wat je wel wilt en wat je niet wilt sluit elkaar namelijk zelden uit. Je wilt het allebei. Dat je dan ook nog een Plan B nodig hebt voor als het tegenzit vond iedereen logisch. De gidswoorden hielpen daar overigens prima bij.

Waarop ik me afvroeg: zou scenariodenken niet altijd tot tunnelvisie leiden?

Personal resource management: controlelampjes voor de crisismanager

Are things truly not going well … or do I just need some food, water, and a short break?​

James Clear (atomic habits)

Tijdens crises functioneert alles anders en liggen menselijke fouten op de loer. Hoe mooi is het als er controlelampjes zouden zijn voor de crisismanager, die aangaan op het moment dat zo’n fout dreigt. Die controlelampjes voor de geest kun je zelf maken, maar je moet ze wel eerst trainen. Met personal resource management.

Enkele weken geleden probeerden we een nieuwe vorm van oefenen op afstand uit. Via Teams hadden we een Schiphol Team Plaats Incident (STPI) uitgenodigd om met elkaar een incident door te spreken. Een STPI is eigenlijk het klassieke CTPI, dat om onduidelijke redenen ooit werd opgeheven en nu weer informeel terug is onder de naam Motorkapoverleg (MKO). Een STPI is dus een MKO.

De gedachte was om aan de hand van een ambigue startgebeurtenis te bespreken wat iedereen zou gaan doen en welke informatie en ondersteuning, dan wel opschaling, daarvoor noodzakelijk was. Ook als het incident zich verder zou ontwikkelen in nog onbekende richting. Want dat wilden we laten afhangen van de input van de deelnemers. Uiteindelijk bestond het STPI uit 8 mensen. En ik was degene die het geheel aan elkaar ging praten.

Dat lukte in het begin best goed, maar naarmate de oefening vorderde moest ik steeds meer ballen in de lucht houden; de doorontwikkeling van het scenario, vragen stellen aan de verschillende disciplines over hun acties en overwegingen en die relateren aan de andere disciplines, samenvatten en vooruitdenken. Ondertussen zie je acht mensen op je beeldscherm die ook nog eens andere dingen gaan zitten doen, gezichtsuitdrukkingen die je niet kunt inschatten, alle microfoons op mute dus je hoort vooral jezelf waardoor je non-verbale feedback mist, enfin, ik kreeg het volgens mezelf steeds drukker en drukker.

Veel controlelampjes in de meldkamer van Doodewaard, 1969. Foto ANP.

Dat was het moment dat één van mijn controlelampjes aanging: het tehardwerken lampje. Ik merkte dat ik te weinig denkcapaciteit ging overhouden om dit incident nog lang in goede banen te leiden. Tijd dus voor een interventie, om de kwaliteit van de oefening op peil te kunnen houden.

Metacognitie

In 2021 zit ik dertig jaar in het vak. In al die jaren ben ik me steeds bewuster geworden van de controlelampjes voor de crisismanager. Enerzijds omdat ik ze bij mezelf leerde herkennen, maar ook door die talloze trainingen en oefeningen die ik heb begeleid en waar ik anderen zag stoeien met hun besluitvorming-onder-tijdsdruksgeesten. Tunnels zag ik, cirkelredenaties, stick to the plan bias, tijdcompressie, informationbias, groupthink, noem het allemaal maar op.

Uit al die ervaring destilleerde ik een rijtje controlelampjes voor de crisismanager. Dat zijn signalen over jezelf die je kunt trainen. Het is net een soort spier, je metacognitie-spier. Metacognitie betreft de kennis en vaardigheden om het eigen denken, handelen en leren te organiseren, te sturen en te controleren. Het gaat onder andere om vaardigheden voor beeldvorming, oordeelsvorming en besluitvorming, doelen stellen, plannen en controleren.

De essentie van metacognitie is dat je je bewust bent van jezelf in het totaal, tijdens het managen van de crisis of disruptie. Maar metacognitie kost energie en denkkracht. Onder tijdsdruk heb je die maar heel beperkt. Dan is je metacognitie ook nog eens als eerste weg, zonder te waarschuwen. En weg is weg, zit je daar in je eentje zonder jezelf. Dat voelt eenzaam, en je weet niet eens waarom.

Onder metacognitie valt ook nog het na afloop evalueren van jezelf en het daarop reflecteren wat je over jezelf hiervan kan leren. Het trainen van je metacognitie-spier bevat dus nog best wel een aantal stappen. Daarom noem ik het ook wel personal resource management; het trainen, managen en verbeteren van je persoonlijke denkcapaciteit, je self skills (als aanvulling op hard- en soft skills).

Mindfulness

Binnen veel hulpverleningsdiensten is er de laatste jaren aandacht gekomen voor die menselijke factor onder tijdsdruk. Onder andere bij de brandweer zijn er programma’s gestart over mindfulness. Het IFV bijvoorbeeld publiceerde een studie over mindfulness onder de titel ‘Met beide benen op de grond.’ Daarin werd het volgende opgeschreven:

“De conclusie van dit verkennend onderzoek is dat mindfulness een bijdrage kan leveren aan een betere besluitvorming onder druk door commandovoerders bij de brandweer. Uit de literatuur blijkt dat mindfulness de emotionele stabiliteit bevordert en bijdraagt aan het geestelijk welbevinden. Het beoefenen van mindfulness leidt tot een grotere mentale veerkracht. Deze mentale veerkracht is nodig om onder grote stress te kunnen blijven functioneren.”

In de studie wordt ook een kleine pilot beschreven, waarbij officieren getraind werden in ademhalingstechnieken en het leren omgaan met jezelf in extreme koude. Deelnemers rapporteren daar gematigd tot zeer positief over. Toch concludeert het IFV dat daarmee de weg naar mindfulness niet open ligt. “Mindfulness wordt door sommigen geassocieerd met ‘zweverig’ en niet-praktisch. De implementatie kan daarom op emotionele weerstand stuiten, zo heeft met name de evaluatie van de pilot geleerd.”

Maar mindfulness hoeft helemaal niet zweverig te zijn. Mensen die onder druk staan en daar al enige ervaring mee hebben, merken bij zichzelf bijvoorbeeld eerder dan onervaren mensen dat hun stem hoog in de keel zit en de ademhaling daar vlak onder; hoog in de borst, in plaats vanuit de buik. In reguliere oefeningen kun je mensen zonder al te zweverig te worden daar al bewust van maken.

Ronin is een één van mijn favoriete films. Robert de Niro en Jean Reno worden door de IRA ingehuurd om een geheimzinnige koffer terug te halen. Spectaculaire achtervolgingen maar ook mooie dialogen met veel verwijzingen naar controlelampjes avant la lettre.

In het personal resource management kun je dan al snel de eerste twee controlelampjes installeren: hoge stem en / of hoge ademhaling? Even met beide benen op de grond, diep ademhalen en aarden in het hier en nu, uit je hoofd. Zeg het ook gelijk (zelfonthulling, zie ook dit blog over de regels van het dode paard) en maak het daarmee bespreekbaar voor anderen. Tijdens crisis moet je het namelijk ook over jezelf en het proces hebben. Dat wordt nog wel eens vergeten.

Controlelampjes

Naast deze controlelampjes voor ademhaling en stemhoogte zijn er nog veel meer. Het hangt een beetje van de persoon af welke en hoe goed ze zijn. Ik heb er een paar voor je verzameld die ik hier kort zal bespreken.

  • Het tehardwerken lampje. Als je bij jezelf voelt dat je echt heel hard aan het werk bent, sta daar dan even bij stil. Hard werken tijdens crisis is niet abnormaal, maar het is wel een signaal dat je aan het eind van je cognitieve ruimte komt. Je zit vlak bij het moment dat je niks extra’s aan informatie meer kunt opnemen of verwerken. Daardoor ga je dingen missen en niet meer zien, loopt je situational awareness van je weg en ben je een beperkende factor als het incident nog veel groter gaat worden. Kijk of je bijvoorbeeld moet opschalen, compartimenteren, aflossen of pauzeren.
  • Het gaatbestgoed lampje. Dit is een gevaarlijk lampje. Tevredenheid over je inzet moet je niet verwarren met zelfgenoegzaamheid. Groupthink ligt op de loer. Als het vette crisis is en er is van alles aan de hand, dan kan het eigenlijk niet goed gaan. Dat is de basis-assumptie. Als jij dan denkt dat het lekker gaat, heb je misschien al van alles gemist. Dus ga checken: gaat het echt goed, of denk ik dat maar? Haal er een tegenspreker bij. Laat iemand doemdenken. Bewaak de chronic unease.
  • Het inzoom lampje. Misschien is dit wel het lampje dat ik het eerst ontdekte. Bij spannende incidenten trekt de bron je als een magneet naar zich toe. Je springt er gelijk bovenop. Maar als je voorzitter bent van een team is dat levensgevaarlijk: daarmee raak je het totaaloverzicht direct kwijt en loop je een tunnel in. Details trekken details aan en voor je het weet ben je ondergesneeuwd door een lawine van niksigheid. Ja, er moet iemand bovenop die bron en de details gaan zitten, maar niet jij. Dus voel je bij jezelf dat incident trekken en wil je inzoomen, doe dan precies het tegenovergestelde. Zoom uit. Start je helikopter blik. Bewaak de hoofdlijn. Da’s jouw taak, en verdeel de rest onder je team.
  • Het watvliegtdetijd lampje. Ook dit is een deksels lampje. Onder tijdsdruk ben je gauw het gevoel voor tijd kwijt, in de zin dat dat veel minuten voelen als weinig. Tijdcompressie, heet dat, en zeker in situaties met kritieke tijdspaden loop je zomaar de bietenbrug op en kom je er te laat achter. Het watvliegtdetijd lampje is echter een heel zwak lampje. Die moet je dus een beetje helpen met een extern lampje: laat iets of iemand elk kwartier dat voorbijgaat hardop omroepen. Laat ergens een klok meelopen. En waarschuw voordat het tijd is, niet als het tijd is. Dat is precies het verschil tussen proactief en reactief crisismanagement.
  • Het twijfelniet lampje. Als je twijfelt, twijfel dan niet. Twijfel is een weak signal dat er misschien iets aan de hand is wat je bewuste nog niet heeft opgevangen. Luister daar naar. Twijfel moet natuurlijk geen besluiteloosheid worden. Dus pak bij twijfel het zekerste alternatief. Twijfel je over opschalen? Opschalen! Wel of niet aflossen? Aflossen! Wel of niet stakeholders informeren? Informeren! Als je bij elke twijfel het zekerste alternatief neemt, bouw je redundantie in je tijdelijke crisis bouwwerk. Altijd handig, voor als er nog escalatie- of complicatiefactoren bijkomen.
personal resource management
De mooiste quote uit Ronin die ik vaak gebruik als feed-back in het personal resource management.

Personal resource management

Elk controlelampje is op zichzelf een controlelampje voor de metacognitie: als je er niet naar luistert, is het volgende wat verdwijnt je metacognitie. Zonder metacognitie ben je mentaal stuurloos en dirigeert het incident jou, in plaats van andersom. In die zin telt elk controlelampje voor de crisismanager voor twee.

In personal resource management is het trainen, bewaken en verbeteren van je controlelampjes een belangrijk doel. Tijdens oefeningen zou je daar eigenlijk voldoende tijd voor moeten vrijmaken. Dat kan een hoop ellende voorkomen. Houd echter wel goed in de gaten dat controlelampjes ervaringslampjes zijn. Ga ze dus niet evalueren met zo’n gestandaardiseerde checklist die ik steeds vaker toegepast zie worden bij team resource management. Want dan gaat het lichtje uit.

Hoe het afliep met de oefening? Wel, ik zag dat we al bijna een uur bezig waren en besloot om een versnelling in het scenario toe te passen, waardoor de Adviseur Gevaarlijke Stoffen aan de bak moest. Dat gaf mij ruimte om even van de bok af te stappen en de volgende stappen voor te bereiden om de oefening af te gaan ronden. De oefening was bedoeld als experiment en ik heb er een hoop van geleerd, met name over de beperkingen die Teams en Skype betekenen voor het uitwisselen van (non-verbale) informatie. Ik heb mijn lampjes daarom wat strakker afgesteld voor online crisismanagement. Ook dat is personal resource management.

Nog meer weten over personal resource management? Zie hieronder een rijtje blogs die ik ook schreef over dat onderwerp.

« Oudere berichten

© 2023 Rizoomes

Thema gemaakt door Anders NorenBoven ↑