De afkorting WYSIATI staat voor What You See Is All There Is. Daniel Kahneman introduceerde het begrip in zijn boek Thinking fast and slow. Het staat ook wel bekend als ‘jumping into conclusions’. Ook in het crisismanagement komt het regelmatig voor: dan slaat het team de oordeelsvorming over en gaat het direct van beeldvorming naar besluitvorming. En da’s niet goed. Maar er is wat aan te doen.
Het was tijdens Corona dat Rutte riep dat crisismanagement vraagt om hele besluiten te nemen met de helft van de informatie. Of woorden van die strekking, ik heb daar geen precieze herinnering meer aan. Wat hij zich waarschijnlijk niet besefte is dat veel mensen dat gewoon dagelijks al zo doen. Alleen heet het dan geen crisismanagement, maar what you see is all there is: WYSIATI.
WYSIATI is een fenomeen dat door Kahneman is beschreven in zijn bestseller ‘Thinking fast and slow’. Daaruit blijkt dat mensen in situaties onder tijdsdruk, al helemaal als ze vermoeid en gestrest zijn, de neiging hebben om voorbarige conclusies te trekken op basis van beperkte informatie. Precies de conclusie van de Onderzoeksraad voor Veiligheid over de aanpak van de coronacrisis.
Alsof Rutte vooraf de conclusie al kende, zeg ik dan met hindsight bias.
Confirmation Bias
Mensen merken onder die omstandigheden ook niet dat ze filteren wat ze zien of horen op basis van hun eigen onbewuste vooroordelen en aannames. Confirmation bias, heet dat. Het maakt je kwetsbaar voor de neiging om alleen dat te vinden wat je denkt dat je zoekt. En de rest, die er ook is en soms net zo relevant is, volledig te missen.
Want dat is hoe systeem 1 werkt. Het maakt een verhaal van dat wat direct beschikbaar is, dat wat je weet. Daarbij gaat het er niet zozeer om of het ook echt klopt, maar of het aannemelijk klinkt en aanvoelt, aansluit bij ervaring en onbewuste aannames. Bij je intuïtie, zeggen de believers dan, alwaar de sceptici het eerder onder je vooroordelen zullen scharen. Het is maar hoe je ernaar kijkt.
We laten de Kahnemaster even zelf aan het woord:
Think of a politician, for example. If I tell you that he’s intelligent and firm, you already begin to think he’s good leader. You do not allow for the fact that you know very little and that I could tell you next that he is cruel and corrupt. You form a fairly definite impression on the basis of the first two attributes. (…) System 1 can make a judgment on that basis. But in fact, there is a whole world of other traits that are relevant to leadership, but you haven’t thought of what you didn’t know. You just made a judgment on the basis of what you did know.
En dat is dus wat WYSIATI doet: jumping into conclusions. Of zoals ik nogal eens in evaluaties van oefeningen teruggeef, onder tijdsdruk hebben teams de neiging de oordeelsvorming over te slaan en direct van beeldvorming naar een besluit te gaan. Dan is kijken gelijk doen en wordt het denken vergeten. Da’s niet goed.
Ook jij hebt daar last van.
Think Slow
Ja, echt.
Want dit soort denkfouten zit namelijk ingebakken in onze manier van informatieverwerking. In het blog over de controlelampjes voor de crisismanager schreef ik er al eens over. Hoe je kunt waarnemen over jezelf dat je op glad ijs gaat. Als je stem opeens hoog in je keel gaat zitten, bijvoorbeeld. Of als je ergens midden in wilt duiken, je grote aandrang krijgt om in te zoomen, “naar de kern te gaan.”
Als je in wilt zoomen, zoom dan juist uit.
In de termen van Kahneman: if you start thinking fast, stop and think slow. Bij de brandweer geldt niet voor niets de kreet: Stop en denk na. Ga van systeem 1 naar systeem 2, betekent dat eigenlijk, maar dat bekt niet zo lekker in de praktijk.
In systeem 2 pak je het namelijk wat wetenschappelijker aan. Nog steeds met de BOB, maar dit keer dan met een goede oordeelsvorming. Oordeelsvorming die er zich van bewust is dat je altijd in een tunnel zit zodra je focust. En actief gaat vragen wat er buiten die tunnel zit, wat er meer is dan WYSIATI. Die weet wat de Regel van Hermans is. Als je dat niet meer weet, kijk dan vooral nog eens naar dit blog over de Nieuwe Wet van Murphy, want daar staat ie in.
WRAP
In hun boek Decisive bespreken de gebroeders Heath hoe je de valkuil van WYSIATI kunt omzeilen. Daarvoor bedachten ze het WRAP proces. Dat werkt zo.
- Widen your options. Vermeerder je opties. Daarmee vergroot je tevens de resilience van de situatie. “We need to uncover new options and, when possible, consider them simultaneously through multitracking. (Think AND not OR.) Where can you find new options? Find someone who has solved your problem. Try laddering: First look for current bright spots (local), then best practices (regional) and then analogies from related domains (distant).”
- Reality test your assumptions. Door de confirmation bias ben je snel geneigd informatie te zoeken die je veronderstellingen bevestigen. Maar de falsificatietheorie van Popper leerde ons al dat je juist moet challengen. Waarom is het niet waar? Wat kan er hier mis gaan? Wat als het erger wordt? Zie verder ook het blog over de Gidswoorden voor crisis. Daar vind je nog meer vragen.
- Attain distance before deciding. Zoom uit. Stijg op. Zie de context. Hoe zullen anderen hier naar kijken? Hoe kan ik het uitleggen? Hoe zou … (vul hier iemand in die je bewondert of juist niet) het oplossen? En neem de tijd als het kan. Laat je niet opjagen. Neem afstand en tijd.
- Prepare to be wrong. In de meeste gevallen gaat alles goed. Maar wat nou als het niet zo is? Bedenk daarom wat je gaat doen als het mislukt. Gebruik daarvoor bijvoorbeeld de pre-mortem methode van Gary Klein. In de woorden van Kahneman: “To use the method, an organization would gather its team before making a final decision on an important matter. Then, all the team members are asked to imagine that the decision led to disastrous failure, and to write up why it was a disaster. The method allows people to overcome “groupthink” by giving them permission to search for potential problems they might be overlooking.”
Kahneman’s checklist
Er is echter meer voor de gereedschapskist te vinden dan WRAP. Kahneman schreef voor Harvard Business Review een artikel over WYSIATI waarin hij een checklist met 12 vragen presenteerde om de meest voorkomende bias uit de besluitvorming te filteren. Hier is ie, in mijn woorden en daardoor iets meer naar crisisteams geframed. Want daar gaat het over op Rizoomes, crisis.
Oh ja, leg hem bij gebruik goed uit, want je maakt je er meestal niet populair mee. Je zit namelijk precies in de intuitie annex vooroordelen van mensen te peuren. Dat ligt al gauw gevoelig.
- Is er sprake van persoonlijk of organisatorisch belang in de voorgestelde besluiten? Wees dan extra voorzichtig, want dan is de oplossing mogelijk te optimistisch.
- Koestert het team zijn eigen oplossing? Hebben ze moeite hun darlings te killen? Dan zijn ze misschien te weinig kritisch op het resultaat en wacht er mogelijk een onaangename verrassing.
- Waren er tegengestelde geluiden in het team en zijn die adequaat uitgelopen? Deze vraag is een groupthink check.
- Is de oplossing (te veel) afgeleid van een vergelijkbaar geval in het verleden? Dan stap je misschien in de saliency bias. Zoek dan naar meer analogieën die anders zijn afgelopen, volg niet blind een succesrecept uit het verleden.
- Zijn er voldoende opties overwogen? Dat wil je weten om de confirmation bias te checken. Vraag desnoods om meer alternatieven dan er zijn opgeleverd.
- Als je hetzelfde vraagstuk over een jaar zou krijgen, kies je dan dezelfde oplossing? Wat maakt het anders dan nu? Met deze vraag wil je de availibility bias omzeilen.
- Waar komt je data vandaan? Waarop zijn (ken)getallen gebaseerd? Hiermee wil je de anchoring bias voorkomen.
- Is er sprake van een halo-effect? Loopt men achter één figuur aan die zich gedraagt als een soort goeroe? Wat is de invloed van grote ego’s in de besluiten van een team?
- In hoeverre laat het team zich leiden door falen uit het verleden? De sunk-cost fallacy maakt soms te voorzichtig en leidt al gauw tot uitstel of afstel van grote besluiten. Het is bijna het omgekeerde van vraag 4, de saliency bias.
- Is het real case scenario real genoeg? Of zijn ze te optimistisch? Zijn er simulaties uitgevoerd? Met deze vragen wil je overconfidence biases en competitor neglect voorkomen. De laatste speelt bij crisissituaties bijvoorbeeld ook als je de boef, terrorist of activist onderschat. Het gaat dus niet alleen om concurrenten of wetgevers.
- Is de worst case erg genoeg? Wat als het erger wordt, dat is de basisvraag bij alle scenariodenken. Dit om disaster neglect te voorkomen.
- En tot slot kan een team ook te voorzichtig zijn. Dan is er mogelijk sprake van loss-aversion: de wens om schade te voorkomen is groter dan de wens om de winst te pakken.
WYSIATI is een hardnekkig fenomeen, zoals eigenlijk alle vormen van human bias, dat je niet kunt voorkomen maar wel kunt leren herkennen. Eigenlijk is het gewoon een soort tunnelvisie. Door de juiste vragen te stellen kun je het enigszins beteugelen en je situational awareness op niveau houden. Al zal dat niet voorkomen dat je eens in de zoveel tijd een stom besluit neemt doordat je alleen zag wat er al was.