Menneske, system og samspill

Se for deg et stort tankskip som frakter store mengder produkter, gods og varer av ulike sorter. Det beveger seg utenfor et område hvor dyr og organismer lever i sitt eget økosystem. Plutselig går noe galt og skipet opplever en stressende nødsituasjon. Mannskapet og personell om bord gjør hva de kan, men skipet tar inn store mengder vann og godset om bord forsvinner ut i vannet. Det er ikke stort annet å gjøre for mannskapet enn å evakuere og berge sitt eget liv. En tid etter denne hendelsen setter en kommisjon seg ned for å undersøke hva som gikk galt og eventuelle årsaker til det. Man ønsker å kartlegge hendelsesløpet. Kommisjonen forventer at en eller et eller annet må påta seg skylda, og forhåpentligvis kostnadene. Hvordan avgjør man hvorvidt slike hendelser skyldes menneskelig svikt eller systemsvikt, og hva gjør man når ingen av disse to er syndebukken?

Hendelsen nevnt ovenfor er en hypotese, men den kunne gjerne vært sann. Sabotasje, ulykker og katastrofer har skjedd gjentatte ganger. Oljeplatformer har tatt fyr, store tunge skip har forlist, olje har rent ut i havet og romfartøy har eksplodert. Ulempene ved slike hendelser kan man tenke seg til selv, og det er viktig å avdekke årsakene av flere grunner. Det er sentralt å avklare hvor ansvaret ligger, tydeliggjøre økonomiske konsekvenser og hente lærdom. Man skiller gjerne mellom å tildele ansvaret til enten menneskelig svikt eller systemsvikt (Reason, 2000).

Menneskelig- og systemsvikt

James Reason (2000) er en viktig aktør innenfor det som omtales som «Human Error», på norsk menneskelig svikt. Et slik begrep kan virke noe misvisende, da det ikke er begrenset til mennesker, men inkluderer også systemet. Menneskelig svikt kan for eksempel være forglemmelse, uoppmerksomhet, dårlig motivasjon og uforsiktighet. Systemsvikt kan være feil på arbeidsplassen eller elementer i organisasjonen som gir opphav til svikt.

Hva er årsaken til ulykken?

En påstand Reason gjør i sin artikkel er at det virker enklere å tildele mennesket skylda enn systemet. Det kan være enklere å kvitte seg med en aktør i systemet, enn å måtte endre på systemet. Det sistnevnte kan brått bli dyrere og mer tidskrevende. I tillegg kan det være mer emosjonelt tilfredsstillende mener Reason å gi menneske skylda enn systemet. Mennesket opptrer i systemet som en fri, selvstendig og tenkende aktør som selv kan gjøre bedømmelser og ta beslutninger. Hvis mennesket tar gale beslutninger, mener Reason det er mer tilfredsstillende å straffe det basert på friheten. Det trenger ikke å bety at det er rettferdig. Det betyr at systemet ikke har samme frihet, men kun gjør som mennesket har besluttet. Systemet fulgte med andre ord kun ordre. Hvorvidt automatisering hører med i denne diskusjonen blir noe annet, men det er samtidig et spennende tema.

La oss gå litt tilbake til tankskiphypotesen nevnt ovenfor. Kommisjonen har nå gjort grundige undersøkelser. De har intervjuet mannskapet om bord, lyttet til eksperter, undersøkt åstedet, gått igjennom rapportert, osv. Årsaken til ulykken viste seg å være at tankskipet kom for langt inn på grunna. Dette har mannskapet forklart de var klar over og gjorde de tiltak de kunne for å få skipet ut på dypere vann. Systemet gjorde også sin jobb ved å varsle i god tid. Det er altså ingen av partene hver for seg som kan tildeles skyld for ulykken. Når man ikke finner noe svar, er det kanskje enklest å bare feie dette under teppet og håpe at det ikke gjentar seg?

Noen ulykker har større konsekvenser enn andre

Heldigvis trekker Reason  fram et tredje perspektiv, nemlig samspillet mellom mennesket og systemet. Dersom kommisjonen ikke hadde behandlet mennesket og systemet som to utelukkende aktører, hadde de oppdaget at systemet varslet om flere ting samtidig. Det var mange varsellamper, alle rød, som mannskapet skulle forholde seg til. Mannskapet ble overfylt av informasjon på samme tidspunkt. Ulykken skyldes i dette tilfellet at samspillet mellom mennesket og systemet ikke fungerer som det skal. Mennesket arbeider så fort det kan og systemet gir de varslene det er konstruert til.

Utfordringen i dette tilfellet er at mennesket har en begrenset kognitiv kapasitet og en selektiv oppmerksomhet. Når såpass mye skjer samtidig, kan det bli svært krevende å prioritere oppmerksomheten. Løsningen burde heller vært at de mest kritiske varsellampene sa ifra først, og at mennesket deretter håndterte disse. På den måten blir det en prioritering i samspillet mellom de to aktørene.

At mennesket har en kognitiv kapasitet kan være enkelt å glemme når man utvikler og arbeider med komplekse systemer. I tillegg kommer presset om at hvis noe galt skjer, kan det få store konsekvenser. Det kan være verdt å huske at menneskelige kognitive betingelser er det lite å gjøre med. Det man derimot kan gjøre noe med er betingelsene kognisjonen utsettes for. Det er her eventuelle tiltak bør fokuseres og orienteres mot.

Poenget er altså at det er ikke alltids man kan tildele skyld til enten mennesket eller systemet når det oppstår uønskede hendelser. Det kan være mer fristende å gi mennesket skylda, men det trenger ikke å være rettferdig eller riktig. Om man ikke avdekker feil hos mennesket eller systemet, kan det være verdt å betrakte de som gjensidig avhengige av hverandre. Kanskje oppdager man feilen i samspillet og kan iverksette nødvendige tiltak og løsninger deretter.

Referanse
Reason, J. (2000) Human Error: Models and Management. BMJ, 320(7237), 768. Hentet fra https://search.proquest.com/docview/1777598181?OpenUrlRefId=info:xri/sid:primo&accountid=14699

Legg igjen en kommentar

Din e-postadresse vil ikke bli publisert. Obligatoriske felt er merket med *

Dette nettstedet bruker Akismet for å redusere spam. Lær om hvordan dine kommentar-data prosesseres.