Vem har ansvaret om en robot begÄr tjÀnstefel?

.

.

Foto: Sörmlands Media

GÀstkrönika2021-08-05 19:58
Det hĂ€r Ă€r en krönika. Åsikterna i texten Ă€r skribentens egna.

Den nya tekniken innebÀr stora möjligheter till förbÀttringar och förenklingar pÄ arbetsmarknaden. Inte minst för personalgrupper inom offentlig sektor, som ofta Àr överbelastade och löper stor risk att drabbas av utmattning och negativ stress. Men det finns ocksÄ stora risker med att lÄta artificiell intelligens, robotar och algoritmer överta arbetsuppgifter som anstÀllda tidigare ansvarat för. SÀrskilt nÀr det kommer till beslutsfattande i Àrenden som ofta Àr komplexa och har stor pÄverkan pÄ enskilda individers liv.

I en debattartikel i Dagens Nyheter (26/7) skriver Akademikerförbundet SSR, som bland annat företrĂ€der socionomer och beteendevetare: "Den offentliga förvaltningens resa frĂ„n pappersdokument och hĂ„lkort till elektroniska system för att sköta samhĂ€llets grundfunktioner var dramatisk, men Ă€ndĂ„ mindre omvĂ€lvande Ă€n vad vi nu genomgĂ„r: robotar, algoritmer och artificiell intelligens tar över mĂ€nskliga arbetsuppgifter. DĂ€rför Ă€r vi förvĂ„nade över att regeringen inte vill förbereda Sverige bĂ€ttre pĂ„ denna förĂ€ndring." 

Akademikerna Ă€r oroade över den statliga utredningen "En vĂ€l fungerande ordning för val och beslutsfattande i kommuner och regioner", dĂ€r bland annat frĂ„gan om automatiserat beslutsfattande i regioner och kommuner ingĂ„r. Den nya tekniken utvecklas med rasande hastighet, men eftersom SKR, Sveriges Kommuner och Regioner, har gjort bedömningen att det i dag inte Ă€r lagligt att lĂ„ta datorer överta kommunalt beslutsfattande, ansĂ„g regeringen att förslag om hur detta kan införas skulle tas fram. En utredning tillsattes dĂ€rför förra Ă„ret och i slutet av mars i Ă„r överlĂ€mnade utredaren sitt betĂ€nkande till regeringen. 

Men invĂ€ndningarna mot utredningens förslag Ă€r omfattande. Om algoritmer, i stĂ€llet för handlĂ€ggare av kött och blod, tillĂ„ts styra utfall, utan att systemet först Ă€r uppbyggt pĂ„ ett rĂ€ttssĂ€kert och transparent sĂ€tt, Ă€r risken enorm för att mĂ€nniskor far illa. Algoritmen blir ett svart hĂ„l och beslut kommer att fattas utan insyn eller förklaring. Myndighetsutövning förvandlas till en programkod framtagen av nĂ„got multinationellt konsultbolag som inte tar hĂ€nsyn till mĂ€nniskors specifika situation. 

I lÀnder som gÄtt Ànnu snabbare fram Àn Sverige med att införa automatiserat beslutsfattande har man sett hur alltifrÄn fördomar till ren rasism byggts in i algoritmerna. Utsatta personer i behov av samhÀllets stöd har lÀmnats Ät sitt öde utan möjlighet att diskutera beslutet eller vad som lett fram till det med nÄgon som Àr ansvarig. SÄ vill vi inte ha det hÀr.

Att lĂ„ta maskiner sköta Ă€renden som kan kullkasta hela tillvaron för den enskilde gĂ„r dessutom rakt emot de krav pĂ„ ökat tjĂ€nstemannaansvar som stĂ€llts av flera riksdagspartier. Vem ska stĂ€llas till svars om en algoritm eller en robot begĂ„r ett allvarligt tjĂ€nstefel? Konsulterna som sĂ„lt in systemet? 

Det lÀr inte hÀnda. Och dÀrför finns skÀl att vara mer grundlig Àn utredningen. SÄ lÀnge det inte finns nÄgra svar pÄ hur man löser frÄgorna om rÀttssÀkerhet, ansvar och öppenhet Àr det direkt olÀmpligt att tillÄta automatiserat offentligt beslutsfattande.

Malin Lernfelt Àr fristÄende liberal skribent.