Den nya tekniken innebÀr stora möjligheter till förbÀttringar och förenklingar pÄ arbetsmarknaden. Inte minst för personalgrupper inom offentlig sektor, som ofta Àr överbelastade och löper stor risk att drabbas av utmattning och negativ stress. Men det finns ocksÄ stora risker med att lÄta artificiell intelligens, robotar och algoritmer överta arbetsuppgifter som anstÀllda tidigare ansvarat för. SÀrskilt nÀr det kommer till beslutsfattande i Àrenden som ofta Àr komplexa och har stor pÄverkan pÄ enskilda individers liv.
I en debattartikel i Dagens Nyheter (26/7) skriver Akademikerförbundet SSR, som bland annat företrÀder socionomer och beteendevetare: "Den offentliga förvaltningens resa frÄn pappersdokument och hÄlkort till elektroniska system för att sköta samhÀllets grundfunktioner var dramatisk, men ÀndÄ mindre omvÀlvande Àn vad vi nu genomgÄr: robotar, algoritmer och artificiell intelligens tar över mÀnskliga arbetsuppgifter. DÀrför Àr vi förvÄnade över att regeringen inte vill förbereda Sverige bÀttre pÄ denna förÀndring."
Akademikerna Àr oroade över den statliga utredningen "En vÀl fungerande ordning för val och beslutsfattande i kommuner och regioner", dÀr bland annat frÄgan om automatiserat beslutsfattande i regioner och kommuner ingÄr. Den nya tekniken utvecklas med rasande hastighet, men eftersom SKR, Sveriges Kommuner och Regioner, har gjort bedömningen att det i dag inte Àr lagligt att lÄta datorer överta kommunalt beslutsfattande, ansÄg regeringen att förslag om hur detta kan införas skulle tas fram. En utredning tillsattes dÀrför förra Äret och i slutet av mars i Är överlÀmnade utredaren sitt betÀnkande till regeringen.
Men invÀndningarna mot utredningens förslag Àr omfattande. Om algoritmer, i stÀllet för handlÀggare av kött och blod, tillÄts styra utfall, utan att systemet först Àr uppbyggt pÄ ett rÀttssÀkert och transparent sÀtt, Àr risken enorm för att mÀnniskor far illa. Algoritmen blir ett svart hÄl och beslut kommer att fattas utan insyn eller förklaring. Myndighetsutövning förvandlas till en programkod framtagen av nÄgot multinationellt konsultbolag som inte tar hÀnsyn till mÀnniskors specifika situation.
I lÀnder som gÄtt Ànnu snabbare fram Àn Sverige med att införa automatiserat beslutsfattande har man sett hur alltifrÄn fördomar till ren rasism byggts in i algoritmerna. Utsatta personer i behov av samhÀllets stöd har lÀmnats Ät sitt öde utan möjlighet att diskutera beslutet eller vad som lett fram till det med nÄgon som Àr ansvarig. SÄ vill vi inte ha det hÀr.
Att lÄta maskiner sköta Àrenden som kan kullkasta hela tillvaron för den enskilde gÄr dessutom rakt emot de krav pÄ ökat tjÀnstemannaansvar som stÀllts av flera riksdagspartier. Vem ska stÀllas till svars om en algoritm eller en robot begÄr ett allvarligt tjÀnstefel? Konsulterna som sÄlt in systemet?
Det lÀr inte hÀnda. Och dÀrför finns skÀl att vara mer grundlig Àn utredningen. SÄ lÀnge det inte finns nÄgra svar pÄ hur man löser frÄgorna om rÀttssÀkerhet, ansvar och öppenhet Àr det direkt olÀmpligt att tillÄta automatiserat offentligt beslutsfattande.
Malin Lernfelt Àr fristÄende liberal skribent.