Jämställdhet och teknik

– Det behöver finnas representativitet i vem som designar och tränar verktyget, och i vilken typ av underlag som kommer med. Om det finns en sned- vridning både i gruppen som utvecklar verktyget, och i underlaget, så riskerar det att följa med in i systemet, säger Clara Leandersson.

”Det är superviktigt att tekniken levererar i enlighet med de mänskliga rättigheterna”


Idag pratar man allt mer om etisk Al, och hur man kan öka transparensen och minska riskerna, något som är otroligt viktigt om man exempelvis från en myndighets sida ska använda sig av ett Al-verktyg.

Om man har en teknik som ska effektivisera eller kvalitetssäkra exempelvis statens verksamhet, då är det superviktigt att den tekniken levererar i enlighet med de mänskliga rättigheterna och det vi ska jobba mot, som jämställdhet. Tar vi hjälp av teknik så måste man vara omsorgsfull med vem som skapar den och hur, säger Sara Nilsson, senior utredare på Jämställdhetsmyndigheten, som kikat närmare på problemet i rapporten AI och jämställdhet.


Hon tar Försäkringskassan som ett exempel. När man ska fatta kvalitativa beslut så behöver man ta in underlag, som journalanteckningar, för att kunna fatta beslut om exempelvis rehabiliteringsstöd eller sjukskrivningar. Ett AI-system kan reptilsnabbt söka igenom enorma mängder underlag som behövs för beslut, summera det som är viktigt och ge ett förslag till handläggaren baserat på detta.

Detta har man testat, och det som händer när vi tar hjälp av Al, är att den kommer fram till att män i större utsträckning än kvinnor har rätt till olika ersättningar, och dessutom högre ersättningar. Bakgrunden till det är förstås att det är människor som gjort journalerna, och texterna som AI:n hanterar innehåller resultatet av en könsmaktsordning. Om Försäkringskassan grundat sitt beslut på detta underlag så hade de skapat ojämlikhet.

Det är förstås inte bara inom jämställdhet som det är viktigt att vara uppmärksam. Ett brett område för Al är ansiktsigenkänning, där det visat sig finnas flera problem kopplat både till våra normer om manligt och kvinnligt, men även rasism. I ett test av tre system för ansiktsigenkänning som används i dag, blev vita män igenkända i 99 procent av fallen, men mörkhyade och kvinnor i betydligt lägre utsträckning.

Vi måste se till att de som tar fram Al-verktygen har koll på att alla brottslingar inte ser ut på ett visst sätt, eller är från ett specifikt bostadsområde. Al är svart eller vitt, om vi tränar Al att söka efter fuskare i vårt välfärdssystem, så kommer verktyget tränas att titta mer och mer på de områden där det får en träff. Det betyder inte att det finns fler fuskare där, utan att AI:n tränat upp en förmåga att titta just där. Då behövs ett intersektionellt perspektiv när vi utvecklar verktyget, att man har kunskap om kontexten där det ska användas, säger Sara Nilsson.


Men kan inte tekniken också bidra till mer jämställdhet, och minimera risken att vi istället drabbas av våra medmänniskors fördomar vid exempelvis en rekrytering? Absolut det finns ett antal lösningar som bidragit till eller ökat jämställdheten. Ett ganska spännande exempel handlar om tillgång till riskkapital i Sverige. Få kvinnliga företagare i relation till manliga får ta del av riskkapital, och det gjordes en studie där man tittade på varför. Bland annat tittade man på språkbruket i ansökningsprocessen, och det visade sig att man ställde helt andra typer av krav på och frågor till kvinnor än till män, så de sökande blev bedömd på olika sätt. En Al-lösning kunde få syn på de här mönstren, det är det den är bra på.

Så det går att använda Al även till att utjämna olikheter, säger Clara Leandersson, och pekar även på klimatområdet som en möjlighet för Al att bidra: -AI kan sammanföra datapunkter och förutspå mönster bortom det den mänskliga hjärnan kan göra, då kan man exempelvis förutse konsekvenser av hundraårsregn och andra klimateffekter.