fbpx

Det er så sykt urettferdig!

Maskinlæring benyttes ofte for å ta beslutninger eller veilede beslutningstakere. Samtidig blir det fra stadig flere hold uttrykt bekymring for at utviklere utilsiktet bygger inn bias som kan forsterke uønskede skjevheter mellom sosiale grupper, og i verste fall føre til ulovlig diskriminering.

Med innføringen av GDPR er krav til etisk og ansvarlig bruk av AI igjen på dagsorden, og modellutviklere kjenner behovet for metoder som kan avdekke utilsiktet diskriminering. Dette er dessverre ikke helt trivielt, men de siste årene har vi sett en eksplosjon i mål og teknikker som skal bidra til en mer forutsigbar og grundig vurdering av rettferdighet i utviklingen av nye maskinlæringsmodeller.

Vi vil presentere hvordan rettferdighet inngår i NAV AI-labs evaluering av modeller, og hvordan dette kan brukes til en god dialog med forretningssiden og personvernombud for å avveie (tidvis motstridende) hensyn som rettferdighet, forklarbarhet og treffsikkerhet.