Til og med en den amerikanske politikeren Alexandria Ocasio-Cortez, fikk bikini av det smarte dataprogrammet.

Maskiner med kunstig intelligens tror at damer går i bikini og menn går i dress

Når mennesker behandler damer og menn forskjellig, hermer maskinene.

Publisert

Før var datamaskiner og roboter ikke særlig smarte. Det eneste de kunne gjøre var akkurat det de fikk beskjed om av oss mennesker.

Det holder på å forandre seg.

Dataeksperter og forskere prøver nemlig å få maskinene til å tenke selv.

De kaller det kunstig intelligens. Men de nye maskinene er ikke alltid så smarte.

En ny type kunstig intelligens tror nemlig at damer går i bikini eller en topp med lav utringning.

Og at mennene går i dress eller annet arbeidstøy.

Lærte av bilder fra Internett

Det var amerikanske forskere som fant ut dette. De testet en type kunstig intelligens som lager bilder.

Du kan se for deg en app eller et dataprogram som kan lage falske bilder som ser helt ekte ut.

Disse smarte dataprogrammene trenger ikke hjelp fra mennesker i det hele tatt.

Istedenfor har bildeprogrammene lært hvordan ting, dyr og mennesker ser ut, helt av seg selv.

Det eneste de har gjort er å se gjennom tusenvis av bilder på nettet. Og så har programmene lært seg hvordan ting ser ut.

Hvis du gir disse programmene en del av et bilde, kan de lage resten selv.

Mange tenker på roboter når vi snakker om kunstig intelligens, men oftest er det bare dataprogrammer. Menneskene som lager de smarte programmene skriver kode på datamaskinen, som kan se slik ut.

Amerikansk politiker fikk bikini

Forskerne ga de smarte programmene bilder av ansiktene til menn og kvinner for å se hva som skjedde.

Bildene som kom ut av maskinene var altså veldig forskjellige for menn og kvinner.

Damene hadde ofte lite klær på seg, mens mennene gjerne så ut som de skulle på jobb.

Forskerne testet til og med et bilde av ansiktet til en berømt amerikansk politiker, Alexandria Ocasio-Cortez. Hun fikk også en kropp med bikini.

Smart dataprogram ville ikke gi damer jobb

De amerikanske forskerne advarer om at smarte maskiner behandler folk forskjellig.

Det kan bli dumt for ekte mennesker.

Et annet eksempel er fra en av verdens største arbeidsplasser: det amerikanske IT-selskapet Amazon.

Da Amazon trengte flere folk til å jobbe der, lagde de en ny kunstig intelligens.

Dette var et smart dataprogram som skulle lære seg hvem som pleide å få jobb hos det amerikanske selskapet.

Problemet var at den kunstige intelligensen rett og slett fjernet alle damene.

Altså mente dataprogrammet at det bare var menn som skulle jobbe i Amazon.

Det jobber mer enn en million mennesker i selskapet Amazon.

Kunstig intelligens er flink til å sette ting i bås

Så hvorfor behandler smarte maskiner menn og kvinner så forskjellig?

Morten Goodwin forsker på kunstig intelligens ved Universitetet i Agder og har forklart til forskning.no hvorfor det skjer.

Det handler om at maskinene setter ting i bås. Det gjør vi mennesker også.

Fra vi er små babyer, lærer vi oss å kjenne igjen hva som er en kopp eller en stol.

Bare tenk deg hvor forskjellig en kopp kan se ut. Forskjellige former, farger. Noen har til og med ikke hank. Likevel vet du at det er en kopp.

Men maskinene blir altså enda flinkere enn oss. Da blir de også «flinkere» til å diskriminere enn oss.

Lærer av menneskene

For da kunstig intelligens skulle lære seg hvem som pleide å få jobb i selskapet Amazon, fant de et mønster: Sjefene ved Amazon lot oftest menn få jobben.

Så da trodde programmet at det var dumt å la damer få jobbe der.

Den samme forklaringen gjelder for de smarte bildeprogrammene.

Maskinene lærte av bilder fra nettet. Kvinnene det var bilde av der hadde ofte lite klær.

For det finnes mange bilder av damer i bikini på nett. Og det er ikke maskinene sin skyld.

For det er jo mennesker som poster bildene av damer med lite klær.

Så maskinene lærer egentlig bare av oss.

Men så forsterker de problemet og lager enda flere.

Forsker vil ha robotpoliti

Morten Goodwin har sagt til forskning.no at han vil ha strengere regler for kunstig intelligens.

Han foreslår et slags robotpoliti, som passer på at de smarte dataprogrammene ikke behandler folk urettferdig.

Mennesker har ikke lov til å behandle folk forskjellig ut ifra kjønn, hudfarge, legning eller alder.

Det bør ikke maskiner heller få lov til, mener forskeren.

Kilder:

En studie som ikke har blitt vurdert av andre forskere enda. Den ble publisert i databasen arxiv.org.

En nyhetsartikkel i den britiske avisa the Guardian.

Forskning.no-artikkelen: Kunstig intelligens blir mannssjåvinistiske rasister. Hva kan vi gjøre for å stoppe det?

Powered by Labrador CMS