Amazons ansiktsgjenkjenning markerer feilaktig 26 lovgivere i California som kriminelle



Når offentlige etater fortsetter å presse på for utretting av ansiktsgjenkjenningssystemer, trenger du ikke se langt etter å se hvorfor det er dårlige nyheter. For å illustrere poenget gjennomførte ACLU en test av Amazons Rekognition-programvare – ansiktsgjenkjenningsteknologi som nå brukes av amerikansk rettshåndhevelse – der den feilaktig identifiserte 26 lovgivere i California som kamper i en kriminell database.

Vi tar en pause mens du humrer til "politikerne er kriminelle ”vitser som løper gjennom hodet ditt.

Det er andre gang ACLU kjører denne typen tester. I den første, en test som ble utført i fjor, var Rekognition vilt unøyaktig, og avverget uriktige og rasistiske partiske resultater når du forsøkte å matche kongressmedlemmer.

Detaljert i dag, den siste ACLU-testen kjørte 120 bilder av California lovgivere mot en database med 25.000 mugshots. Amazons Rekognition-programvare produserte falske positurer omtrent 20 prosent av tiden.

Phil Ting, et forsamlingsmedlem i San Francisco, og en av de ukorrekte kampene, brukte resultatene til å tromme opp støtte til en regning som ville forby bruk av teknologien i politiets kroppskameraer. "Vi ønsket å kjøre dette som en demonstrasjon om hvordan denne programvaren absolutt ikke er klar for prime time," sa Ting under en pressekonferanse. "Selv om vi kan le om det som lovgivere, er det ingen latter for et individ som prøver å få jobb, hvis du er et individ som prøver å få et hjem."

En talsperson for Amazon fortalte TNW:

ACLU er nok en gang med vitende misbruk og feilaktig å representere Amazon Rekognition for å komme overskrifter. Som vi har sagt mange ganger i det siste, kan ansiktsgjenkjenningsteknologi brukes til en lang liste med fordelaktige formål, fra å hjelpe til med identifiseringen når den brukes med den anbefalte 99% -sikkerhetsgrensen og som en del av en menneskestyrt beslutning. av kriminelle som hjelper til med å finne savnede barn til å hemme menneskehandel. Vi fortsetter å gå inn for føderal lovgivning om ansiktsgjenkjenningsteknologi for å sikre ansvarlig bruk, og vi har delt våre spesifikke forslag til dette både privat med policy beslutningstakere og på bloggen vår.

ACLU-advokat Matt Cagle, som jobbet med UC Berkeley for uavhengig å verifisere resultatene som ble hevdet mot kritikken. I en kommentar til Gizmodo, Sa Cagle at ACLU ikke brukte en konfidensgrense på 99 prosent fordi den satt fast med standardinnstillingene i Amazons programvare – som er en konfidensscore på 80 prosent.

Amazon tilbakeviste påstanden, og pekte på et blogginnlegg der det bemerker at Rekognition ikke bør brukes med mindre enn 99 prosent konfidensnivå. Dette fører selvfølgelig bare til flere spørsmål. Spesifikt, hvorfor er ikke 99 prosent programvarens standardinnstilling?