Denne AI-drevne tekstgeneratoren er det skumleste jeg noensinne har sett – og du kan prøve den



OpenAI, en nonprofit fokusert på å skape kunstig intelligens på menneskelig nivå, slapp nettopp en oppdatering til sin GPT-2 tekstgenerator. Jeg er ikke hyperbolisk når jeg sier at jeg etter å ha prøvd det legitimt er livredd for menneskehetens fremtid hvis vi ikke finner ut en måte å oppdage AI-generert innhold – og snart.

GPT-2 er ikke en drapsmaskin og frykten min er ikke for at AI kommer til å reise seg mot oss. Jeg er livredd for GPT-2 fordi den representerer den typen teknologi som onde mennesker kommer til å bruke for å manipulere befolkningen – og etter min mening gjør det farligere enn noen pistol. Slik fungerer det: du gir den en melding, og den skyr nesten ut en haug med ord. Det som er skummelt med det er det det fungerer. Det fungerer utrolig bra. Her er noen eksempler fra Twitter:

Og for at du ikke tror at jeg bruker kirsebærplukkede eksempler for å illustrere et poeng, her er noen fra spørsmål jeg la inn selv (ordene med fet skrift er mine, resten er alt AI):

Noen av disse eksemplene er Turing Test-klare, og andre føler at de handler om en GPT-2-oppdatering til, fra at det ikke kan skilles fra menneskeskapt innhold. Det som er viktig å forstå her er at OpenAI ikke oppfant noen slags superdatamaskin, eller oppfant AI slik vi kjenner det; den laget bare en virkelig kraftig modell ved å bruke avanserte teknologier for kunstig intelligens. jeg sier bare fordi dette ikke er en engangs ting som vil være vanskelig for organisasjoner som ikke bare blekk en milliard dollar avtale med Microsoft å trekke av.

Noen har allerede tatt seg bryet med å sette GPT-2 med den nye og forbedrede 774M-modellen online (AI-ingeniør Adam King – @AdamKing på Twitter). Du kan selv se hvor enkelt det er å generere sammenhengende tekst på forespørsel ved å bruke AI.

Ikke misforstå, mesteparten av tiden du klikker på “generer”, spytter det ut en haug med søppel. Jeg sitter ikke her med et sjokkert blikk i ansiktet mitt og overveier alle måtene denne teknologien kan brukes mot oss fordi jeg overvurderer trusselen om et nettgrensesnitt for en AI som er grenseløs prestidigitering. Jeg er en kyniker som endrer mening etter å ha sett legitime bevis for at den menneskelige skriveprosessen kan emuleres av en kunstig intelligens med et tastetrykk.

Fortsett å klikke på "generere", du vil bli overrasket over hvor få klikk det vil ta for å nå en virkelig overbevisende tekst mesteparten av tiden.

OpenAI har alvorlige bekymringer når det gjelder å slippe disse modellene ut i naturen. For et halvt år siden vekket det opp en haug med kontrovers da den tok beslutningen om å lansere GPT-2 med en iscenesatt løslatelse. Flere forskere i AI-samfunnet innvendte seg mot å holde tilbake OpenAI – i hovedsak beskyldte organisasjonen for å belyse dens opprinnelse som en non-profit, og som skulle frigjøre arbeidet som open source.

Helvete, jeg skrev en hel artikkel om den som hånet den pustende mediedekningen av OpenAIs beslutning om ikke å slippe hele modellen med overskriften "Hvem er redd for OpenAIs store, dårlige tekstgenerator?" Men denne utgivelsen er forskjellig. Denne fungerer nesten bra nok til å bruke som en generell kunstig intelligens for tekstgenerering – nesten. Og sjansen er stor for at 774M-modellen ikke blir den siste. Hva er det denne tingen vil være i stand til å doble det eller tredoble?

Jeg vil bare sette dette her for kontekst (fra OpenAIs blogginnlegg som kunngjør lanseringen av den nye og forbedrede GPT-2-modellen):

Deteksjon er ikke enkel. I praksis forventer vi at detektorer trenger å oppdage en betydelig brøkdel av generasjoner med svært få falske positiver. Ondsinnede aktører kan bruke en rekke prøvetakingsteknikker (inkludert prøvetaking av avvisning) eller finjustere modeller for å unngå deteksjonsmetoder. Et utplassert system må sannsynligvis være svært nøyaktig (99,9% –99,99%) på en rekke generasjoner. Forskningen vår antyder at nåværende ML-baserte metoder bare oppnår lav til midten av 90-tallet nøyaktighet, og at finjustering av språkmodellene reduserer nøyaktigheten ytterligere. Det er lovende veier fremover (se spesielt de som er utviklet av utviklerne av “GROVER”), men det er et virkelig vanskelig forskningsproblem. Vi mener at statistisk deteksjon av tekst må suppleres med menneskelig skjønn og metadata relatert til teksten for å effektivt bekjempe misbruk av språkmodeller.

Det vil ikke vare lang tid før AI-genererte medier – for å inkludere lyd, video, tekst og kombinasjoner av alle tre – er helt ukjennelige fra det som er skapt av mennesker. Hvis vi ikke finner en måte å skille mellom de to, vil verktøy som GPT-2 – i kombinasjon med den ondsinnede hensikten fra dårlige skuespillere – ganske enkelt bli undertrykkelsesvåpen.

OpenAI hadde rett til å utsette utgivelsen av GPT-2 for et halvt år siden, og det er riktig å slippe den nye modellen nå. Vi kan ikke finne ut hvordan vi kan bryte det med mindre vi lar AI-samfunnet stort sett ta en sprekk på det. Hatten min er helt bort til politidirektør Jack Clark og resten av teamet på OpenAI. Hele menneskeslekten må fortsette med forsiktighet når det gjelder AI-forskning fremover.