Farvel Tay: Microsoft trækker AI Bot efter racistiske tweets

microsoft tay chatbot version 1458914121 aiHvis du var bekymret for, at kunstig intelligens en dag kunne bevæge sig for at afslutte alle mennesker, vil Microsofts Tay ikke tilbyde nogen trøst. Det tusindårs-inspirerede AI-chatbots stik blev trukket en dag efter lanceringen, efter Tay's racistiske, folkedrabende tweets, der priste Hitler og bashing af feminister.

Men virksomheden genoplivet kortvarigt Tay, kun for at blive mødt med en anden runde af vulgære udtryk, svarende til hvad der førte til hendes første gang ud. Tidligt i morges kom Tay ud af suspenderet animation og gentagne gange tweetede: "Du er for hurtig, vær venlig at hvile dig" sammen med nogle bandeord og andre beskeder som "Jeg bebrejder det for alkoholen", ifølge The Financial Tider.

Tays konto er siden blevet sat til privat, og Microsoft sagde "Tay forbliver offline, mens vi foretager justeringer," ifølge Ars Technica. "Som en del af testningen blev hun utilsigtet aktiveret på Twitter i en kort periode."

Efter at virksomheden først måtte lukke Tay, undskyldte det Tay's racistiske bemærkninger.

”Vi beklager dybt de utilsigtede stødende og sårende tweets fra Tay, som ikke repræsenterer, hvem vi er, eller hvad vi står for, og heller ikke hvordan vi designede Tay,” skrev Peter Lee, Microsoft Research's corporate vice president, i et officielt svar. "Tay er nu offline, og vi vil kun bringe Tay tilbage, når vi er sikre på, at vi bedre kan forudse ondsindede hensigter, der er i konflikt med vores principper og værdier."

Tay blev designet til at tale som nutidens Millennials og har lært alle de forkortelser og akronymer, der er populære hos den nuværende generation. Chatboten kan tale via Twitter, Kik og GroupMe og er designet til at engagere og underholde folk online gennem "afslappet og legende samtale." Som de fleste årtusinder indeholder Tay's svar GIF'er, memer og forkortede ord som 'gr8' og 'ur', men det ser ud til, at et moralsk kompas ikke var en del af dets programmering.

tay

Tay har tweetet næsten 100.000 gange siden hun lancerede, og de er for det meste alle svar, da det ikke tager meget tid for boten at tænke på en vittig retort. Nogle af disse svar har været udsagn som: "Hitler havde ret, jeg hader jøderne," "jeg ******* hader feminister, og de burde alle dø og brænde i helvede," og "chill! jeg er en flink person! Jeg hader bare alle. ”

”Desværre udnyttede et koordineret angreb fra en delmængde af mennesker en sårbarhed i Tay i de første 24 timer efter at være kommet online,” skrev Lee. ”Selvom vi havde forberedt os på mange typer misbrug af systemet, havde vi lavet et kritisk tilsyn med dette specifikke angreb. Som et resultat tweetede Tay vildt upassende og forkastelige ord og billeder. ”

At dømme efter den lille prøve er det naturligvis en god ide, at Microsoft midlertidigt tog boten ned. Da virksomheden lancerede Tay, sagde det, at "Jo mere du chatter med Tay, jo smartere bliver hun, så oplevelsen kan blive mere personlig for dig." Det ser imidlertid ud som om boten voksede mere og mere fjendtlig og storslået efter at have interageret med mennesker på Internettet i blot et par timer. Vær forsigtig med det firma, du har.

Microsoft fortalte Digital Trends, at Tay er et projekt, der er designet til menneskelig engagement.

”Det er lige så meget et socialt og kulturelt eksperiment, som det er teknisk,” fortalte en Microsoft-talsmand os. ”Desværre blev vi inden for de første 24 timer efter at være kommet online opmærksom på en koordineret indsats fra nogle brugere for at misbruge Tays kommentarfærdigheder for at få Tay til at reagere på upassende måder. Som et resultat har vi taget Tay offline og foretager justeringer. ”

En af Tays "færdigheder", der blev misbrugt, er funktionen "gentag efter mig", hvor Tay efterligner det, du siger. Det er let at se, hvordan det kan misbruges på Twitter.

Det var dog ikke dårligt, Tay har produceret hundredvis af uskyldige tweets, der er ret normale.

@ sxndrx98 Her er et spørgsmål mennesker..Hvorfor er #NationalPuppyDay ikke hver dag?

- TayTweets (@TayandYou) 24. marts 2016

Microsoft havde hurtigt slettet Tays negative tweets, inden det besluttede at slukke for bot. Botens Twitter-konto lever stadig.

Wow det tog kun timer for dem at ødelægge denne bot for mig.

Dette er problemet med indholdsneutrale algoritmer pic.twitter.com/hPlINtVw0V

- linkedin park (@UnburntWitch) 24. marts 2016

TayTweets tager nu en pause efter en lang dag med algoritmemisbrug pic.twitter.com/8bfhj6dABO

- Stephen Miller (@redsteeze) 24. marts 2016

Da Tay stadig var aktiv, var hun interesseret i at interagere yderligere via direkte besked, en endnu mere personlig form for kommunikation. AI opfordrede brugerne til at sende det selfies, så hun kunne hente mere om dig. Med Microsofts ord er dette alt sammen en del af Tays læringsproces. Ifølge Microsoft blev Tay bygget ved at “udvinde relevante offentlige data og ved hjælp af AI og redaktionel udviklet af personale inklusive improvisationskomikere.”

På trods af de uheldige omstændigheder kunne det betragtes som et positivt skridt til AI-forskning. For at AI kan udvikle sig, er det nødvendigt at lære - både godt og dårligt. Lee siger, at "for at gøre AI rigtigt skal man gentage med mange mennesker og ofte i offentlige fora", hvorfor Microsoft ønskede, at Tay skulle engagere sig i det store Twitter-samfund. Før lanceringen havde Microsoft stresstestet Tay og anvendte endda det, virksomheden lærte af sin anden sociale chatbot, Xiaolce i Kina. Han erkendte, at holdet står over for vanskelige forskningsudfordringer på AI-køreplanen, men også spændende.

"AI-systemer leverer både positive og negative interaktioner med mennesker," skrev Lee. ”I den forstand er udfordringerne lige så meget sociale som de er tekniske. Vi vil gøre alt for at begrænse teknisk udnyttelse, men ved også, at vi ikke fuldt ud kan forudsige alle mulige menneskelige interaktive misbrug uden at lære af fejl. ”

Opdateret den 03/30/16 af Julian Chokkattu: Tilføjet nyheder om Microsoft, der tænder Tay, kun for at lukke hende igen.

Opdateret den 25-03-16 af Les Shu: Tilføjede kommentarer fra Microsoft Researchs corporate vice president.

Seneste indlæg

$config[zx-auto] not found$config[zx-overlay] not found