Hvordan lærer vi robotter lige fra forkert?

algoritme pletter forfalskninger på sociale medierobotter rigtigt forkert etikRedaktørens note: Digital Trends har indgået et samarbejde med WebVisions, den internationalt anerkendte design-, teknologi- og brugeroplevelseskonference, for at hjælpe med at bringe lysende Douglas Rushkoff til årets begivenhed i Portland, Oregon. Som en del af vores partnerskab er vi også glade for at kunne vælge udvalgte indhold fra WebVisions 'indsigtsfulde blog, Word. Denne uge spekulerer bidragyder Mark Wyner på, hvordan vi går ud på at undervise i kunstig intelligens lige fra forkert. God fornøjelse!

Twitter har indrømmet, at så mange som 23 millioner (8,5 procent) af dets brugerkonti er autonome Twitterbots. Mange er der for at øge produktiviteten, udføre forskning eller endda have det sjovt. Alligevel er mange skabt med skadelige intentioner. I begge tilfælde har bots været kendt for at opføre sig med tvivlsom etik - måske fordi de kun er mindre eksemplarer af kunstig intelligens (AI).

Mennesker bygger i øjeblikket langt mere sofistikerede maskiner, der står over for etiske spørgsmål på monumentale skalaer. Selv i menneskers dødelighed. Så hvordan sørger vi for, at de træffer de rigtige valg, når tiden kommer?

Byg det ind eller lær det

Nøglefaktoren til vellykket opbygning af autonome maskiner, der falder sammen symbiotisk med mennesker, er etik. Og der er grundlæggende to måder at programmere etik på maskiner:

For det første kan du kode dem hårdt i deres operativsystemer. Bekymringen her er, at etik er subjektiv. Etikken i maskinen er afhængig af etik i dens skaber. Men vi mennesker tilpasser os ikke altid vores moral. Vi kæmper krige over etiske forskelle. Så når vi bygger autonome maskiner for at være etiske, bygger vi inden for rammerne af vores eksisterende forskelle.

robotter-højre-forkert-etik-2

For det andet kan du give nogle retningslinjer og derefter lade maskinen lære sin egen etik baseret på sine egne erfaringer. Denne passive tilgang giver masser af plads til misfortolkninger af moral, afhængig af hvilken adfærd der observeres. Overvej den nylige nedbrydning af Microsofts Twitter AI, Tay, der blev narret til at kvidre racistiske anklager og fremme af folkedrab baseret på en falsk slutning af accepteret etisk normalitet.

Et team hos Georgia Tech arbejder på sidstnævnte og lærer kognitive systemer for at lære at opføre sig socialt acceptabelt ved at læse historier. Et belønningssystem kaldet Quixote skal hjælpe kognitive systemer med at identificere hovedpersoner i historier, som maskinerne bruger til at tilpasse deres egne værdier til menneskers. Det er uklart, hvilke metoder Microsoft brugte med Tay. Men hvis deres teknikker var forebyggende, som med Georgia Techs læringssystem, er vi langt fra at størkne etik inden for kunstig intelligens.

Etisk lammelse

Nu er alt dette baseret på ideen om, at en computer endda kan forstå etik. Som Alan Winfield viser i sit studie Mod en etisk robot, når en computer støder på et etisk paradoks, er resultatet uforudsigeligt, ofte lammende. I sin undersøgelse blev en kognitiv robot (A-robot) bedt om at redde en "menneskelig" robot (H-robot) fra fare. Da A-robotten kun kunne redde en af ​​to H-robotter, svirvede den og indrømmede i sin egen forvirring og sparte ingen af ​​dem.

Der er en gammel filosofisk debat om, hvorvidt etik er et spørgsmål om fornuft eller følelser. Blandt moderne psykologer er der enighed om, at etisk beslutningstagning kræver både rationelle og følelsesmæssige vurderinger. Som professor Paul Thagard bemærker i et stykke om dette emne, “er etiske vurderinger ofte meget følelsesladede, når folk udtrykker deres stærke godkendelse eller misbilligelse af forskellige handlinger. Om de også er rationelle, afhænger af, om den kognitive vurdering, der er en del af følelser, udføres godt eller dårligt. ”

Beslutninger med konsekvenser

Så hvis kognitive maskiner ikke har kapacitet til etik, hvem er ansvarlig, når de bryder loven? I øjeblikket ser ingen ud til at vide det. Ryan Calo fra University of Washington School of Law bemærker, ”robotik kombinerer for første gang promiskuiteten af ​​data med kapaciteten til at gøre fysisk skade; robotsystemer udfører opgaver på måder, der ikke kan forventes på forhånd; og robotter slører i stigende grad grænsen mellem person og instrument. ”

Processen for lovgivning er vanskeligt langsom, mens teknologi derimod skaber eksponentiel hast.

Forbrydelserne kan også være ret alvorlige. Den nederlandske udvikler Jeffry van der Goot måtte forsvare sig - og hans Twitterbot - da politiet bankede på hans dør og spurgte om en dødstrussel sendt fra hans Twitter-konto. Så er der Random Darknet Shopper; en shopping bot med en ugentlig godtgørelse på $ 100 i Bitcoin til køb på Darknet til en kunstudstilling. Svenske embedsmænd blev ikke underholdt, da det købte ecstasy, som kunstneren udstillede. (Men til støtte for kunstnerisk udtryk konfiskerede de ikke stofferne, indtil udstillingen sluttede.)

I begge disse sager gjorde myndighederne, hvad de kunne inden for lovgivningen, men til sidst benådede de menneskelige ejere, fordi de ikke eksplicit eller direkte havde begået forbrydelser. Men hvordan oversættes det, når et menneske frigør en AI med hensigt om ondskab?

Den ironiske virkelighed er, at vi udforsker måder, hvorpå vi kan styre vores autonome maskiner. Og ud over vores tvivlsomme evne til at indgyde etik i dem, bliver vi ofte forvirret af deres generelle opførsel alene. Når vi diskuterede metoderne bag deres neurale netværk, afslørede Google-softwareingeniør Alexander Mordvintsev, "... selvom disse er meget nyttige værktøjer baseret på velkendte matematiske metoder, forstår vi faktisk overraskende lidt af, hvorfor visse modeller fungerer, og andre ikke."

Kan vi følge med?

Alt i alt er lovgivningsprocessen svær langsom, mens teknologi på den anden side eksponentielt skynder sig. Som Vivek Wadhwa fra Singularity University forklarer, “lovene kan ikke følge med, fordi ... love i det væsentlige er kodificeret etik. At vi udvikler enighed som et samfund om, hvad der er godt og hvad der er dårligt, og så bliver det hvad der er rigtigt og hvad der er forkert, og så bliver det hvad der er lovligt og hvad der er ulovligt. Sådan går progressionen. På de fleste af disse teknologier har vi ikke besluttet, hvad der er godt eller dårligt. "

Hvis loven indhenter, skriver vi muligvis vores egen undergang. Alt dette taler om robotter, der overtager verden? Måske jaywalk de bare masser, indtil vi fængsler så meget af vores race, at vi bliver mindretal i autonome væsener. Skakmat.

Seneste indlæg

$config[zx-auto] not found$config[zx-overlay] not found