Hvordan man laver robotter etiske ved at lære dem at sige nej

undervisning ai robotter hvordan man siger nej matthias scheutz tufts Matthias Scheutz Kelvin Ma / Tufts University Uanset om det er din smartphone, der holder styr på dine yndlingsrestauranter, eller din webbrowser holder øje med, hvilke websteder du besøger oftest, er der sandsynligvis et stykke teknologi i dit hjem, der lærer om dig.

Da computere omdannes fra værktøjer til assistenter i de kommende år, vil læringsbehovet for den teknologi, vi bruger dagligt, vokse eksponentielt. Disse tjenester vil være mere sofistikerede og nå meget længere end i dag - men de bliver nødt til at blive meget smartere, før de gør det.

Computersystemer, kunstig intelligens og hjælperrobotter skal ramme bøgerne om en lang række emner - menneskelig samtale, kulturelle normer, social etikette og mere. Dagens forskere underviser i AI de lektioner, de har brug for for at hjælpe morgendagens brugere, og kursusplanen er ikke, som du forventer.

De første skridt mod smartere AI

Sidste år inden for rammerne af Human-Robot Interaction Laboratory ved Bostons Tufts University nærmede sig en lille robot kanten af ​​et bord. Da robotten nåede dette afgrund, bemærkede den, at overfladen, den gik på, var kommet til en ende, og sagde til sin operatør, "Undskyld, det kan jeg ikke gøre."

Dermed bekræftede maskinen, at det arbejde, der blev udført af Matthias Scheutz og Gordon Briggs, havde været en succes. Parret havde sat sig for at give deres robot mulighed for at afvise en anmodning fra en menneskelig operatør, idet deres testpersons bordplade af selvbevarelse var en demonstration af systemet på arbejdspladsen.

Scheutz og Briggs 'projekt er en del af en vigtig gren af ​​forskning i kunstig intelligens. Interaktion mellem menneske og robot - undertiden benævnt HRI - er et væsentligt element i vores fortsatte arbejde mod den praktiske anvendelse af AI. Det er let at glemme, med robotter stadig stort set en hypotetisk bekymring for de fleste, at disse maskiner en dag bliver nødt til at integrere med de mennesker, som de er beregnet til at hjælpe.

At lære en robot at gå er en ting. At undervise den samme robot, når det er sikkert at krydse en vej, er helt anderledes. Det er kernen i projektet udført af Scheutz og Briggs. De ønskede at give en robot muligheden for at afvise ordrer, den er givet, hvis det ser ud til, at udførelsen af ​​opgaven ville skade den.

For et menneske kan dette virke som et implicit element i handlingen med at bevæge sig rundt. Men robotter har ikke "sund fornuft".

Betydningen af ​​ordet "nej"

At lære en robot at nægte en ordre, der sender den til at kaste sig til sin undergang, er af indlysende fordel for robotten og også for den, der ejer den. Men dens betydning når langt dybere. At hjælpe en robot med at sige “nej” betyder at hjælpe den med at lære at bedømme konsekvenserne af dens handlinger.

”På samme måde som vi ikke ønsker, at mennesker blindt skal følge instruktioner fra andre mennesker, ønsker vi ikke instruerbare robotter til at udføre menneskelige ordrer uden at kontrollere, hvad virkningerne er,” sagde Scheutz til Digital Trends.

Vi er nødt til at lære robotter at adlyde kommandoer, der ikke er etisk sunde.

”Instruktioner kan være upassende i en given situation af mange grunde,” fortsatte han, “men vigtigst af alt fordi de kunne forårsage skade på mennesker eller skade på ejendom, inklusive selve robotten. Ved at begrunde mulige resultater af en instrueret handling kan robotten muligvis opdage potentielle normovertrædelser og potentiel skade som følge af handlingen og kunne forsøge at afbøde dem. ”

I det væsentlige, når robotten modtager sin instruktion om at gå fremad, kontrollerer den anmodningen mod de oplysninger, den har til rådighed. Hvis noget virker fiskeagtigt, kan robotten derefter fremsætte sine bekymringer over for den menneskelige operatør og til sidst afvise kommandoen direkte, hvis instruktøren ikke har ekstra data til at berolige sin frygt.

Den videnskabelige proces skaber ikke så fængende en overskrift som truslen om, at en robot oprører os mennesker. Tabloidaviser som Daily Mail rapporterede om Scheutz 'arbejde med en tegneserieoverskrift, der spekulerer om vores arts forestående underkastelse i hænderne på robotoverherrer. Vi her på DT er også kendt for at joke om robotapokalypsen. Det er normalt sjovt, men i tilfælde som dette kan det skade forskernes evne til at få deres budskab ud.

”Der vil altid være svar, der tager forskning ud af kontekst og fokuserer på det, der synes ubehageligt for os, såsom ideen om, at robotter ikke overholder vores kommandoer,” sagde Scheutz som svar på Daily Mail-rapporten. ”Det centrale aspekt af vores forskning, som sådanne fængende overskrifter ignorerer, er imidlertid at lære robotten at afvise kommandoer, der er ikke etisk forsvarlig - og kun dem. For ikke at være ulydig generelt. ”

Hvad hvis for eksempel en lille dreng bad en husstandsrobot om at dumpe varm kaffe over sin lillebror som en sjov? At sikre, at dette ikke kunne finde sted, er afgørende for succesen for enhver virksomhed, der producerer sådan teknologi til forbrugermarkedet, og det er kun muligt, hvis robotten har en bred database med sociale og etiske normer, der kan henvises sammen med sin evne til at sige ”nej. ”

Tilføjelse af kompleksitetslag

Mennesker ved at stoppe med at gå, når de nærmer sig en stejl dråbe, eller hvorfor det er upassende at duse et spædbarn i varm kaffe. Vores erfaringer har fortalt os, hvad der er farligt, og hvad der bare betyder. Uanset om vi har gjort eller fået at vide om noget tidligere, kan vi trække på de oplysninger, vi har gemt væk for at informere vores opførsel i en ny situation.

Robotter kan løse problemer baseret på det samme princip. Men vi har endnu ikke produceret en computer, der kan lære som et menneske - og selv da er læringsetik en proces, der tager år. Robotter skal have en levetid på information tilgængelig, før de frigøres ud i verden.

Omfanget af dette arbejde er svimlende, langt ud over hvad mange kunne forvente. Ud over at lære robotten, hvordan den skal udføre den opgave, de bliver sendt ud til, er der et ekstra lag af kompleksitet, der tilbydes af de mange vanskeligheder ved interaktion mellem menneske og robot.

Andrew Moore er dekan for School of Computer Sciences ved Carnegie Mellon University. I den rolle yder han støtte til en gruppe 2.000 studerende og fakultetsmedlemmer, hvoraf mange arbejder inden for områder relateret til robotik, maskinindlæring og AI.

”Vi er ansvarlige for at finde ud af, hvordan året 2040 vil være at leve i,” fortalte han mig. "Så vi er også ansvarlige for at sikre, at 2040 er et meget godt år at leve i." Da det sandsynligvis er, at hjælperrobotter vil spille en rolle i den fremtidige vision, har Moore masser af erfaring i forholdet mellem maskine og bruger. For at give en idé om, hvordan denne obligation vil udvikle sig i de kommende år, bruger han det velkendte eksempel på smartphone-assistenten.

I dag har mange af os en smartphone, der er i stand til at besvare spørgsmål som "hvem er den nuværende præsident for De Forenede Stater?" og mere komplekse forespørgsler som "hvor høje er præsidenten for De Forenede Staters døtre?" Snart ser vi handlinger baseret på disse spørgsmål blive almindelige. Du kan f.eks. Bede din telefon om at bestille en ny pakke med bleer.

For at demonstrere det næste udviklingsstadium fremsatte Moore et tilsyneladende uskadeligt eksempel. "Har jeg tid til at tage en kop kaffe før mit næste møde?"

Mere om AI: Machine learning algoritme sætter George W. Bushs ord i Barack Obamas mund

"Under emhætten er der en masse viden, der skal til computeren for at computeren kan besvare spørgsmålet," sagde Moore. Mens nutidens teknologi kan forstå spørgsmålet, har systemet brug for en masse data at besvare. Hvordan er linjen i caféen? Hvordan er trafikken? Hvilken type drink bestiller brugeren normalt? At give computeren adgang til disse data giver sine egne udfordringer.

AI-systemer har brug for adgang til en enorm mængde information - hvoraf nogle er støbt i sten, hvoraf nogle ændrer sig hele tiden - blot for at udføre de komplekse opgaver, vi forventer af dem på få år.

Moore illustrerer dette punkt ved at sammenligne den stemmetone, en person kan tage, når han taler til sin chefs chef eller en gammel ven. Et eller andet sted i dine databanker er der en kerne af information, der fortæller dig, at førstnævnte skal behandles med visse sociale signaler, der ikke er så nødvendige, når du taler til sidstnævnte.

Hvis du beder Google om at vise røde kjoler, og et af resultaterne er en brødrister, falder det hele sammen.

Det er enkle ting for et menneske, men noget der skal indgives i AI. Og jo mere presserende opgaven er, desto vigtigere bliver præcisionen. At spørge en assistent, om du har kaffe, er en ting. Men hvad hvis du blev såret og havde brug for at vide, hvilket hospital der kunne nås hurtigst - og muligvis havde brug for en robothjælp til at nå det? En fejl bliver pludselig livstruende.

”Det er faktisk ret nemt at skrive et maskinlæringsprogram, hvor man træner det med mange eksempler,” sagde Moore. ”Når du har udført det arbejde, ender du med en model. Det fungerer ret godt, og når vi bygger et sådant system, taler vi om 'nøjagtighed' og bruger sætninger som 'præcision' og 'husker.' Det interessante er, at det er ret ligetil at få ting, der er korrekte 19 gange ud af 20. ”

”For mange applikationer er det slags godt nok. Men i mange andre applikationer - især når der er sikkerhed involveret, eller hvor du stiller meget komplicerede spørgsmål - har du virkelig brug for dit system til at have 99,9 procent nøjagtighed. ”

Brugertillid er også et problem. “[Hvis] du spørger Google 'vis mig de 15 mest populære røde kjoler', og det kaster resultaterne op, og bare en af ​​dem er faktisk en brødrister, så falder det hele sammen. Brugerne holder op med at stole på det. ” En bruger, der mister tilliden til en robot, vil sandsynligvis stoppe med at bruge den helt.

Undervisning i almindelig viden

Selv når man ser bort fra de specifikke opgaver, som enhver individuel implementering er designet til at opnå, har robotter og AI'er brug for en enorm mængde grundlæggende viden for at fungere i naturen. Alt fra sociale signaler til sikkerhedsbestemmelser skal være præget på maskinens hjerner for at sikre deres succes.

Heldigvis giver andre felter en hånd i nogle elementer i denne beregningsplan. ”Med ting som navigation og med menneskelig ansigtsudtryksanalyse er der en eksisterende videnskabelig disciplin, der faktisk har mange reelle data,” sagde Moore. Individuelle forskningsprojekter kan også ofte omformuleres.

”Algoritmerne vi arbejder på er generelle,” fortalte Matthias Scheutz mig med henvisning til den forskning, han og Gordon Briggs ledede ved Tufts University. "De kan anvendes i ethvert domæne, så længe robotten har de nødvendige repræsentationer af handlinger og normer for dette domæne."

Moduler, der kunne give en robot mulighed for at genkende menneskelige udtryk eller stoppe med at falde ned fra et bord, har bestemt deres anvendelser. Hver af dem vil dog imødekomme en meget lille del af en maskines grundlæggende krav til betjening uden tilsyn. Et generaliseret operativsystem kunne præsentere et grundlæggende niveau af fælles viden, der let kunne deles mellem forskellige implementeringer.

”En af de største finansierere af denne form for arbejde er en gruppe, der finansierer mange andre ting, der viste sig at være vigtige,” sagde Moore. ”Det er DARPA. De har en række store projekter, der går i det, de kalder 'almindelig viden for robotik.' "

Hvis AI'er og hjælperrobotter vil blive en realitet i en ikke alt for fjern fremtid, vil en version af denne 'almindelige viden om robotik'-platform sandsynligvis være en afgørende komponent. Det kan endda være nøglen til bred mainstream-adoption.

Der er masser af arbejde, der skal udføres, før der er en videnbase, der kan understøtte den første bølge af forbrugerrobotter. Slutproduktet kan være år væk, men det fundament, der er nødvendigt for at lette dets oprettelse, er ikke science fiction.

Seneste indlæg

$config[zx-auto] not found$config[zx-overlay] not found