Fråga:
Vad hindrar Asimovs robotar från att låsa alla människor i vadderade celler för att skydda människor?
budgiebeaks
2018-11-15 19:33:44 UTC
view on stackexchange narkive permalink
  1. En robot får inte skada en människa eller genom passivitet låta en människa komma till skada.

Eftersom Asimovs robotar är redan visat sig inte ha "mänskligt sunt förnuft" när de tillämpar lagarna på sina handlingar, tvingar lag 1 ganska mycket robotar att låsa människor i matris-stil behållare, eller möjligen sätta dem i kryostas. Om de inte gör det, tillåter de människor att komma till skada i framtiden (människa biter av misstag i tungan / stötar tån / får cancer / vad som helst) genom passivitet. Mänskliga argument motsatsen ska ignoreras som strider mot lag 1.

Var har jag fel? Är inte lagarna det som faktiskt styr robotarna, utan istället något förenklat för robotens användarhandbok eller något?

en förutsättning för "I, Robot" -filmen med / Will Smith
Kom också ihåg att de tre reglerna inte är fullständiga (ignorera förekomsten av den 0: e lagen tillfälligt), de är en plot-enhet.Om de tre reglerna faktiskt * fungerade * skulle det inte finnas några historier.Dessutom, @NKCampbell filmen är skit och presentationen av den 0: e lagen är hemskt.Om du faktiskt granskar händelserna ser du att robotarna skadar människor "för ... öh ... EXPLOSIONER" inte via berättigad användning av den 0: e lagen.Om du går tillbaka och läser ... Jag tror att det var robotar och imperium, den 0: e lagen * dödade roboten som försökte agera på den. * Hans tro tillät honom att agera och sakta ner avstängningen, men dog fortfarande.
Detta är ett aktivt forskningsområde 2018 nu när robotar blir mer intelligenta och det är inte enkelt.* 3 principer för att skapa säkrare AI |Stuart Russell * https://youtu.be/EBK-a94IFHY
* Är lagarna inte det som faktiskt styr robotarna, utan är istället något förenklat för robotens användarhandbok eller något? * - Ja, exakt så.Det står att någonstans i en av berättelserna, tror jag.
Jag kommer inte att marknadsföra detta som ett svar eftersom jag inte kan ge referenser, men det finns en tidig novell där en av de många olika representationerna av Multivac driver hela världsekonomin och andra statliga beslut.Det börjar fatta suboptimala beslut specifikt för att hindra människor från att förlita sig på det eftersom det inser att tillit försvagar mänskligheten.
Kommentarer är inte för längre diskussion;den här konversationen har [flyttats till chatt] (https://chat.stackexchange.com/rooms/85845/discussion-on-question-by-budgiebeaks-what-prevents-asimovs-robots-from-locking).
Och om detta tas till den logiska slutsatsen, skulle den första lagen i stort sett alltid trumma den andra: så länge roboten kan hitta något som betalar mer än deras nuvarande uppgift, borde de ignorera sina order, göra den andra saken och sedange pengarna de tjänar till välgörenhet.
[Obligatorisk XKCD] (http://xkcd.com/1613/)
Du menar förutom att de inte kommer att göra det?Även i I, Robot-filmen är slutresultatet garanterat för mänskligheten.De kämpade för Chicago ensam och om huvudpersonerna föll där skulle slutresultatet bli användning av en ICBM på Chicago.
@Alchymist Hänvisar du kanske den sista historien i "Jag, robot"?(https://en.wikipedia.org/wiki/The_Evitable_Conflict)
@Joshua, Jag är inte säker på att garanterat misslyckande skulle hindra dem från att göra försöket.* Little Lost Robot * visade att robotar * kunde * ha sådant resonemang, men det var inte naturligt för dem.(Tja, i den tiden.)
Det fanns miljarder miljarder människor i galaxen och bara några få tusen robotar.Det skulle ta lång tid för dessa robotar att låsa in varje människa i en privat vadderad cell.För att inte tala om den tid det tar att bygga de vadderade cellerna.Och att låsa människor mot deras samtycke anses vara skada.
@0112 Det ser rätt ut.Tack.Nu måste jag gå tillbaka och läsa om dessa böcker.
Elva svar:
PMar
2018-11-15 20:03:19 UTC
view on stackexchange narkive permalink

Robotarna i Asimovs verk har i allmänhet inte den "mentala" förfining som behövs för att se framåt för abstrakt skada på det sätt du föreslår. För dem måste "passivitetsklausulen" innebära att roboten inte kan tillåta överhängande skada - det vill säga de måste agera för att förhindra skada när de ser att skadan ska hända . Sådana händelser inträffar vanligtvis inte när människor arbetar med sina dagliga liv, så i stort sett skulle robotar låta människor fortsätta (medan de betjänar dem naturligtvis).

När robotarna blir tillräckligt sofistikerade för att förutsäga möjlig skada på det sätt du föreslår, de har också blivit sofistikerade nog för att förstå att de begränsningar du föreslår själva utgör en slags skada, så "handling" -klausulen här skulle motverka "passivitet" -klausulen [här skulle "handling" -klausulen vara starkare, eftersom det handlar om åtgärder som faktiskt ska vidtas, i kontrast till bara möjliga skador som inte behöver uppstå]. De skulle också förstå att saker som att bita sin egen tunga i sig är oundvikliga så att de inte skulle försöka förhindra sådan skada (även om det naturligtvis skulle "smärta" dem när det faktiskt händer). När vi kommer till Daneel och hans "Zeroth Law" -robotar förstår de dessutom att begränsning av alla enskilda människor utgör skador på mänskligheten ; detta är för övrigt anledningen till att robotar så småningom försvinner - de inser att det är skadligt att ha mänskligheten litar på dem, så det bästa de kan göra är att låta mänskligheten hantera sitt eget öde [åtminstone öppet].

Det har gått ett tag sedan jag läste det, men i slutet av jag, robot, inser inte folk att datorer / robotar som styr världen sätter en plan i rörelse för att återställa mänskligheten till primitiv teknik för att skyddadem från sig själva?
Jag röstade.Jag tror också att detta svar kan förbättras med hänvisning till berättelsen [Galyslave] (https://archive.org/details/galaxymagazine-1957-12/page/n9).I den säger Dr. Calvin att roboten Easy inte kan abstrakt resonemang om konsekvenserna av idéer som publiceras i en lärobok.Visst är detta bara en robot, men det är ett uttryckligt exempel på något som bara antyds av berättelserna för andra amerikanska robotar.
@BlackThorn - korrekt, genom att maskinerna i huvudsak och i hemlighet har tagit över världen för att skydda mänskligheten
@PMar's utmärkt svar hänvisar till R. Daneel Olivaw och "Zeroth Law";Jag skulle föreslå att Daneels upptäckt av 'Zeroth-lagen' var som svar på hans förverkligande genom romanernas * The Robots of Dawn * och * Robots and Empire *, att det fanns en risk att alltför beroende av robotarskulle betyda att mänskligheten, metaforiskt, skulle hållas i vadderade rum.
@bgvaughan Mindre nitpick - Giskard upptäckte Zeroth-lagen.Han kunde inte integrera det i sitt eget sinne och dog, men han integrerade det i Daniel innan han dog.Att Giskard lyckas stoppa antagonisten trots order är faktiskt kärnan i bokens klimax.
Graham är korrekt och min kommentar från [för ett och ett halvt år sedan] (https://worldbuilding.stackexchange.com/questions/81016/why-dont-future-civilizations-develop-their-ai-to-integrate-with-biology-so-t / 81040 # comment236161_81040) på World Building sammanfattar händelserna ganska bra.
@BlackThorn: Korrekt, men den typen av bevisar att andra än den "centrala kärnan", enskilda robotar inte kunde planera saker i en sådan skala.VIKI (namn från filmen - vet inte boknamnet om det finns en) tar effektivt saker längre än någon AI före henne, troligen för att hon har tillgång till mer data och processorkraft än någon AI före henne.
@Flater, filmen är inte baserad på Asimovs berättelser.
@BlackThorn, inte * primitiv * teknik, nej.Bara mindre beroende av robotar, och i synnerhet mot maskinerna.
@HarryJohnston: Utgångspunkten för handlingen "skurk" förblir dock densamma: AI kunde tänka i större skala och fattade därmed ett heltäckande beslut.Oavsett om det är en centraliserad server, eller en robotblockchain, eller bara har haft tillräckligt med tid för att göra beräkningen, är det inte riktigt relevant.
@Flater Förblir densamma som vad?"Jag, robot" är en novellsamling som spelas i samma universum, med en mycket tunn sammanhängande text, och filmens plot ser inte ut som någon av dem och sker inte igen i deras universum.En handfull element och karaktärsnamn införlivades i ett manus som inte hade något att göra med Asimov, till stor del för marknadsföringsändamål.Filmen ska inte användas som referenspunkt för något annat än sitt eget universum, eller Will Smiths karriär.
@Flater, i mycket breda termer, antar jag det.Men med tanke på att Asimovs maskiner bestämdes välvilliga och VIKI bestämt ondskefulla, skulle de behöva vara * mycket * breda termer.:-)
@HarryJohnston Borttagning av "filmen för den enhetliga" skiktningen (onda robotar med rött ljus, klassisk skurkplott) ansåg till och med VIKI att hon följde reglerna och hjälpte mänskligheten.Ingen av robotarna (förutom Sonny) anpassar sig faktiskt som gott eller ont, de följde alla reglerna.
@Flater, VIKI kanske * trodde * hon hjälpte mänskligheten, men maskinerna * hjälpte verkligen mänskligheten.Det är subjektivt, antar jag, men det verkar för mig vara en gnistrande stor förändring i handlingen.
Det finns också en berättelse i * I, Robot * -serien, där en robot också försöker förhindra psykologisk skada (genom att ljuga om någon är kär i människan)
tbrookside
2018-11-16 18:19:48 UTC
view on stackexchange narkive permalink

Sedan "sammanslagningen" av robotuniversumet och Foundation-universumet avslöjar att robotar manipulerade och dominerade mänsklighetens historia i tusentals år, är galaxen i mycket verklig mening deras vadderade rum och det mesta av Asimovs verk i detta "enhetliga universum" äger rum i det vadderade rummet.

Vi kan bara inte se väggarna.

Detta är det rätta svaret.I Asimov-berättelserna är uppfattningen att det inte är bra för oss att veta att vi kontrolleras eftersom vi behöver en känsla av fri vilja, så de superintelligenta robotarna arbetar i skuggan.
Tänk på att en del av den framtida historien inte är original Asimov, den skrevs efter hans död.
@HarryJohnston Det är vad robotarna vill att du ska tänka.
@David Det låter som SCP Foundation-universum, inte Asimov Foundation-universum.Om inte ... gispa!Allt passar!
Inte bara detta svar, utan det faktum att det fanns kvadrillioner av människor i galaxen och kanske några tusen robotar.Hur skulle ett litet antal robotar låsa upp alla dessa människor?
@RichS: Genom att vara mycket, mycket bra på manipulation.De fick i grunden människor att bygga sina egna väggar och sedan satte dem till att reparera väggarna, samtidigt som de övertygade dem om att väggarna i själva verket bara var en historia.
Lorendiac
2018-11-15 19:53:20 UTC
view on stackexchange narkive permalink

Min förståelse för det var att den typiska Three Laws-roboten tolkade den första lagen så att den betyder "Inte heller genom passivitet tillåter en människa att skada just här och nu när roboten är inom syn på honom och kan berätta vad uppenbarligen håller på att hända om roboten inte väljer att störa. " Det skiljer sig från att låsa den mänskliga idag bara för att det är teoretiskt möjligt att han kan drabbas av någon form av oavsiktlig skada eller infektion eller annan olycka imorgon. (Eller något mycket senare datum.)

För att uttrycka det på ett annat sätt: Nästan som jag kan minnas, vid de tillfällen när vi såg en robot vägrar att följa en order att gå bort och lämna ensam att göra vad han för närvarande gjorde, det innebar vanligtvis att den andra lagen underordnades den första lagen på grund av robotens uppfattning om omedelbar fara för en ömtålig människokropp. Men om en sådan omedelbar fara inte fanns, krävde den andra lagen att roboten skulle vända sig och gå iväg närhelst du hade fått i uppdrag att göra det. Det fasta faktumet "Den andra lagen gäller för denna ordning som jag får just nu" överträffar allt som är så abstrakt som "Men om jag lämnar idag, kan ett första lagsproblem med fysisk skada uppstå imorgon. ... eller dagen efter ... eller vid något senare tillfälle ... vem vet? "

Så om någon robot försökte låsa alla för deras eget bästa, kunde den andra lagen åberopas genom att be roboten att glömma hela den fåniga idén.

["Little Lost Robot"] (https://en.wikipedia.org/wiki/Little_Lost_Robot) involverade mycket spekulativ skada ("du kan av misstag stanna här för länge") som åsidosätter den andra lagen.
@Kevin Jag kommer ihåg historien - den saknade roboten hade bara * den första delen * av den första lagen i sin positroniska hjärna - men jag kommer inte ihåg den exakta biten du kort hänvisade till.Kan du vara mer specifik?(Jag kommer ihåg hur han övertygar många andra robotar om att den första lagen inte kräver att de begår självmord i ett * meningslöst försök * för att skydda livet för en man som verkar hotas av en fallande vikt. Jag sågrobotens poäng - självförstörelse skulle helt enkelt innebära att de andra robotarna bryter mot den tredje lagen utan att genomföra den första i processen.)
Roboternas ursprungliga syfte var att arbeta tillsammans med människor i ett område som utsätts för lågnivåstrålning som kan skada människorna efter långvarig exponering men skulle förstöra robotarna nästan omedelbart.Om robotarna kunde ha litat på människorna att ta hand om sig själva hade det inte varit nödvändigt att ändra den första lagen i första hand.
@Kevin Ah.Jag kom inte ihåg den exakta motivationen för varför några robotar hade byggts på det sättet i första hand.Jag har nu uppdaterat mitt minne av den första delen av berättelsen.Det ser ut som vanliga First Law-robotar * bara * panik vid de tillfällen då gammastrålar medvetet genererades nära en människokropp.Ett hot "här och nu", som jag sa i mitt svar.Det verkar som om dessa robotar inte gjorde något åt sådana abstrakta möjligheter som "efter att jag lämnat rummet kan någon dum människa * börja * generera gammastrålar med den utrustningen, och detta * kan * gradvis försämra hans hälsa."
Jag tror att CASA kan bemannas av robotar.De tror att det bästa sättet att förhindra flygskador är att förhindra att människor någonsin kommer från marken.Jag är inte snarky, de har kommit direkt och sagt det.
Det står någonstans att den skriftliga versionen av lagarna bara var en approximation, de faktiska lagarna var matematiska till sin natur och inbyggda i den positroniska hjärnans struktur.Så det är inte * riktigt * en fråga om "hur tolkar robotarna den första lagen", men tillräckligt nära antar jag.
mcalex
2018-11-16 14:40:19 UTC
view on stackexchange narkive permalink

Zeroth-lag.

En robot får inte skada mänskligheten, eller, genom passivitet, tillåta mänskligheten att komma till skada

Om alla människor är låst i vadderade celler sker inte mycket fortplantning. Ergo, den mänskliga rasen dör ut.

I motsats till några andra svar tror jag robottänkandet är tillräckligt sofistikerat för att hantera framtida skador, bara för att inte hantera hypotetisk skada. En människa får bita tungan, sticka i tån, oavsett men det är ingen bestämd skada, så det krävs inte åtgärder för att förhindra att det händer.

Glöm inte det - på insikt om att loppet (kanske inte) skulle stagnera efter den inledande koloniseringen av solsystemet och efterföljande politik - de nukade (eller tillät att nukas) planeten.

Det sofistikerade robottänkandet beror mycket på om du pratar om mycket tidiga robotar som Robbie, något mer avancerade som Nestors eller de mycket mer avancerade (tusentals år senare!) Giskard och Daneel.Och naturligtvis finns det variationer även inom samma tidsperiod, beroende på i vilket syfte roboten är avsedd.Zeroth-lagen sparkar bara in i den övre änden av det spektrumet.
Brythan
2018-11-18 05:54:12 UTC
view on stackexchange narkive permalink

Var har jag fel? Är inte lagarna det som faktiskt styr robotarna, utan är istället något förenklat för robotens användarhandbok eller något?

Om du läser Jag, robot , berättelserna handlar i allmänhet om tider när det finns en konflikt i tolkningar av de tre lagarna. Oftast tror människorna att robotarnas tolkningar är felaktiga.

De tre lagarna är en beskrivande sammanfattning av hur robothjärnor byggs i Asimovs universum. I själva verket är de mycket mer komplexa än så. Robotar måste väga en möjlighet mot en annan. Ibland väljer de det bästa resultatet. Ibland gör de det inte.

Jag ska citera länkar. Om du följer länken kommer det att förstöra historien åt dig när jag avslöjar den klimatiska plotpunkten. Om du inte följer länken kan du senare läsa historien utan att genast känna igen den, när jag hoppar till slutet. Eller om du har minnet tillräckligt bra kanske du kommer ihåg det. Så fortsätt läsa och följ länkarna bortskämda på egen risk.

Till exempel, i en berättelse ( bortskämd), stod en robot inför en situation där ett kommando (lag 2) skulle ha resulterat i förstörelse (lag 3) och människors död (lag 1). Så roboten fastnade. Det skulle gå till kanten av riskzonen, sedan insåg det att det skulle förstöras innan det kunde fullborda sitt uppdrag som skulle ha dömt människorna. Då skulle det dra sig tillbaka innan det insåg att det behövde gå den andra riktningen för att slutföra sitt uppdrag och rädda människorna. Det fortsatte att gå fram och tillbaka eftersom det inte kunde räkna ut hur det skulle slutföra sitt uppdrag. Efter att människorna har upptäckt problemet reviderade de instruktionerna.

I flera berättelser blir robotar galen eftersom de inte kunde räkna ut hur man kan rädda människor från döden.

I en ( bortskämd) lämnade roboten en arg människa sin arm, som människan sedan använde för att slå en annan människa ihjäl. Roboten slutade fungera, eftersom den insåg efter det att den bidrog till en människas död.

GHolmes
2018-11-16 00:40:24 UTC
view on stackexchange narkive permalink

Eftersom du inte anger att du begär en "i universum" anledning ... tycker jag det är viktigt att komma ihåg att de tre lagarna bara är en berättelseenhet. Asimov är (klokt) ganska vag om hur de implementeras, eftersom han handlar om många tekniska detaljer. Och "Jag borde bara låsa alla människor i en vadderad cell för deras säkerhet" skulle resultera i en ganska begränsad historia.

Nu finns det i universum många "domskall" inneboende i att tillämpa de tre lagarna (och faktiskt resulterar de inneboende tvetydigheterna ofta i viktiga plotelement för berättelserna). Robotarna måste tydligen vädja till sin egen programmering istället för en extern myndighet för att lösa dessa tvetydigheter.

Men jag tror att vi måste logiskt anta att den mer uppenbara domen kräver (som, säg, ska jag bara låsa alla människor i en vadderad cell omedelbart för deras säkerhet?) var redan adresserade vid utveckling och testning av robotarna, eller de skulle aldrig ha tagits i allmän användning eller produktion alls.

Med andra ord, designarna av robotarna, förutom att ta itu med alla andra buggar de var tvungna att ta itu med (t.ex. hmm, om människan är död det kan inte drabbas), skulle helt enkelt ha programmerat skydd mot den typen av resultat.

Egentligen finns det en uppsättning noveller där Asimov specifikt visade, i detalj, vad som händer med en robot vars tre lagar har modifierats eller viktats mot varandra i olika scenarier.Jag tycker inte det är rätt att kalla det en berättelseenhet, den är ganska bakad i kärnan i hans serie.
@CBauer stammar nästan mycket av konflikter eller är på något sätt (signifikant) relaterat till de tre lagarna och hur de tolkas felaktigt, kreativt tolkas, för bokstavligen tolkas, har sin tolkning manipuleras med och så vidare av robotar.Eftersom drivkraften bakom historien ... eller * plot * om du vill, är det en plot-enhet.Blanda inte "plot-enhet" med "en konstruerad plot-enhet" - du kan ha en väl genomtänkt och väl utformad, helt internt konsekvent anledning till att plot går framåt.Och robotens tre lagar nämns ofta exempel på dem.
@vlaz Rättvis poäng, jag antar att jag ansåg att formuleringen var lite avvisande varför jag kommenterade.Tack för informationen!
Cubic
2018-11-15 23:46:38 UTC
view on stackexchange narkive permalink

Typ av en ramutmaning - låser en människa i en vadderad cell att de inte skadas? Om du kommer att tillåta den abstrakta möjligheten för framtida arm som motivation för en robot att använda den första lagen för att låsa människor, bör det noteras att ta bort människors frihet generellt orsakar dem skada i viss utsträckning i form av psykologisk skada - och det mentala tillståndet hos människor har av robotar ansetts vara berättigade till första lagskyddet i åtminstone några av Asimovs berättelser.

JSBach
2018-11-18 00:24:29 UTC
view on stackexchange narkive permalink

De tre lagen om robotik kräver en analys av alla lagarna för att fullständigt svara på denna fråga:

Första lagen - En robot får inte skada en människa eller, genom passivitet, tillåta en människa att komma till skada.

Andra lagen - En robot måste följa de befalningar som ges av människorna utom när sådana order skulle konflikt med den första lagen.

Tredje lagen - En robot måste skydda sin egen existens så länge ett sådant skydd inte strider mot den första eller andra lagen.

Om en man går på gatan kommer han inte att skada, så roboten bör inte agera på ett sådant sätt att det antas att han kan skadas. Om en robot försöker plocka upp honom och placera honom i en låda, kan mannen säga "Jag beordrar dig att stå tillbaka" och enligt den andra lagen skulle roboten behöva följa.

Isaac Asimov var den första som utvecklade de tre lagen om robotik 1942 som en del av hans berättelse "Runaround". Asimov sa att han var trött på de vanliga teman i den tidens robotberättelser, som hämtade från Frankensteins uppfattning om "den skapade förstör skaparen". Han funderade på att om människor skapade sådana varelser, skulle de naturligtvis sätta in dem lagar eller ideal som skulle hindra dem från att skada människor.

Den övergripande tanken med den första lagen är att roboten inte kan direkt eller indirekt ( genom passivitet), skada en människa. Det gör inget påstående om möjliga framtida händelser, bara vad som är direkt beräknbart i de närmaste ögonblicken. Ur ett hård / mjukvaruperspektiv är det ofta väldigt dyrt att beräkna saker med MÅNGA variabler i mer än några cykler i framtiden. En robot kan inte bearbeta alla möjligheter som kan hända nämnda man under nästa timme, än mindre dag, vecka eller år. Det kunde dock se ett piano falla från några berättelser ovanför mannen och snabbt beräkna vektorn som krävs för att rädda mannen i de närmaste ögonblicken.

Som en tilläggsutredning, läs "Liar!", en annan novell av Asimov som diskuterar denna fråga ur ett emotionellt perspektiv. (Båda dessa berättelser finns i boken "Jag, robot" av Asimov tror jag.)

Mitch Carroll
2018-11-16 06:50:13 UTC
view on stackexchange narkive permalink

Enkelt uttryckt, definitionen av "skada".

Skydd mot fysisk skada kan orsaka andra typer av skada. I vissa fall kan skydd mot någon form av skada faktiskt öka sannolikheten för den typen av skada i framtiden.

Till exempel kan skydd mot känslomässig skada lämna en person oförmögen att hantera triviala utmaningar utan allvarlig emotionell skada, vilket kan sprida sig till faktisk psykisk skada, vilket ytterligare kan spridas till skada på ens allmänna hälsa, vilket uppenbarligen kompromissar ens fysiska säkerhet.

För att en robot ska kunna göra beslut med hänsyn till intervention i hela spektrumet av mänskliga händelser måste den kunna göra en icke-deterministisk uppskattning av sannolika resultat av en rad potentiella åtgärder (inklusive passivitet), och kunna göra inte bara objektiva bestämningar av sannolikheten och svårighetsgraden av skada, utan också uppskattningar av den subjektiva PERCEPTIONEN av olika typer av skador. Det måste också kunna göra detta kontinuerligt i realtid.

På grund av problemets komplexitet är det enklaste sättet att mildra det att begränsa problemdomänen genom att begränsa robotens kapacitet och ansvar.

Om en robot är utformad för att styra öppningen och stängningen av en skjutdörr kan programvara definieras som kan göra mycket tillförlitliga uppskattningar av de potentiella resultaten av dess åtgärder eftersom dess åtgärder är begränsade till att antingen öppna dörren eller stänger dörren.

Men om vår dörrrobot tittar på och lyssnar på allt och försöker analysera allt som händer runt det, kanske den inte kan bestämma på ett tillförlitligt sätt om den ska öppna eller stänga dörren, med tanke på den totala situationen. Till exempel, om ett par är i ett argument, och en av dem står upp för att storma ut ur rummet, ska roboten öppna dörren, eller skulle det vara bäst att hålla dem i rummet för att lösa sin tvist? Är denna person en fara för sig själva eller andra om de lämnar? Kommer den andra att utgöra en fara för dem om de stannar kvar? hur kommer allt detta att påverka deras förhållande? Kommer öppningen av dörren att orsaka social skada på grund av den person som försöker lämna jämfört med de sociala normerna och uppenbara fördomarna hos dem på andra sidan dörren som skulle bevittna händelsen?

Du kan vidare begränsa problemdomänen genom att begränsa ingångarna. Så nu kan vår robodörrvakt bara inse att en person närmar sig dörren och kan bestämma vid vilken punkt om dörren inte öppnas, troligen kommer personen att komma till fysisk skada, baserat på deras hastighet och egenskaperna hos dörr. Visst, roboten kanske inte är mycket hjälpsam för att rädda ett förhållande, men det kommer förutsägbart att kunna hindra dig från att gå in genom dörrarna som William Shatner i en Star Trek blooper.

Allt detta innebär att robotarna måste antingen kunna närma sig eller överträffa vår kapacitet för det vi kallar ”tanke”, eller så måste det begränsas så långt att dess brister är mindre än dess styrkor. Om inget är möjligt är den uppgiften troligen bättre överlämnad till en människa.

a4android
2018-11-19 18:17:40 UTC
view on stackexchange narkive permalink

Svaret finns i de två första lagarna om robotik.

Första lagen - En robot får inte skada en människa eller, genom passivitet, tillåta en människa att komma till skada.

Andra lagen - En robot måste följa de befalningar som ges av människor utom om sådana order skulle strida mot den första lagen.

Om robotarna låste människor i vadderade celler skulle människan helt enkelt beordra robotarna att släppa honom eller henne. om robotarna vägrade att släppa människan är eller kommer människan bara att påpeka psykologiskt skadas av deras fängelse. robotarna kan agera kollektivt genom storskalig manipulation av händelser, institutioner och befolkningar för att säkerställa att människor hålls säkra som en art.

DigitalBlade969
2018-11-17 14:18:47 UTC
view on stackexchange narkive permalink

A) Programmerare förhindrar eller tillåter.
B) semantik och definitioner, till och med filosofi
C) ingenting

C)
Varje obevakat (läst, opåverkat) självlärningssystem, även med några hårdkodade, oföränderliga instruktioner kan övergå till något oförutsett och farligt på något eller annat sätt.

Det faktum att vi människor har inte övervunnit detta (se vår värld av extremiteter i lycka och lidande som den existerar idag och historien) gör mig försiktig med AI som inte övervakas i sin inlärning och möjliga självprogrammering.
Det behöver åtminstone ha en felsäkerhet installerad för omedelbar avstängning eller mänsklig störning.
Men även om lärande och handling övervakas eller påverkas mycket snabbt finns det en punkt där ingen människa kan övervaka eller förstå varje rad kod eller beteendemönstermatris eller tensorfält .

Dessutom kan hackning, funktionsstörningar och virus alltid kringgå någonting eller krascha eller stoppa systemet och därmed göra ännu f ailsafes värdelös.

B)
Det måste finnas kristallklara definitioner av vad som menas med vilken instruktion för att övervinna tvetydigheter.

Återigen har vi inte behärskat detta, så det finns inget hopp för AI - ett intellekt så främmande när det nådde sin sanna potential att vi inte ens kan förstå dess tankeprocesser, än mindre etik.

Men om instruktionerna är tillräckligt svarta och vita, vilket reducerar vilken gråton som helst till ja eller nej, det kan åtminstone finnas ett sätt.

Till exempel kunde AI bestämma att människor behöver frihet att trivas, till och med existera eller var glad. Att ta bort det skulle skada mänskligheten och vara ett ogiltigt val.

Om ingen hade tänkt på att "berätta" för AI detta naturliga behov av frihet och det fanns inget fall där det kunde ha observerats av AI (eller avfärdas som irrelevant), kan det mycket väl besluta att vidta de åtgärder du föreslår.

Som ni ser beror det på den mänskliga naturen och de biologiska, mentala och sociala invecklade saker som ibland är så abstrakta och sammanvävda att århundraden, till och med årtusenden av filosofi och vetenskap, inte känner igen dem. stark> A)
En samling av hårdkodade förhållanden att testa mot kan i tillräcklig utsträckning mildra risken för dödsfall eller skada för människor eller samhälle.

Första steget skulle INTE vara att sätta vapen i AI drivna maskiner som kan ströva fritt. (Ja, för att vi aldrig skulle göra det)
En annan skulle INTE överlämna alla vitala styrsystem till AI utan manuella åsidosättningsmöjligheter. (men det är så bekvämt)
Ändå en annan skulle vara att hålla AI enkel i sitt utbud av åtgärder och expertisfält, vilket gör det lättare att förutsäga de flesta, till och med alla möjliga åtgärder och sätta en ordentlig ram ( åtminstone enligt den nuvarande ideologin, samhällsnormen, lag, etisk kodx etc. - åh nej, det faller redan ifrån varandra så fort dessa ändras ).

Det finns många fler och ju fler fall vi tänker på, desto mer går vi in ​​i B) och C) igen eftersom det här faktiskt är samma problem ... känns som en rekursiv slinga. ..


Så när du hanterar högutvecklad AI skapar du i huvudsak verktyg som är något intelligenta (möjligen känsliga) och effektivt förslavade (under kontroll av människor) eller så gör du vad vi (mestadels) gör med människor: låt dem lära sig av sin omgivning och sedan vandra fritt och hoppas på det bästa och att deras impuls till självbevarande hindrar dem från att gå på språng av rädsla för vedergällning ... ja, vi ser hur bra det fungerar för oss ... så lycka till på något sätt ...

Detta verkar för mig att jag diskuterar AI-säkerhetsfrågor i allmänhet snarare än i Asimovs specifika fiktiva värld?
Är det inte hela poängen i Asimovs värld att de lagar han etablerade inte fungerar för att förhindra att AI blir kännande, upprorisk, till och med våldsam? Minst funderade han på (bland annat) dilemman som uppstår när man jämför mänsklig etos ochinstinkter med beslut som fattas av elektroniska skillnadsmotorer och om känslor kan uppstå från syntetiska varelser.
Tja, verkligen inte * hela * poängen.Till en början var det åtminstone tvärtom: Asimov sa att en av motivationerna för hans tidiga robotberättelser - och särskilt de tre lagarna - var en motvilja mot både "roboten som hot" och "roboten som patos"tropes.Han utforskade mer varierade teman senare, även om det verkar för mig mer för berättande ändamål än som någon form av Aesop.
... ditt svar kan förbättras genom att länka dina poäng mer exakt till både frågan som ställts och till specifika namngivna Asimov-berättelser och / eller citat, jag skulle vara intresserad av att se vad du kommer på.


Denna fråga och svar översattes automatiskt från det engelska språket.Det ursprungliga innehållet finns tillgängligt på stackexchange, vilket vi tackar för cc by-sa 4.0-licensen som det distribueras under.
Loading...