A) Programmerare förhindrar eller tillåter.
B) semantik och definitioner, till och med filosofi
C) ingenting
C)
Varje obevakat (läst, opåverkat) självlärningssystem, även med några hårdkodade, oföränderliga instruktioner kan övergå till något oförutsett och farligt på något eller annat sätt.
Det faktum att vi människor har inte övervunnit detta (se vår värld av extremiteter i lycka och lidande som den existerar idag och historien) gör mig försiktig med AI som inte övervakas i sin inlärning och möjliga självprogrammering.
Det behöver åtminstone ha en felsäkerhet installerad för omedelbar avstängning eller mänsklig störning.
Men även om lärande och handling övervakas eller påverkas mycket snabbt finns det en punkt där ingen människa kan övervaka eller förstå varje rad kod eller beteendemönstermatris eller tensorfält .
Dessutom kan hackning, funktionsstörningar och virus alltid kringgå någonting eller krascha eller stoppa systemet och därmed göra ännu f ailsafes värdelös.
B)
Det måste finnas kristallklara definitioner av vad som menas med vilken instruktion för att övervinna tvetydigheter.
Återigen har vi inte behärskat detta, så det finns inget hopp för AI - ett intellekt så främmande när det nådde sin sanna potential att vi inte ens kan förstå dess tankeprocesser, än mindre etik.
Men om instruktionerna är tillräckligt svarta och vita, vilket reducerar vilken gråton som helst till ja eller nej, det kan åtminstone finnas ett sätt.
Till exempel kunde AI bestämma att människor behöver frihet att trivas, till och med existera eller var glad. Att ta bort det skulle skada mänskligheten och vara ett ogiltigt val.
Om ingen hade tänkt på att "berätta" för AI detta naturliga behov av frihet och det fanns inget fall där det kunde ha observerats av AI (eller avfärdas som irrelevant), kan det mycket väl besluta att vidta de åtgärder du föreslår.
Som ni ser beror det på den mänskliga naturen och de biologiska, mentala och sociala invecklade saker som ibland är så abstrakta och sammanvävda att århundraden, till och med årtusenden av filosofi och vetenskap, inte känner igen dem. stark> A)
En samling av hårdkodade förhållanden att testa mot kan i tillräcklig utsträckning mildra risken för dödsfall eller skada för människor eller samhälle.
Första steget skulle INTE vara att sätta vapen i AI drivna maskiner som kan ströva fritt. (Ja, för att vi aldrig skulle göra det)
En annan skulle INTE överlämna alla vitala styrsystem till AI utan manuella åsidosättningsmöjligheter. (men det är så bekvämt)
Ändå en annan skulle vara att hålla AI enkel i sitt utbud av åtgärder och expertisfält, vilket gör det lättare att förutsäga de flesta, till och med alla möjliga åtgärder och sätta en ordentlig ram ( åtminstone enligt den nuvarande ideologin, samhällsnormen, lag, etisk kodx etc. - åh nej, det faller redan ifrån varandra så fort dessa ändras ).
Det finns många fler och ju fler fall vi tänker på, desto mer går vi in i B) och C) igen eftersom det här faktiskt är samma problem ... känns som en rekursiv slinga. ..
Så när du hanterar högutvecklad AI skapar du i huvudsak verktyg som är något intelligenta (möjligen känsliga) och effektivt förslavade (under kontroll av människor) eller så gör du vad vi (mestadels) gör med människor: låt dem lära sig av sin omgivning och sedan vandra fritt och hoppas på det bästa och att deras impuls till självbevarande hindrar dem från att gå på språng av rädsla för vedergällning ... ja, vi ser hur bra det fungerar för oss ... så lycka till på något sätt ...