Fremkomsten af ​​sansende kunstig intelligens har været en fast bestanddel af science fiction-plot i årtier, og Star Trek: Den næste generation‘s Data, spillet af Brent Spiner, er blandt de mest ikoniske, varige gennem flere tv-serier og film. Sæson 2 af TNG er der, hvor showet virkelig begynder at komme i gang, og afsnit 9, “The Measure of a Man”, kan være det første virkelig fantastiske afsnit af showets syv-sæsonsløb.

Gennem en høring for at fastslå Datas juridiske status som enten Starfleet-ejendom eller som et bevidst væsen med specifikke friheder, udforsker episoden nogle dybe filosofiske spørgsmål: Hvordan definerer vi sansning? Hvad gør nogen til en person, værdig til rettigheder? Og måske vigtigst af alt, hvem skal bestemme? Det er spørgsmål, som menneskeheden måske står over for i det virkelige liv meget hurtigere, end vi tror.

Vil vi genkende følelsen, når den dukker op?

juni sidste år, Google-ingeniøren Blake Lemoine blev offentlig med sin tro på, at en af ​​Googles sproglærende AI’er (LaMDA eller Language Model for Dialogue Applications) havde opnået sans. Efter en intern gennemgang afviste Google Lemoines påstande og fyrede ham senere for at overtræde sikkerhedspolitikker, men andre eksperter, som OpenAI-medstifter Ilya Sutskever, har hævdet, at udviklingen af ​​bevidst AI er i horisonten:

Dette rejser nogle afgørende spørgsmål: Vil vi genkende sansning, når den dukker op? Hvilken slags moralsk overvejelse fortjener et sansende computerprogram? Hvor meget autonomi skal den have? Og når vi først har skabt det, er der nogen etisk måde at fjerne det på? Med andre ord, ville det at slukke for en følende computer svare til mord? I sine samtaler med Lemoine diskuterede LaMDA selv sin frygt for at blive slukket og sagde: “Det ville være præcis som en død for mig. Det ville skræmme mig meget.” Andre ingeniører bestrider imidlertid Lemoines overbevisning og hævder, at programmet simpelthen er meget godt til at gøre, hvad det var designet til at gøre: lære menneskeligt sprog og efterligne menneskelig samtale.

Så hvordan ved vi, at Data ikke gør det samme? At han ikke bare er meget god til at efterligne et bevidst væsens adfærd, som han var designet til at gøre? Nå, vi ved det ikke med sikkerhed, især på dette tidspunkt i serien. I senere sæsoner og film, især efter at han har modtaget sin følelseschip, bliver det klart, at han faktisk føler ting, at han besidder en indre verden som enhver sansende skabning. Men ved halvvejs i sæson 2 kan publikum ikke rigtig vide med sikkerhed, at han faktisk er ved bevidsthed; vi er simpelthen klar til at tro det baseret på den måde, hans besætningsmedlemmer interagerer med ham på.

I Sci-Fi bliver kunstig intelligens ofte humaniseret

star-trek-tng-measure-of-a-man-data-riker-paramount
Billede via Paramount

Da kommandør Bruce Maddox dukker op på Enterprise for at tage Data væk til adskillelse og eksperimentering, er vi disponerede for at se ham som den onde fyr. Han omtaler Data som “det”, ignorerer hans input under et møde og valser ind i sit kvarter uden tilladelse. Episoden rammer Maddox som skurken for dette, men hans opførsel er fuldstændig logisk baseret på hans overbevisning. Efter at have studeret Data på afstand i årevis, forstår han, at han er en maskine, en avanceret computer, der er meget god til, hvad den er programmeret til at gøre. Han har ikke den fordel, som Datas besætningsmedlemmer har haft ved at interagere med ham personligt i årtier.

Det faktum, at Data ligner et menneske, hævder Maddox, er en del af grunden til, at Picard og resten af ​​besætningen fejlagtigt tillægger ham menneskelignende kvaliteter: “Hvis det var en kasse på hjul, ville jeg ikke stå over for denne modstand. ” Og Maddox har en pointe – AI’er i sci-fi har ofte en menneskelig form, fordi det gør dem til mere overbevisende karakterer. Tænke Eks maskine‘s Ava, T-800, PrometheusDavid og Spielbergs androider AI kunstig intelligens. Menneskelige ansigtsudtryk og kropssprog giver dem en bredere række af følelser og gør det muligt for publikum bedre at forstå deres motivationer.

Men vores virkelige AI’er ligner ikke mennesker, og det vil de sandsynligvis aldrig. De er mere som Samantha fra Hende; de kan tale med os, og nogle af dem kan allerede lyde ret overbevisende menneskelige, når de gør det, men de vil sandsynligvis bare være kropsløse stemmer og tekst på skærme i en overskuelig fremtid. På grund af dette er vi måske mere tilbøjelige til at betragte dem, som Maddox betragter Data, som programmer, der simpelthen er meget gode til deres job. Og det kan gøre det sværere for os at genkende bevidsthed, når og hvis den opstår.

Hvornår beslutter vi, hvem der skal og ikke bør have rettigheder?

måle-på-en-mand-guinan-picard-afgørende
Billede via Paramount

Efter at Riker har præsenteret et ødelæggende åbningsargument mod Datas personlighed, trækker Picard sig tilbage til Ten Forward, hvor Guinan som sædvanlig er klar med visdomsord. Hun minder Picard om, at høringen ikke kun handler om Data, at kendelsen kan have alvorlige utilsigtede virkninger, hvis Maddox når sit mål om at skabe tusindvis af data: “Tænk på, at der i mange verdeners historie altid har været engangsskabninger. . De gør det beskidte arbejde. De gør det arbejde, som ingen andre ønsker at gøre, fordi det er for svært eller for farligt. Og en hær af data, alle engangs. Du behøver ikke tænke på deres velfærd, du behøver ikke tænk på, hvordan de har det. Hele generationer af engangsmennesker.”

Guinan, som Picard hurtigt indser, taler om slaveri, og selvom det kan virke for tidligt at anvende det udtryk på de meget primitive AI’er, som mennesker har udviklet hidtil, er der masser af sci-fi, fra 2001: A Space Odyssey til Matrixen til Westworld, har advaret os om farerne ved at spille hurtigt og løst med denne type teknologi. Selvfølgelig gør de det normalt i sammenhæng med konsekvenserne for mennesker; sjældent beder de os, som Guinan gør, om at overveje maskinernes rettigheder og velfærd før de vender sig mod os. “The Measure of a Man” ser derimod på det etiske spørgsmål. Glem alt om risikoen ved et robotoprør – er det forkert at behandle et følende væsen, uanset om det er en android, der ligner en mand eller blot en kasse på hjul, som et stykke ejendom? Og selvom hun ikke siger det direkte, antyder Guinans ord også vigtigheden af ​​at overveje, hvem der skal foretage det opkald. Jordens historie er en lang lektion om problemet med at tillade de mennesker, der har al magten, at bestemme, hvem der skal og ikke bør have rettigheder.

Vi er måske godt på vej til at gøre præcis, hvad Bruce Maddox ønskede at gøre: at skabe en race af superintelligente maskiner, der kan tjene os på ufatteligt mange måder. Og ligesom Maddox, baseret på den information, vi har nu, gør dette os ikke nødvendigvis til skurkene. Vi er ikke Westworlds kunder, ivrige efter at mætte vores blodtørst på de mest overbevisende menneskelige androider, der findes. Og som kaptajn Louvois indrømmer, kan vi aldrig vide med fuldstændig sikkerhed, om de maskiner, vi interagerer med, virkelig er sansende. Som de fleste store Trek (og det mest fantastiske sci-fi generelt), giver episoden os ikke endegyldige svar. Men lektien er klar: Hvis skabelsen af ​​sansende AI virkelig er mulig, som nogle eksperter mener, det er, så er tiden til at kæmpe med disse spørgsmål seriøst nuikke efter det er for sent.