AI zoals HAL 9000 kan nooit bestaan omdat echte emoties t programmable

HAL 9000 is een van de bekendste articifical intelligence karakters van de moderne film. Deze superieure vorm van sentient computer begint aan een missie naar Jupiter, samen met een menselijke bemanning, in Stanley Kubrick ‘ s iconische film 2001: A Space Odyssey, die momenteel viert zijn 50ste jaar sinds release.

HAL is in staat om spraak te produceren en te begrijpen, gezichtsherkenning, liplezen en schaken. Zijn superieure computationele vermogen wordt versterkt door unieke menselijke eigenschappen, ook. Het kan emotioneel gedrag interpreteren, redeneren en kunst waarderen.door HAL emoties te geven, maakten schrijver Arthur C. Clarke en filmmaker Stanley Kubrick het een van de meest menselijke fictieve technologieën ooit gemaakt. In een van de mooiste scènes in de sci-fi geschiedenis, zegt het dat het “bang” is wanneer missiecommandant Dr David Bowman zijn geheugenmodules loskoppelt na een reeks moorddadige gebeurtenissen.

HAL is geprogrammeerd om optimale assistentie te verlenen aan de bemanning van het ruimteschip Discovery. Het heeft controle over het hele schip, en verbluffende intelligentie om het te helpen bij zijn taak. Maar kort nadat we HAL hebben leren kennen, kunnen we niet anders dan het gevoel hebben dat het zich zorgen maakt – het beweert zelfs dat het angst ervaart – en dat het een vermogen heeft om mee te leven, hoe klein ook. Maar hoewel er niets is om het idee uit te sluiten dat zo ’n emotionele AI het daglicht zou kunnen zien, als zo’ n diepte van gevoelens zou worden opgenomen in de echte wereld technologie, zouden ze volledig nep zijn.

een ‘perfecte’ AI

wanneer Bowman tijdens de film met de hand HAL ’s functies begint te overschrijven, wordt hem gevraagd te stoppen, en nadat we getuige zijn van een fascinerende vernietiging van HAL’ s “mentale” vermogens, probeert de AI zichzelf te troosten door Daisy Bell te zingen – naar verluidt het eerste nummer ooit geproduceerd door een computer.in feite beginnen kijkers te voelen dat Bowman HAL vermoordt. De ontkoppeling voelt als een wraakzuchtige beëindiging, Na het zien van de eerdere gebeurtenissen van de film. Maar hoewel HAL emotionele uitspraken doet, zou een echte wereld AI zeker beperkt zijn tot het hebben van alleen de mogelijkheid om te redeneren, en beslissingen te nemen. De koude, harde waarheid is dat-ondanks wat computerwetenschappers zeggen-we nooit in staat zullen zijn om emoties te programmeren op de manier zoals HAL ‘ s fictieve makers deden, omdat we ze niet begrijpen. Psychologen en neurowetenschappers proberen zeker te leren hoe emoties omgaan met cognitie, maar toch blijven ze een mysterie.

Neem bijvoorbeeld ons eigen onderzoek. In een studie uitgevoerd met Chinees-Engelse tweetaligen, onderzochten we hoe de emotionele waarde van woorden onbewuste mentale werking kan veranderen. Toen we onze deelnemers positieve en neutrale woorden voorstelden, zoals “vakantie” of “boom”, haalden ze onbewust deze woordvormen in het Chinees terug. Maar als de woorden een negatieve betekenis hadden, zoals ” moord “of” verkrachting”, blokkeerden hun hersenen de toegang tot hun moedertaal – zonder dat ze het wisten.

reden en emotie

aan de andere kant weten we veel over redeneren. We kunnen beschrijven hoe we tot rationele beslissingen komen, regels schrijven en deze regels omzetten in proces en code. Maar emoties zijn een mysterieuze evolutionaire erfenis. Hun bron is de bron van alles, en niet simpelweg een attribuut van de geest dat door ontwerp kan worden geïmplementeerd. Om iets te programmeren, moet je niet alleen weten hoe het werkt, Je moet weten wat het doel is. Reden heeft doelstellingen, emoties niet.

in een experiment uitgevoerd in 2015, waren we in staat om dit op de proef te stellen. We vroegen moedertaalsprekers van Mandarijn Chinees die studeerden aan de Universiteit van Bangor om een kansspel voor geld te spelen. In elke ronde moesten ze een voorgestelde inzet op het scherm nemen of verlaten – bijvoorbeeld een 50% kans op het winnen van 20 punten, en een 50% kans op het verliezen van 100 punten.

we veronderstelden dat het geven van feedback in hun moedertaal emotioneler voor hen zou zijn en er dus toe zou leiden dat ze zich anders zouden gedragen dan wanneer ze feedback kregen in hun tweede taal, Engels. Inderdaad, toen ze positieve feedback kregen in het Chinees, hadden ze 10% meer kans om een weddenschap aan te nemen in de volgende ronde, ongeacht het risico. Dit toont aan dat emoties redeneren beïnvloeden.

teruggaand naar AI, omdat emoties niet echt kunnen worden geïmplementeerd in een programma – hoe geavanceerd het ook mag zijn – kan het redeneren van de computer nooit worden veranderd door zijn gevoelens. een mogelijke interpretatie van HAL ‘ s vreemde “emotionele” gedrag is dat het geprogrammeerd was om emoties te simuleren in extreme situaties, waar het mensen zou moeten manipuleren, niet op basis van redeneren, maar door een beroep te doen op hun emotionele zelf, wanneer de menselijke rede faalt. Dit is de enige manier waarop ik kan zien dat echte wereld AI overtuigend emoties kan simuleren in dergelijke omstandigheden.

naar mijn mening zullen we nooit een machine bouwen die voelt, hoopt, bang of gelukkig is. En omdat dat een absolute voorwaarde is voor elke bewering dat we kunstmatige algemene intelligentie hebben voortgebracht, zullen we nooit een kunstmatige geest buiten het leven creëren.

Dit is precies waar de magie van 2001: A Space Odyssey ligt. Voor een moment, worden we geleid om het onmogelijke te geloven, dat pure sciencefiction de feiten van de wereld waarin we leven kan overschrijven.

Related Posts

Geef een antwoord

Het e-mailadres wordt niet gepubliceerd. Vereiste velden zijn gemarkeerd met *