AI come HAL 9000 non può mai esistere perché le emozioni reali arent programmabile

HAL 9000 è uno dei personaggi di intelligenza articifical più noti del cinema moderno. Questa forma superiore di computer senziente si imbarca in una missione su Giove, insieme a un equipaggio umano, nell’iconico film di Stanley Kubrick 2001: Odissea nello spazio, che sta attualmente celebrando il suo 50 ° anno dall’uscita.

HAL è in grado di produzione vocale e comprensione, riconoscimento facciale, lettura delle labbra – e giocare a scacchi. La sua capacità computazionale superiore è potenziata anche da tratti unicamente umani. Può interpretare il comportamento emotivo, ragionare e apprezzare l’arte.

Dando emozioni a HAL, lo scrittore Arthur C. Clarke e il regista Stanley Kubrick ne hanno fatto una delle tecnologie fittizie più umane mai create. In una delle scene più belle della storia della fantascienza, si dice che è “paura” quando il comandante della missione Dr David Bowman inizia a scollegare i suoi moduli di memoria a seguito di una serie di eventi omicidi.

HAL è programmato per fornire assistenza ottimale all’equipaggio dell’astronave Discovery. Ha il controllo su tutta la nave, e l’intelligenza sconcertante per aiutarlo nel suo compito. Tuttavia, subito dopo aver conosciuto HAL, non possiamo fare a meno di sentire che è preoccupato – afferma addirittura di provare paura – e che ha una capacità di empatia, per quanto piccola. Ma mentre non c’è nulla che precluda l’idea che una tale intelligenza artificiale emotiva possa vedere la luce del giorno, se tale profondità di sentimenti dovesse essere inclusa nella tecnologia del mondo reale, dovrebbero essere completamente falsi.

A ‘perfect’ AI

Quando, durante il film, Bowman inizia a sovrascrivere manualmente le funzioni di HAL, gli chiede di fermarsi, e dopo aver assistito a un’affascinante cancellazione delle facoltà “mentali” di HAL, l’IA cerca apparentemente di consolarsi cantando Daisy Bell – secondo quanto riferito, la prima canzone prodotta da un computer.

Infatti, gli spettatori cominciano a sentire che Bowman sta uccidendo HAL. La disconnessione sembra una fine vendicativa, dopo aver assistito agli eventi precedenti del film. Ma anche se HAL fa dichiarazioni emotive, un mondo reale AI sarebbe certamente limitato ad avere solo la capacità di ragionare, e prendere decisioni. La fredda e dura verità è che-nonostante ciò che dicono gli scienziati informatici-non saremo mai in grado di programmare le emozioni nel modo in cui i creatori immaginari di HAL hanno fatto perché non le capiamo. Psicologi e neuroscienziati stanno certamente cercando di imparare come le emozioni interagiscono con la cognizione, ma rimangono comunque un mistero.

Prendi la nostra ricerca, per esempio. In uno studio condotto con bilingui cinese-inglese, abbiamo esplorato come il valore emotivo delle parole può cambiare il funzionamento mentale inconscio. Quando abbiamo presentato ai nostri partecipanti parole positive e neutre, come “vacanza” o “albero”, hanno inconsciamente recuperato queste forme di parole in cinese. Ma quando le parole avevano un significato negativo, come “omicidio” o “stupro”, il loro cervello bloccava l’accesso alla loro lingua madre – a loro insaputa.

Ragione ed emozione

D’altra parte, sappiamo molto sul ragionamento. Possiamo descrivere come arriviamo a decisioni razionali, scrivere regole e trasformare queste regole in processo e codice. Eppure le emozioni sono una misteriosa eredità evolutiva. La loro fonte è la fonte di tutto, e non semplicemente un attributo della mente che può essere implementato dalla progettazione. Per programmare qualcosa, non solo devi sapere come funziona, devi sapere qual è l’obiettivo. La ragione ha obiettivi, le emozioni no.

In un esperimento condotto nel 2015, siamo stati in grado di metterlo alla prova. Abbiamo chiesto di madrelingua cinese mandarino studiare alla Bangor University di giocare un gioco d’azzardo per soldi. In ogni round, dovevano prendere o lasciare una scommessa proposta mostrata sullo schermo-ad esempio, una probabilità del 50% di vincere 20 punti e una probabilità del 50% di perdere 100 punti.

Abbiamo ipotizzato che dare loro un feedback nella loro lingua madre sarebbe stato più emotivo per loro e quindi li avrebbe portati a comportarsi in modo diverso, rispetto a quando hanno ricevuto feedback nella loro seconda lingua, l’inglese. Infatti, quando hanno ricevuto un feedback positivo in cinese nativo, erano 10% più probabilità di prendere una scommessa nel turno successivo, indipendentemente dal rischio. Questo dimostra che le emozioni influenzano il ragionamento.

Tornando all’IA, poiché le emozioni non possono essere veramente implementate in un programma – non importa quanto sofisticato possa essere – il ragionamento del computer non può mai essere cambiato dai suoi sentimenti.

Una possibile interpretazione dello strano comportamento “emotivo” di HAL è che è stato programmato per simulare le emozioni in situazioni estreme, in cui avrebbe bisogno di manipolare gli umani non sulla base del ragionamento ma invocando il loro sé emotivo, quando la ragione umana fallisce. Questo è l’unico modo in cui posso vedere che l’IA del mondo reale potrebbe simulare in modo convincente le emozioni in tali circostanze.

A mio parere, non costruiremo mai una macchina che sente, spera, è spaventata o felice. E poiché questo è un prerequisito assoluto per qualsiasi affermazione che abbiamo generato intelligenza generale artificiale, non creeremo mai una mente artificiale al di fuori della vita.

È proprio qui che si trova la magia di 2001: Odissea nello spazio. Per un momento, siamo portati a credere all’impossibile, che la pura fantascienza possa ignorare i fatti del mondo in cui viviamo.

Related Posts

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *