Fil(m)osofia

Ex Machina

Film del 2015 di Alex Garland.

Il titolo gioca chiaramente con l’idea di divinità che nel teatro antico entrava inaspettatamente in scena mosso da una macchina (“Deus ex machina” appunto, divinità che viene dalla macchina) e scompiglia la trama.  

Caleb Smith, un giovane programmatore del principale motore di ricerca sul mercato, BlueBook, sembra vincere una lotteria interna alla società e aggiudicarsi l’opportunità di trascorrere una settimana nella casa di Nathan Bateman, il carismatico e geniale ideatore di BlueBook. Qui Caleb scoprirà di essere stato scelto da Nathan per testare una macchina umanoide, un’intelligenza artificiale, di nome Ava. Il giovane programmatore ha una settimana di tempo per eseguire alla macchina una sorta di test di Turing e stabilire se Ava abbia coscienza di sé.

Intelligenza artificiale e filosofia

Il film rimanda ad un gran numero di questioni filosofiche legate allo sviluppo dell’intelligenza artificiale e ripropone alcuni tipici interrogativi del genere fantascientifico della robotica. A partire, naturalmente, dal celebre test di Turing: come possiamo sapere se una macchina è intelligente (intelligenza artificiale forte)? Una macchina intelligente è anche cosciente? Cosa significa esserlo? O, ancora, può una macchina provare sentimenti, emozioni, avere desideri? Soprattutto, e questo l’interrogativo che il protagonista sembra porsi ad un certo punto della sua interazione con Eva, questi umanoidi nel momento in cui pensano, percepiscono, paiono soffrire e desiderare (la sopravvivenza la libertà), hanno diritti?

ex machina

Uomo vs AI: chi ha il controllo di chi?

Infine, una questione emerge pian piano e si impone sul finale (n perfetta linea con il genere fantascientifico), fra macchine intelligenti ed esseri umani chi ha il controllo? Chi manipola chi? Siamo sicuri di voler correre il rischio di non essere più in grado di gestire una nostra invenzione? E in questo caso, come si comporterebbe la macchina?

L’AI avrà un’etica?

Sin dalle tre leggi della robotica di Asimov, l’uomo si chiede se sia possibile insegnare l’etica ad un’intelligenza artificiale o se, al pari dell’uomo, la macchina non finirebbe per apprendere anche come aggirare questi principi in ragione di un proprio interesse personale. E allora la domanda interessante sarebbe: quale potrebbe essere lo scopo, il fine di una intelligenza artificiale?

filosofia pubblica

In The Age of AI – Nell’era dell’intelligenza artificiale

Uno straordinario documentario sugli effetti previsti dell’imminente rivoluzione industriale portata dalla AI (Artificial Intelligence). Una rivoluzione che si prevede sarà così profonda e pervasiva in tutti gli aspetti delle nostre vite da essere paragonabile a solo pochissimi eventi nella storia dell’uomo, come l’avvento dell’elettricità o del computer.

Fino a che punto le persone sono a conoscenza di quanto ci spetta? Come possiamo prepararci a qualcosa che nel giro di pochissimi anni stravolgerà interamente il nostro modo di vivere?

Questo documentario propone 5 capitoli, cinque prospettive dalle quali guardare alla rivoluzione AI, per riflettere e diventare consapevoli delle enormi potenzialità che questa tecnologia sta aprendo (per la ricerca medica o la sicurezza stradale), ma anche degli effetti collaterali che ne seguiranno, ad esempio sull’occupazione (si stima che il 50% degli attuali lavori verranno svolti entro breve da AI), sulla disuguaglianza nella società, o sulla privacy dell’individuo.

https://www.pbs.org/video/in-the-age-of-ai-zwfwzb/

in the age of ai1

 

 

 

didattica della filosofia, filosofia pubblica, Senza categoria

Il “Driverless Dilemma”: il dilemma etico delle auto autonome

Immaginate in un futuro neanche troppo lontano che i nostri spostamenti avvengano su mezzi a guida autonoma. Un imprevisto obbliga l’auto intelligente a scegliere tra alcuni tragici scenari, ognuno dei quali coinvolge possibili vittime: come regolare la scelta dell’auto?

Si prevede che l’impiego delle driverless car possa avere in futuro molti benefici, ad esempio sulla sicurezza (eliminando gli errori e i cattivi comportamenti dell’uomo si dovrebbero ridurre drasticamente gli incidenti stradali), sull’impatto ambientale (dovuto principalmente a minori emissioni nocive), e anche sulla qualità della vita delle persone (non più stressate da ore di guida nel traffico). Eppure, le questioni etiche, giuridiche e politiche poste da queste tecnologie sono molto complesse.

In questo video per Ted-Ed del 2015, Patrick Lin esplora l’etica controversa delle vetture autonome. Vengono proposti alcuni esperimenti mentali per illustrare il dilemma e le moltissime implicazioni etiche che si aprono.

Ad esempio, nel caso di un incidente stradale che coinvolga auto automatiche, il principio di minimizzazione del danno ci può aiutare a risolvere tutte le situazioni o vi sono casi in cui porterebbe ad esiti che giudicheremmo immorali? Soprattutto, fino a che punto è quantificabile il danno prodotto? La scelta tra salvare 5 vite o 1 può sembrare semplice, ma se si deve scegliere tra due individui come fare? Dare ad una macchina gli strumenti per quantificare il danno in tutta una serie di possibili scenari significherebbe attribuire un valore numerico a valori come la vita, la salute, l’età, e tantissime altre caratteristiche di un individuo. Siamo sicuri di poterlo / volerlo fare?

Ci si chiede, inoltre, chi debba farsi carico di queste decisioni: i produttori di questa tecnologia? La politica? Qualche comitato etico?

Il nodo del problema è che, mentre la reazione dell’uomo ad un imprevisto è spontanea, istintiva e quindi non deliberata – con tutte le conseguenze che ne derivano sulla mancata intenzionalità e sul diverso grado di responsabilità imputabile al conducente rispetto al danno prodotto –, la reazione di una macchina ad una situazione imprevista è l’esito di un calcolo programmato con largo anticipo dai produttori e quindi in un certo senso sempre deliberata e intenzionale. La decisione presa dall’auto senza conducente è frutto di una scelta operata a tavolino su come regolamentare un possibile conflitto tra diversi diritti dell’uomo; una scelta, questa, che evidentemente non potrà mai essere eticamente neutrale.

Our Driveless Dilemma, Science1

Per approfondire: la questione del Driverless Dilemma è discussa in J.D. Greene, Our driverless dilemma. Science, 352(6293), 1514-1515, 2016, di cui qui è disponibile un estratto.

consigli di lettura, didattica della filosofia, filosofia pubblica

Per un’etica della robotica: rileggendo Isaac Asimov

Isaac Asimov è considerato il padre della fantascienza e uno dei più grandi scrittori del Novecento. Profeta della “robotica”, termine da lui coniato nel 1942, di cui con straordinaria preveggenza immagina lo sviluppo. Nei suoi numerosi scritti, Asimov anticipa alcune delle principali questioni etiche e filosofiche legate all’implementazione di robotica e intelligenza artificiale.

Le tre leggi della robotica:

Famosissime sono le leggi della robotica, formulate da Asimov negli anni ’40 e diventate un caposaldo della letteratura e della filmografia fantascientifica.

Prima Legge: Un robot non può recar danno a un essere umano né può permettere che a causa del proprio mancato intervento un essere umano riceva danno.

Seconda legge: Un robot deve obbedire agli ordini impartiti dagli esseri umani purché tali ordini non contravvengano alla prima legge.

Terza legge: Un robot deve proteggere la propria esistenza purché questo non contrasti con la prima e la seconda legge.

A queste tre leggi Asimov ne aggiungerà successivamente una quarta, la legge zero:

Legge zero: Un robot non può recare danno all’umanità, né può permettere che, a causa del proprio mancato intervento, l’umanità riceva danno.

Con la legge zero, la questione del possibile danno causato dalla tecnologia viene ampliata dal singolo individuo all’intera umanità, legittimando così, in casi estremi, la violazione della prima legge in funzione di un bene universale, un bene superiore.

roboetica

Un uso etico della tecnologia?

Una delle questioni sulle quali Asimov ci invita a riflettere nella sua opera è quella del rapporto tra etica e tecnologia: in particolare, Asimov ci chiede se la tecnologia, il suo sviluppo e il suo impiego, non vada subordinata all’etica.

Quella da lui proposta con le tre leggi della robotica sembra essere un’etica minimale, che si limita al principio del non arrecare danno agli umani. Eppure, questo (in apparenza) semplice principio nasconde una molteplicità di questioni: che cosa significa “non arrecare danno” all’uomo? Si pensa solo a danni fisici (e se sì, di che tipo?), o anche psicologici e morali? Possiamo accettare un piccolo danno a fronte di un beneficio maggiore nell’individuo? E un danno ad alcuni in cambio di beneficio per molti – lo scenario aperto dalla Legge zero – lo possiamo accettare? O ancora, deve essere vietata solo quella tecnologia che possa provocare un pericolo immediato per l’uomo o anche quella che induce azioni/abitudini pericolose nel lungo periodo? Ecc. È evidente che le questioni etiche implicate dall’uso di tecnologia sono moltissime e di grande complessità.

La roboetica oggi:

Oggi la roboetica è diventata una vera e propria branca dell’etica e della filosofia. Prova a rispondere alle grandi domande etiche poste dalle nuove tecnologie (come: di chi sarà la responsabilità di un incidente causato da un robot? Dei programmatori, dei proprietari, dei produttori? Che effetti può avere una certa tecnologia sull’ambiente o sulla società?) e si interroga sulle possibili ricadute di una tecnologia sui diritti dell’uomo (ad es. il diritto al lavoro, alla libertà di scelta, a non essere discriminati, o alla privacy).

La riflessione filosofica e politica spesso arranca, inseguendo il troppo rapido sviluppo di nuove tecnologie, e ancora più in ritardo arriva la riflessione giuridica a regolamentare l’uso di tecnologie già da tempo diffuse e impiegate nella società. Al fine di invertire questo trend, oggi l’Europa sta lavorando all’elaborazione di linee guida per un uso affidabile dell’intelligenza artificiale (qui per saperne di più).

Per alcuni, il tentativo è ingenuo, se non addirittura vano: la tecnologia risponde anzitutto alla logica dell’efficacia e del profitto, non a quella dell’etica. Per altri, è un tentativo doveroso di qualsiasi ‘buona’ politica.

Sono questioni importanti, all’ordine del giorno dell’agenda educativa. Asimov forse non  fornisce le risposte a questi problemi, ma offre a giovani e adulti, a esperti e neofiti, l’occasione per riflettervi, immedesimandosi, grazie alla forza evocativa di una delle più potenti penne del secolo scorso, in scenari immaginari, oggi neanche troppo lontani.

Cosa leggere (per incominciare):

Io Robot (I Robot) è una raccolta di 9 racconti di fantascienza scritti da Asimov tra il 1940 e il 1950. In ognuno di questi racconti, Asimov affronta diverse questioni etiche del possibile (all’epoca solo immaginario) rapporto tra uomini e macchine. Protagonisti sono i robot positronici: particolare tipologia di robot umanoidi dal cervello positronico. Sono generalmente innocui per l’uomo, perché seguono le leggi della robotica.

Asimov, Io robot

La Trilogia della Fondazione è forse la sua opera più riuscita. Sono tre romanzi (FondazioneFondazione e ImperoSeconda Fondazione) scritti tra il 1951 e il 1953, che valsero ad Asimov il Premio Hugo nel 1966 come miglior ciclo di fantascienza. L’opera narra le vicende dell’Impero Galattico e di un gruppo di scienziati che, grazie ad una particolare scienza, la psicostoria, è in grado di prevedere gli eventi futuri della galassia.

«Le leggi della storia sono assolute come quelle della fisica, e se in essa le probabilità di errore sono maggiori, è solo perché la storia ha a che fare con gli esseri umani che sono assai meno numerosi degli atomi, ed è per questa ragione che le variazioni individuali hanno un maggior valore» (Fondazione e impero).

Spinto dal grande successo della trilogia, decenni dopo Asimov tornerà a scrivere della Fondazione, aggiungendo nuovi capitoli alla saga, due prequel e due sequel. I sette romanzi costituiranno così il Ciclo delle Fondazioni.

Asimov trilogia della fondazione

Cosa vedere:

Moltissime le opere di fantascienza che hanno tratto ispirazione dal lavoro di Asimov. Di grande successo le saghe Star Wars e Star Trek e i film basati su alcuni suoi racconti, come:

  • Io, Robot (2004) diretto da Alex Proyas, con Willie Smith.

«Le leggi sono fatte per essere infrante». Che succede se un robot viole le tre leggi della robotica?

  • L’uomo bicentenario (1999) diretto da Chris Columbus, con Robin Williams.

Cosa manca ad un robot per poter essere ‘umano’?

Link utili:

Dagli archivi Rai, Intervista a Isaac Asimov, l’uomo delle stelle, del 1988:

http://www.teche.rai.it/2017/01/ricordando-isaac-asimov-luomo-delle-stelle/

Per gli appassionati di robotica, segnaliamo un sito italiano interamente dedicato al genere, con notizie, consigli di lettura e di visione e tanto altro:

https://www.robotiko.it/

 

Fil(m)osofia

Blade Runner (1982): “E’ tempo di morire” (in memoria di Rutger Hauer)

Regia di Ridley Scott, con Harrison Ford e Rutger Hauer (da poco scomparso). Blade Runner, tratto dal romanzo Philip K. Dick, “Do Androids Dream of Electric Sheep?” (trad. Il cacciatore di androidi) del 1968, è un film cult degli anni ’80 che invecchia particolarmente bene, o non invecchia affatto.

La pellicola è un capolavoro del cinema, alcune delle sue scene e dei suoi dialoghi sono entrati nell’immaginario collettivo. Ambientato in un futuro distopico, dove l’ingegneria genetica è riuscita a realizzare replicanti (robot) del tutto simili agli umani, da utilizzare a proprio piacere, come forza lavoro o oggetto sessuale.

Tantissime le tematiche filosofiche toccate, che ruotano attorno ai problemi posti dall’intelligenza artificiale: possono le macchine pensare? Hanno coscienza di sé? Possono soffrire? Dovrebbero avere dei diritti?

Soprattutto, però, è l’uomo – e non la macchina – al centro degli interrogativi posti dal film: sono gli stessi esseri umani che nel confronto/scontro con gli androidi tentano di definirsi e affermarsi nella propria specificità. Centrale la scena in cui il cacciatore di replicanti Rick Deckard (Harrison Ford), sottopone Rachel al test di “Voight-Kampff”, liberamente ispirato al test di Turing, ideato dal matematico Alan Turing nel 1950 per poter distinguere una macchina da un essere umano.

Il tema dell’”altro”, insomma, come specchio per ritrovarsi e ri-conoscersi.

Buona visione!

blade runner1

consigli di lettura

Ethics and the Contemporary World, ed. by D. Edmonds, Routledge 2019

Un volume collettaneo, a cura di David Edmonds (@DavidEdmonds100) su alcuni dei principali problemi dell’etica contemporanea. Venticinque capitoli di altrettanti autori, suddivisi in otto macro tematiche che spaziano dalla discriminazione di genere all’ambiente, dalle nuove tecnologie alla povertà.

Tra i temi affrontati vi sono alcune fra le più importanti questioni del nostro tempo: quali problemi etici pongono le fake-news, la libertà di parola, il mangiare carne, la ricerca sugli embrioni o i robot e intelligenza artificiale?

Se si è interessati alla filosofia del tempo presente, questo è il libro giusto da cui partire.

ethics and the contemporary world

Indice dei contenuti:

Preface and Acknowledgements

Part 1: Race and Gender

  1. Profiling and Discrimination David Edmonds
  2. Feminism and the Demands of BeautyHeather Widdows and Gulzaar Barn

Part 2: The Environment

  1. The Environment and Geoengineering Stephen Gardiner
  2. Population and Life ExtensionHilary Greaves

Part 3: War and International Relations

  1. Immigration and Borders: Who should be allowed in? Gillian Brock
  2. War and Legitimate TargetsHelen Frowe
  3. Counter-Terrorism and Lethal ForceSeumas Miller

Part 4: Global poverty

  1. Humanitarian Intervention Allen Buchanan
  2. Religion and PoliticsTony Coady
  3. Charity and PartialityTheron Pummer

Part 5: Ethics and social media

  1. Social media and friendshipRebecca Roache
  2. The internet and privacyCarissa Veliz
  3. Fake News and Free SpeechNeil Levy

Part 6: Democracy

  1. Extremism Steve Clarke
  2. MicroaggressionRegina Rini
  3. Free Speech Roger Crisp

Part 7: Rights and Moral Status

  1. The Child’s Right to Bodily IntegrityBrian Earp
  2. Disability Guy Kahane
  3. Embryo Research Katrien Devolder
  4. Abortion Francesca Minerva
  5. Euthanasia Dominic Wilkinson
  6. Eating MeatJeff McMahan

Part 8: Science and Technology

  1. Genetic SelectionThomas Douglas
  2. Human Enhancement Julian Savulescu
  3. AI and Robot EthicsJohn Tasioulas.

Index

Per maggiori dettagli rinviamo alla pagina dell’editore.

Fil(m)osofia

A.I. Intelligenza artificiale – di Steven Spielberg (2001)

Le macchine potranno mai essere titolari di diritti? E cosa le definirà tali? L’essere intelligenti? “Intelligenti” come? O l’essere in grado di provare sentimenti?

“A.I. Artificial intelligence” propone la storia futuristica di una macchina-bambino che rivendica il diritto di essere amato dalla sua mamma.

Risultati immagini per a.i. intelligenza artificiale