Film del 2015 di Alex Garland.
Il titolo gioca chiaramente con l’idea di divinità che nel teatro antico entrava inaspettatamente in scena mosso da una macchina (“Deus ex machina” appunto, divinità che viene dalla macchina) e scompiglia la trama.
Caleb Smith, un giovane programmatore del principale motore di ricerca sul mercato, BlueBook, sembra vincere una lotteria interna alla società e aggiudicarsi l’opportunità di trascorrere una settimana nella casa di Nathan Bateman, il carismatico e geniale ideatore di BlueBook. Qui Caleb scoprirà di essere stato scelto da Nathan per testare una macchina umanoide, un’intelligenza artificiale, di nome Ava. Il giovane programmatore ha una settimana di tempo per eseguire alla macchina una sorta di test di Turing e stabilire se Ava abbia coscienza di sé.
Intelligenza artificiale e filosofia
Il film rimanda ad un gran numero di questioni filosofiche legate allo sviluppo dell’intelligenza artificiale e ripropone alcuni tipici interrogativi del genere fantascientifico della robotica. A partire, naturalmente, dal celebre test di Turing: come possiamo sapere se una macchina è intelligente (intelligenza artificiale forte)? Una macchina intelligente è anche cosciente? Cosa significa esserlo? O, ancora, può una macchina provare sentimenti, emozioni, avere desideri? Soprattutto, e questo l’interrogativo che il protagonista sembra porsi ad un certo punto della sua interazione con Eva, questi umanoidi, nel momento in cui pensano, percepiscono, paiono soffrire e desiderare (la sopravvivenza la libertà), hanno diritti?

Uomo vs AI: chi ha il controllo di chi?
Infine, una questione emerge pian piano e si impone sul finale (n perfetta linea con il genere fantascientifico), fra macchine intelligenti ed esseri umani chi ha il controllo? Chi manipola chi? Siamo sicuri di voler correre il rischio di non essere più in grado di gestire una nostra invenzione? E in questo caso, come si comporterebbe la macchina?
L’AI avrà un’etica?
Sin dalle tre leggi della robotica di Asimov, l’uomo si chiede se sia possibile insegnare l’etica ad un’intelligenza artificiale o se, al pari dell’uomo, la macchina non finirebbe per apprendere anche come aggirare questi principi in ragione di un proprio interesse personale. E allora la domanda interessante sarebbe: quale potrebbe essere lo scopo, il fine di una intelligenza artificiale?