Storytelling

Il futuro che resta

Un giorno le macchine riusciranno a risolvere tutti i problemi,

ma mai una di esse potrà porne uno.

Albert Eistein, 1879-1955

Dall’inner space al tema scottante della privacy, passando per l’A.I. degli androidi fino ad arrivare al suicidio in diretta di Katelyn Nicole Davis. Etica ed evoluzione, spie e spiati. Ecco un excursus verso il futuro che verrà. Anzi no, perché tutto questo accade già oggi. 

19 Aprile del 2015: nasce Sophia, opera di David Hanson, già creatore dell’umanoide con le sembianze di Einstein. Dotata di due telecamere che le permettono di identificare l’interlocutore e una capacità di decifrare domande e formulare risposte dovuta alla combinazione di un hardware, la componente fisica, con un software di algoritmi informatici, la componente logica, sono passati alcuni anni dal 2015 e Sophia è ancora l’androide più umano mai creato fino ad oggi che ci sia dato sapere, per stessa ammissione del giornalista statunitense Charlie Rose, il quale, dopo aver avuto l’opportunità di intervistarla, ha comunque concluso che: «al momento la parola artificiale riferita alla sua intelligenza è ancora pienamente giustificata».

Ma per quanto ancora?

All’ inizio del ventesimo secolo, la fantascienza  ha acquisito una forma concreta in letteratura, traendo sempre più dalla scienza e dallo sviluppo tecnologico i suoi temi fondanti, e ambientando prevalentemente le sue storie in un futuro fatto di viaggi interstellari, galassie sconosciute e battaglie spaziali.

Ma nel 1962, con J. G. Ballard, subisce uno spostamento di interesse  verso i nuovi miti della tecnologia e gli effetti che questi andavano a produrre sulla psiche umana.

Infatti, negli stessi anni Philip K. Dick, Walter Tevis e Kurt Vonnegut descrivono attraverso scenari distopici l’irreversibile declino del genere umano, la perdita dei valori in nome di un progresso che renderà l’uomo sempre più simile alla macchina.

Kurt Vonnegut (Indianapolis, 11 novembre 1922 – New York, 10 aprile 2007)

 

Con il cinema questi mondi prendono forma, e da ‘dietro le quinte’  di un possibile, opinabile futuro, i grandi registi lasciano intravedere il monito: fino a dove è giusto spingersi in nome della ricerca tecnologica e cosa accadrebbe se non vi fosse una qualche forma etica a dirigerla?

 

 

 

 

 

E più andiamo avanti e più la distanza tra realtà e fantascienza si riduce fino quasi a sovrapporsi, spostando l’ indagine nei meandri della psiche umana, un inner-space (letteralmente spazio interno) capace di aiutarci nel comprendere ciò che va accadendo.

E di poco più di un mese fa, risale infatti al 30 dicembre 2016, la notizia su Katelyn Nicole Davis che ha sconvolto gli Stati Uniti con il suo video in cui confessava gli abusi sessuali subiti dal patrigno per poi suicidarsi in diretta Facebook . La vicenda ha assunto connotati ancora più macabri per via delle difficoltà affrontate dalla polizia nel rimuovere il filmato.

Il video è stato visualizzato da quarantamila persone prima che riuscissero a cancellarlo dalla rete, dimostrando fino a che punto lo sviluppo tecnologico abbia superato la realtà quotidiana e quanto sia sempre più difficile gestirlo.

Da spie a spiati? La sfera cognitiva dell’uomo e gli effetti prodotti su di essa dalle tecnologie e dai nuovi mezzi di comunicazione di massa, assumono una valenza centrale nell’indagare un tessuto sociale completamente permeato da queste connessioni, troppo radicate in noi e nei nostri gesti, ne siamo costantemente superati, troppo spesso relegati al solo ruolo di spettatori inconsapevoli.

Algoritmi matematici, con capacità pressoché infinite, legate soprattutto a logica e ragionamento, ci suggeriscono amici virtuali in linea con le preferenze che emergono dall’analisi del nostro profilo, compere in base alle nostre ricerche passate; sono nella compressione dei nostri dati musicali, concorrono a indicarci le offerte di volo verso una destinazione che abbiamo cercato in rete.

Insomma, mostrami la tua cronologia, ti dirò di cosa avrai bisogno e quale sarà il tuo prossimo desiderio.

E se la nostra casa, i nostri rapporti, le nostre azioni fossero dettate da un rating reputazionale, un’unità di misura della reputazione in grado di assegnare un livello di fiducia ‘oggettivo’ del soggetto, basandosi su calcoli matematici? (Se qualcuno ha visto la serie TV anglosassone Black Mirror sa a cosa mi riferisco).

Per ora non abbiamo di che preoccuparci, almeno così pare, il no del garante della privacy pronunciato 26 dicembre 2016 vieta a una banca dati online di immagazzinare le informazioni personali degli interessati per misurare e assegnare diversi gradi di affidabilità economica e professionale ai soggetti utilizzando un algoritmo, tra le motivazioni del divieto l’incapacità da parte di un sistema di poter decidere su aspetti delicati concernenti e che presentano ripercussioni sulla reputazione dell’utente.

Social network, visualizzazioni, mondovisione, sembrano esser diventati una sorta di religione 2.0 ormai fuori controllo. E la realtà che si avvicina sempre più all’irreale viene vissuta tramite dei filtri, standard comportamentali e di gradimento ai quali non possiamo sottrarci.

La strada sembra tracciata, ad ogni nuova Era  la specie precedente deve adattarsi per poter sopravvivere, ne saremo capaci? L’ era glaciale della tecnologia risparmierà l’essere umano?

 

Una macchina non potrà mai porre domande, ma sicuramente oggi è in grado di crearne in noi la necessità.

Leila Tavi

Leila Tavi is a journalist specialized in Russian Politics and Culture and PhD c. in Russian History at the University of Vienna under the supervision of Prof. Andreas Kappeler. She studied Political Science in Vienna and Rome, graduating in History of Eastern Europe at Roma Tre University, with Prof. Francesco Guida and a thesis on travel reports about Saint Petersburg by West Europeans at the beginning of the XIX Century. Previously she obtained a degree in Foreign Languages, with a specialization in German Philology at the University of Rome «La Sapienza». Her new book "East of the Danube" is coming soon.