Nick Bostrom e il futuro dell’umanità

01/02/2017

Filosofia



Il Future of Humanity Institute è una task force di scienziati, matematici, fisici e intelligenze duttili e dotate guidate dal filosofo di origine svedese Nick Bostrom che si dedica alle domande più grandi dell’umanità. Mentre quest’ultima vive e s’adopera per lo più nell’orizzonte della contingenza, i ricercatori dell’istituto per il futuro dell’umanità s’interrogano su quale sia il destino della nostra specie, quali rischi minacciano l’esistenza prossima dell’uomo su questo pianeta e cosa possiamo fare oggi per disinnescarli. Il Future of Humanity Institute ha sede in un edificio della Oxford University, l’università che ha pubblicato tanti lavori di Nick Bostrom. Il più noto, diventato un bestseller nel 2015 è Superintelligence. Paths, Dangers and Strategies, che ha consolidato la figura del filosofo tra le menti più celebri del pianeta e nell’industria delle nuove tecnologie.

Qual è il maggiore rischio per l’umanità oggi? Periremo per le trasformazioni ambientali provocate dal cambiamento climatico o perché scoppierà una guerra nucleare? Conoscere i rischi che veramente incombono sul nostro futuro può permetterci di intervenire ed evitare il peggio. Non solo, ma ragionare nella prospettiva di un futuro più remoto nell’ordine dei millenni, ci espone alla vertigine di domande ben più complesse sul senso dell’esistenza e del metafisico. Secondo il professor Bostrom non si può lasciare spazio al caso, ma valutare attentamente la probabilità che un evento imprevedibile si verifichi in futuro. Bisogna avere in dotazione tutte le categorie logiche della filosofia teoretica e morale, della matematica statistica e la conoscenza approfondita dello stato dell’arte della tecnologia contemporanea, per maneggiare argomenti che travisano la fantascienza, con lucidità e perizia. E diventare a 43 anni uno dei filosofi più influenti del nostro tempo, come lo descrive il New Yorker in un lungo e sfaccettato profilo pubblicato qualche tempo fa dopo il successo di Superintelligence.

Il rischio numero uno è che un’intelligenza superiore a quella umana annienti o releghi ad un ruolo marginale in questo universo i posteri. L’obiettivo è l’intelligenza artificiale. Bill Gates e Elon Musk di Tesla concordano; gli fa eco Stephen Hawking. L’intelligenza artificiale finirà per svilupparsi da sola e crescere a un ritmo sempre maggiore mentre gli esseri umani, limitati dalla lentezza dell’evoluzione biologica, non potranno competere con le macchine e un giorno verranno soppiantati. Uno scenario darwiniano. Ma non astratto. Mentre usciva il suo libro, 1000 eminenti scienziati firmavano una lettera aperta per fermare lo sviluppo di armi da guerra in grado di agire autonomamente. Per Bostrom l’umanità oggi armeggia con l’intelligenza artificiale come bambini inconsapevoli e curiosi che giocano con una bomba che sta per esplodere. La avvicinano all’orecchio, sentono il ticchettio. Ma non ne capiscono il senso.

Serve maggiore consapevolezza, non tanto e non solo dei limiti alle possibilità della tecnologia oggi, ma sul senso dell’essere uomini e il fine ultimo della nostra limitata ma per ora ancora superiore intelligenza. Guardiamo il futuro allora, e capiremo meglio il presente e noi stessi.