Bostrom, Nick, Superintelligenza: Tendenze, pericoli, strategie, Bollati Boringhieri, Torino 2018 (ed. originale inglese 2014)
Un libro incredibilmente denso e documentato, che si sviluppa su 670 pagine, divise in una prefazione, 15 capitoli e oltre 200 pagine di note e bibliografia. L’autore esamina un problema semplice: se l’uomo arriverà a costruire una super intelligenza, e (se questo avverrà) quali scenari si possono aprire per l’umanità. Alla prima domanda l’autore risponde positivamente anche calcolando i tempi probabili in cui questa obbiettivo verrà realizzato. Si esaminano poi le conseguenze di tale avvento, e dei diversi modi in cui l’uomo può (o meno) controllare la super intelligenza limitando i suoi obbiettivi in modo tale da non nuocere alla nostra specie. Sembra fantascienza ma Bostrom muove ogni passo con grande scientificità, e per questo il libro oltre che interessante diventa anche inquietante. Dico questo perché al fondo del volume resta un problema di principio che non mi pare molto affrontato e che è il seguente. Una volta che si definisce una super intelligenza come “qualunque intelletto che superi di molto le prestazioni cognitive degli esseri umani in quasi tutti i domini di interesse (p.57), ne segue che è impossibile pensare di poterla controllare perché una sotto-intelligenza non può controllore una super intelligenza, altrimenti questa non sarebbe una super intelligenza superiore a chi la controlla.
La cosa è ancor più chiara se si tiene presente che Bostrom afferma che una super intelligenza sta all’intelligenza umana, come l’intelligenza umana sta a quella delle scimmie (p.120). Da cui segue che il destino dell’uomo che inventa una super intelligenza è lo stesso che è toccato alle scimmie (nell’ipotesi che avessero inventato l’uomo).