Libro del mese - Giugno 2019




I film di fantascienza hanno introdotto nell’immaginario collettivo il tema del potenziale e dei potenziali pericoli legati alla nascita e allo sviluppo di quelle che - con un linguaggio molto pop - vengono chiamate superintelligenze.

Ma cosa ci dice a tal proposito la scienza? L'autore del nostro libro del mese è Nick Bostrom, docente della Oxford University e direttore dello Strategic Artificial Intelligence Research Center, nonché firmatario (insieme a Stephen Hawking, Elon Musk, Steve Wozniak e Noam Chomsky) della celebre lettera aperta che nel 2015 tentò di sensibilizzare l’opinione pubblica sui rischi legati all’intelligenza artificiale specie se applicata in campo militare-strategico.
La lettera, presentata durante la International Joint Conference on Artificial Intelligence di Buenos Aires, ha riaperto un dibattito mai sopito su quella che è una delle sfide etiche e filosofiche più importanti del nostro tempo.


Superintelligenza. Tendenze, pericoli, strategie si occupa proprio di approfondire questo tema cruciale a partire da una disamina delle forme e funzioni delle superintelligenze artificiali, il loro rapporto con il cervello umano e con gli assetti democratici delle nostre società.
Le superintelligenze vanno incentivate? Possono essere contenute e monitorate? Come e da chi? Domande complesse che ci aiutano ad interrogarci non solo sugli orizzonti della nuova società artificiale ma anche e soprattutto su cosa voglia dire la parola “umano” e su quanto sia forte ed importante la nostra capacità di scelta e confronto.

Disponibile al prestito in biblioteca.

Commenti

Mario Franco Carbone ha detto…
Tra i vari possibili scenari descritti nel libro, c'è il seguente: viene realizzata una superintelligenza (una IA che in ogni attività intellettuale è superiore all'uomo), e le si dice di dimostrare l'Ipotesi di Riemann.
La macchina capisce che può affrontare meglio questo problema avendo maggiore potenza di calcolo. Quindi trasforma il Sistema Solare in processori e memorie. La nostra specie viene eliminata (o per evitare che ostacoli la IA nell'esecuzione di questo compito, o perché i nostri corpi sono fatti di materiali che possono essere utilizzati).

N.B.: in questo scenario, la IA superintelligente non è "malvagia", non si ribella all'uomo, semplicemente fa (con la massima efficienza possibile) ciò che le è stato detto di fare.
----------------------------------------------------------------
Come spiega Max Tegmark in "Vita 3.0": "Probabilmente non odiate le formiche così tanto da andare in giro a schiacciarle per pura cattiveria, ma se siete responsabili di un progetto idroelettrico per l'energia verde e c’è un formicaio nella regione che verrà inondata, tanto peggio per le formiche. Il movimento per l'IA benefica vuole evitare di mettere l'umanità nella posizione di quelle formiche."