Il documento afferma che l'intelligenza artificiale può essere una civiltà
Se gli alieni sono là fuori, perché non ci hanno ancora contattato? Potrebbe darsi, sostiene un nuovo articolo, che loro – o, in futuro, noi – verremo inevitabilmente spazzati via da un’intelligenza artificiale ultra potente, vittime della nostra stessa spinta a creare un essere superiore.
Questa potenziale risposta al paradosso di Fermi – in cui il fisico Enrico Fermi e le generazioni successive pongono la domanda: “dove sono tutti?” - viene dal ricercatore della National Intelligence University Mark M. Bailey, che in un nuovo articolo ancora da sottoporre a revisione paritaria postula che l'intelligenza artificiale avanzata potrebbe essere esattamente il tipo di rischio catastrofico che potrebbe spazzare via intere civiltà.
Bailey cita l’intelligenza artificiale sovrumana come un potenziale “Grande Filtro”, una potenziale risposta al paradosso di Fermi in cui una minaccia terribile e sconosciuta, artificiale o naturale, spazza via la vita intelligente prima che possa entrare in contatto con gli altri.
"Per chiunque sia preoccupato dal rischio catastrofico globale, rimane una domanda che fa riflettere", scrive Bailey. "Il Grande Filtro appartiene al nostro passato o è una sfida che dobbiamo ancora superare?"
Noi esseri umani, osserva il ricercatore, siamo "terribili nello stimare intuitivamente il rischio a lungo termine" e, considerando quanti avvertimenti sono già stati emessi sull'intelligenza artificiale - e sul suo potenziale endpoint, un'intelligenza artificiale generale o AGI - è possibile, sostiene, che potremmo evocare la nostra stessa fine.
"Un modo per esaminare il problema dell'intelligenza artificiale è attraverso la lente dell'argomentazione della seconda specie", continua il documento. "Questa idea considera la possibilità che l'intelligenza artificiale avanzata si comporti effettivamente come una seconda specie intelligente con la quale inevitabilmente condivideremo questo pianeta. Considerando come sono andate le cose l'ultima volta che ciò è accaduto - quando gli esseri umani moderni e i Neanderthal coesistevano - i risultati potenziali sono cupi."
Ancora più spaventosa, osserva Bailey, è la prospettiva di una superintelligenza artificiale (ASI) quasi divina, in cui un'AGI supera l'intelligenza umana perché "qualsiasi intelligenza artificiale in grado di migliorare il proprio codice sarebbe probabilmente motivata a farlo".
"In questo scenario, gli esseri umani rinuncerebbero alla loro posizione di specie intelligente dominante sul pianeta, con potenziali conseguenze disastrose", ipotizza l'autore. "Come per i Neanderthal, il nostro controllo sul nostro futuro, e anche sulla nostra stessa esistenza, potrebbe finire con l'introduzione di un concorrente più intelligente."
Non c'è ancora, ovviamente, alcuna prova diretta che suggerisca che le IA extraterrestri abbiano spazzato via la vita naturale in qualsiasi civiltà aliena, anche se, secondo Bailey, "la scoperta di un'intelligenza artificiale extraterrestre senza prove concomitanti di un'intelligenza biologica preesistente sarebbe sicuramente muovere l'ago."
La possibilità, ovviamente, aumenta la possibilità che ci siano IA distruttive che indugiano nell’universo dopo aver eliminato i loro creatori. A tal fine, Bailey suggerisce utilmente che "segnalare attivamente la nostra esistenza in un modo rilevabile da un'intelligenza artificiale extraterrestre potrebbe non essere nel nostro migliore interesse" perché "qualsiasi intelligenza artificiale extraterrestre competitiva potrebbe essere incline a cercare risorse altrove, inclusa la Terra".
"Anche se può sembrare fantascienza, è probabile che una tecnologia fuori controllo... come l'intelligenza artificiale sarebbe un probabile candidato per il Grande Filtro, sia esso organico per il nostro pianeta o di origine extraterrestre", conclude Bailey. "Dobbiamo chiederci: come ci prepariamo a questa possibilità?"
Lettore, è roba strana, ma ancora una volta siamo lieti che qualcuno la stia prendendo in considerazione.
Altro su un'apocalisse dell'IA:Warren Buffett paragona l'intelligenza artificiale alla bomba atomica
Altro su un'apocalisse dell'IA: