Ce ne sono vari di editoriali, poi Hawking ha detto anche:
"Se gli alieni ci faranno visita, il risultato sarà molto simile a quello che è successo quando Cristoforo Colombo ha scoperto l'America: non è stata una gran cosa per gli indigeni americani".
Ora non mi pare sia il caso di finanziare una SHADO per questo.
Parla anche di energia nucleare e guerra batteriologia.
"Nel futuro infatti, secondo Hawking, gli esseri umani verranno soppiantati da una versione migliorata di loro stessi grazie ai progressi
dell'ingegneria genetica. Questi "nuovi uomini" saranno più intelligenti e capaci dei vecchi esseri umani e li sostituiranno in tutto."
"L'avvento di una intelligenza artificiale superiore potrebbe essere tanto la cosa migliore quanto la cosa peggiore mai successa all'umanità. Il vero rischio con l'intelligenza artificiale non è la cattiveria, ma la competenza. Un'intelligenza artificiale super-intelligente sarebbe molto efficace nel raggiungere i suoi scopi e se quegli scopi non sono in linea con i nostri sarà un problema. Nessuno di noi probabilmente è un perfido odia-formiche che le calpesta con malignità, ma se è responsabile di un progetto per l'energia verde idroelettrica che porterà a sommergere un formicaio, non si curerà delle formiche. Cerchiamo di non mettere l'umanità nella posizione di quelle formiche".
Comunque la frase completa potrebbe essere più possibilista:
«il successo nella creazione dell'IA (
general purpose, ndr) sarebbe il più grande evento della storia umana. Purtroppo, potrebbe anche essere l'ultimo, a meno che non impariamo a evitare i rischi».
Nel 1951 il matematico britannico Alan Turing, considerato uno dei fondatori dell’intelligenza artificiale, disse che «una volta avviato lo sviluppo di macchine intelligenti, non ci vorrà molto perché superino i nostri deboli poteri. A un certo punto dovremo aspettarci che le macchine prendano...
www.scienzainrete.it