Irá a inteligência artificial sobre-humana acabar com a humanidade ou conduzir à imortalidade?

Muitos especialistas, inclusive o chefe da SpaceX, Elon Musk, advertiram para o perigo que o desenvolvimento desregulado da inteligência artificial pode provocar, alertando para a dificuldade de prever o comportamento de robôs com inteligência artificial.
Sputnik

Tom Chivers, autor do livro recém-lançado chamado "A Inteligência Artificial Não Quer te Matar", em entrevista ao tabloide britânico Daily Star, disse que o debate com especialistas de inteligência artificial revelou que a criação deste tipo de inteligência sobre-humana irá provavelmente acontecer nos próximos 50 anos e poderá potencialmente levar à imortalidade ou à completa destruição da civilização humana.

Chivers falou sobre sua conversa com o engenheiro da Google Paul Crowley para mostrar que os cientistas estão divididos relativamente à questão se a humanidade irá testemunhar o avanço rápido das poderosas máquinas desenvolvidas à base da IA. O autor do livro disse que ficou particularmente horrorizado com a opinião do engenheiro da Google.

"O seu raciocínio era, se você olhar para o que a maioria dos pesquisadores de IA pensa sobre quando é que virá a verdadeira inteligência artificial sobre-humana, de acordo com a maioria dos especialistas esse tempo irá chegar no espaço entre 50 a 100 anos", afirmou Chivers.

"E se você perguntar a eles qual será o resultado de algo semelhante acontecer, a maioria deles pensa que existe uma probabilidade de entre 20% e 30% de isso pôr fim à civilização humana. Ela irá literalmente matar todo o mundo", advertiu o autor do livro.

Porém, Chivers fez notar também que muitos especialistas acreditam que a criação da IA sobre-humana permitirá acabar com a pobreza e ajudar na cura das doenças, conduzindo assim à imortalidade.

"É a ideia de que nós podemos estar à beira de algo realmente incrível ou algo completamente catastrófico, na geração de meus filhos e possivelmente na minha", acrescentou Chivers.

Em novembro de 2017, o fundador da empresa espacial SpaceX, o empreendedor Elon Musk, disse que a IA pode ser mais perigosa do que as armas nucleares. Segundo ele, é muito provável que a IA saia do controle dos humanos e decida se livrar deles.

Comentar