Ciência e sociedade

Acadêmico defende maior controle sobre a IA, temendo que pode eliminar a humanidade

Na opinião de um professor de ciência da computação britânico, o poder das atuais redes neurais de aprendizado profundo é uma prévia para a criação em breve de modelos tão inteligentes como os humanos.
Sputnik
Stuart Russell, professor de ciência da computação na Universidade da Califórnia, em Berkeley, EUA, advertiu em uma entrevista que o desenvolvimento descontrolado da inteligência artificial (IA) poderia levar a uma mente digital poderosa o suficiente para destruir a humanidade.
Russell, que também é membro do Wadham College, em Oxford, Reino Unido, demonstrou ao jornal britânico The Times frustração com a postura indiferente adotada pelos ministros do governo do país em relação à regulamentação do setor de IA.
Ele cita as incríveis habilidades do modelo de linguagem ChatGPT da OpenAI, que utiliza redes neurais de aprendizado profundo para gerar resultados com base em informações humanas, e o perigo de que um dia um sistema semelhante ao ChatGPT possa ser incorporado a uma mente digital superinteligente que escapa ao controle humano.
Panorama internacional
Mídia: EUA exigem do setor de tecnologia garantias de 'sistemas confiáveis e seguros' de IA
Russell culpa os esforços persuasivos de lobby do setor de tecnologia, que vem gastando bilhões para introduzir essa abordagem nas "legislaturas de todo o mundo".
Ele alertou que uma hipotética inteligência artificial geral (AGI) capaz de realizar qualquer tarefa intelectual que um ser humano possa realizar está quase ao virar da esquina. O cientista de computação acrescentou que uma IA superpoderosa poderia receber uma tarefa dos humanos, mas recorrer a uma estratégia para realizá-la com efeitos colaterais desastrosos para a humanidade, como sua eliminação para resolver o problema das mudanças climáticas.
Russell assinou anteriormente com o bilionário Elon Musk e um grupo de especialistas e executivos de indústria de IA uma carta em que pediu uma pausa de seis meses no desenvolvimento de sistemas mais avançados do que o GPT-4, pois sistemas de inteligência artificial comparável à humana podem representar riscos profundos para a sociedade e a humanidade.
Comentar