Ciência e sociedade

'Níveis de risco' de regulação da IA na Europa devem ser mais abrangentes, dizem especialistas

Especialistas em inteligência artificial (IA) apresentam parecer sobre políticas no contexto de um debate geral sobre a crescente preocupação com o rápido advento de ferramentas baseadas em IA.
Sputnik
Mais de 50 especialistas em IA, tanto individual quanto coletivamente, representando diversas instituições, estão pedindo às autoridades europeias que busquem regulamentações mais abrangentes para a tecnologia.
A Lei de IA da União Europeia (UE) deve incluir a inteligência artificial de propósito geral (GPAI, na sigla em inglês), declarou o grupo de especialistas em um policy briefing — um documento que traz informações e orienta a aplicação de políticas — citado pelos meios de comunicação nesta quinta-feira (13). O cientista da computação norte-americano, Timnit Gebru, e a Mozilla Foundation, entre os signatários, argumentam que até mesmo ferramentas de IA de uso geral, em configurações específicas, podem representar um risco maior do que normalmente estão associados.
Ferramentas generativas por IA como o ChatGPT — um chatbot de linguagem AI desenvolvido pela empresa de pesquisa de inteligência artificial OpenAI e lançado no final de 2022 — foram apontadas pelos especialistas. Mehtab Khan, membro residente e líder da Yale/Wikimedia Initiative on Intermediaries and Information, também signatária do documento argumentou que é preciso regular toda a cadeia.
"O GPAI deve ser regulado em todo o ciclo do produto e não apenas na camada de aplicação." Ela acrescentou que os rótulos para níveis de alto e baixo risco "não estão inerentemente capturando o dinamismo" da tecnologia.
Restringir as regras de IA apenas a tipos específicos de produtos, como chatbots, não é suficiente, alertaram os signatários aos formuladores de políticas europeus.
Corrida armamentista com IA revolucionará combates e trará sérios riscos, alerta mídia
Além disso, como esclareceu a diretora administrativa do AI Now Institute, Sarah Myers West, o rascunho da legislação da UE foi escrito antes do lançamento de ferramentas como o ChatGPT.
"A IA da UE está prestes a se tornar, até onde sabemos, o primeiro regulamento abrangente para inteligência artificial. E, dado isso, vai se tornar o precedente global. E é por este motivo que é particularmente importante que ela atenda bem a essa categoria de IA, porque pode se tornar o modelo que outros irão seguir", disse Myers West.
A Lei de IA é a legislação tecnológica na agenda da UE. Com base no nível de risco, busca impor uma ampla estrutura regulando quais produtos uma empresa pode trazer para o mercado. Existem quatro riscos associados à IA definidos na Lei: mínimo, limitado, alto e inaceitável. Mas tem sido complicado definir esses riscos e suas categorias.
A empresa de pesquisa de inteligência artificial OpenAI lançou o ChatGPT em novembro de 2022. A ferramenta de linguagem conquistou seu primeiro milhão de usuários em menos de uma semana, mas desde então tem sido elogiada e criticada, em meio à preocupação geral com o rápido advento de ferramentas baseadas em IA. No dia 29 de março, o CEO da SpaceX e da Tesla, Elon Musk, juntamente com um grupo de gurus de IA e executivos do setor, pediram uma moratória de seis meses para trabalhos futuros em sistemas de IA potencialmente mais avançados do que o GPT-4 do desenvolvedor de chatbot OpenAI. Em uma carta aberta, Musk, o cofundador da Apple, Steve Wozniak, e o CEO da Stability AI, Emad Mostaque, entre outros signatários, argumentaram que essa pausa imediata deveria ser pública, verificável e incluir todos os atores públicos.
Comentar