Ciência e sociedade

IA pode 'se tornar stalker' e 'marcar vítimas' usando reconhecimento facial, alertam especialistas

Em meio a crescentes preocupações sobre os recentes avanços da tecnologia de inteligência artificial (IA), o engenheiro de software e fundador da DeepAI, Kevin Baragona, foi um dos que se juntou a nomes como Elon Musk e o cofundador da Apple, Steve Wozniak, ao assinar carta aberta que pede uma pausa no desenvolvimento da IA.
Sputnik
A IA pode usar a tecnologia de reconhecimento facial para fins sinistros, como "perseguir" pessoas, alerta Kevin Baragona, fundador da DeepAI.
Bastaria uma foto e o software avançado de IA atualmente existente, garante Baragona.
"Existem serviços on-line que podem usar uma foto sua [...] e eu posso encontrar tudo [...] cada instância de seu rosto na Internet, cada lugar que você esteve, e usar isso para propósitos do tipo stalker", disse o CEO da plataforma on-line que usa algoritmos de aprendizado profundo para gerar obras de arte.
Baragona, que lançou o DeepAI em 2016 como um portal de notícias de IA, testemunhou sua criação evoluir para uma plataforma de aprendizado profundo completa com chatbots de IA e um gerador de arte de IA de conversão de texto em imagem. No entanto, desde então ele tem sido um crítico vocal da corrida desenfreada da IA e garante que "alguém deveria parar a indústria da IA".
"[...] Se você encontrar alguém em público e conseguir tirar uma foto dessa pessoa, poderá encontrar o nome dessa pessoa usando serviços on-line. E, se pagar o suficiente, poderá descobrir onde ela está, esteve, onde pode estar atualmente e até prever para onde irá", continuou Kevin Baragona.
De acordo com Baragona, uma das ameaças que devem ser abordadas é a possibilidade de o governo dos Estados Unidos e a aplicação da lei usarem a IA "em segredo". Os temores de que a tecnologia possa oferecer acesso às atividades on-line das pessoas e ao paradeiro na vida real ecoam um alerta recente feito por C.A. Goldberg, um escritório de advocacia norte-americano.
"A IA pode permitir que os infratores rastreiem e monitorem suas vítimas com maior facilidade e precisão do que nunca", escreveu a empresa com sede em Nova York especializada em crimes relacionados à IA em um post de blog em seu site.
Goldberg acrescentou que a tecnologia avançada de reconhecimento facial é extremamente eficaz na identificação de indivíduos a partir de imagens ou vídeos. Mesmo no caso de imagens de baixa qualidade, como as obtidas de câmeras de vigilância ou outras fontes on-line, pode permitir que possíveis stalkers rastreiem as vítimas.
Ciência e sociedade
Coreia do Sul desenvolve alternativa em IA baseada no GPT para concorrer com Google e Microsoft
Os avisos sobre o software de reconhecimento facial com inteligência artificial vêm quando uma empresa chamada PimEyes no Reino Unido enfrenta uma disputa legal. Seu mecanismo de busca de rostos on-line é feito sob medida para vasculhar a Internet em busca de sites com base em fotos enviadas pelos usuários. Embora a empresa insista que os "riscos de abuso dos serviços da PimEyes sejam reduzidos ao mínimo possível" e que os bancos de dados sejam "protegidos de acordo com os mais altos padrões de segurança de dados", alguns atores políticos não estão convencidos.
O grupo de campanha de liberdades civis do Reino Unido, Big Brother Watch, disse que representa uma "grande ameaça à privacidade de milhões de residentes no Reino Unido", de acordo com uma queixa legal.
"As imagens de qualquer pessoa, incluindo crianças, podem ser vasculhadas e rastreadas na Internet", disse Madeleine Stone, oficial jurídica e política de campanha da organização.
Em uma declaração de resposta, PimEyes destacou que "nunca foi e não é uma ferramenta para estabelecer a identidade ou detalhes de qualquer indivíduo".
Ciência e sociedade
Acadêmico defende maior controle sobre a IA, temendo que pode eliminar a humanidade
Mas esta é apenas uma das muitas preocupações que se transformaram de um pingo em um poderoso coro de vozes discutindo os perigos da IA se desenvolver muito rápido e se tornar "mais inteligente" do que os humanos.
No início do ano, Baragona, como o CEO da Tesla e da SpaceX, Elon Musk, assinou uma carta aberta pedindo uma pausa de seis meses no desenvolvimento de sistemas de IA mais avançados que o GPT-4. De acordo com o documento, "sistemas de IA com inteligência competitiva humana podem representar riscos profundos para a sociedade e a humanidade, conforme demonstrado por extensa pesquisa e reconhecido pelos principais laboratórios de IA".
"Eu não estava nem um pouco preocupado com a IA até um ano atrás, quando começamos a ver um progresso exponencial. [...] Agora acho que a IA é bem assustadora. Isso é o que me mantém acordado à noite. O que estamos construindo aqui? Por que precisamos dessas coisas? É muito divertido, é legal, as pessoas adoram. Mas é quase bom demais, é muito perturbador", afirmou Kevin Baragona em uma entrevista no início do mês.
Comentar