DNA (imagem ilustrativa) - Sputnik Brasil, 1920
Ciência e sociedade
As principais notícias, reportagens e artigos sobre sociedade e avanços científicos.

Autoridades britânicas dizem que chatbots de IA podem trazer riscos cibernéticos, diz mídia

CC0 / Unsplash / Inteligência artificial (imagem de referência)
Inteligência artificial (imagem de referência) - Sputnik Brasil, 1920, 31.08.2023
Nos siga no
As autoridades britânicas estão alertando organizações sobre a integração de chatbots baseados em inteligência artificial aos seus negócios. Segundo o Centro Nacional de Segurança Cibernética do Reino Unido, pesquisas têm demonstrado que os sistemas podem ser induzidos a realizar tarefas danosas.
Em duas postagens publicadas na quarta-feira (30), o Centro Nacional de Segurança Cibernética do Reino Unido (NCSC, na sigla em inglês) afirmou que os especialistas ainda não haviam se familiarizado com os possíveis problemas de segurança ligados a algoritmos que podem gerar interações que parecem humanas através de grandes modelos de linguagem (LLM, na sigla em inglês).
De acordo com a Reuters, as ferramentas alimentadas por inteligência artificial (IA) como chatbots, estão sendo usadas precocemente, substituindo pesquisas on-line e o trabalho de atendimento ao cliente no setor de vendas.
Para o NCSC, a prática poderia trazer riscos, especialmente se os modelos fossem conectados a outros elementos de negócios da organização. O NCSC se baseou em pesquisas acadêmicas que demonstraram maneiras de subverter os chatbots através de linhas de comando desonestas ou enganando-os para que contornassem suas próprias barreiras de proteção integradas.
Um hacker conseguiria induzir um chatbot com tecnologia de IA implantado por um banco, por exemplo, a fazer uma transação não autorizada.
"As organizações que criam serviços que usam LLMs precisam ter cuidado, da mesma forma que teriam se estivessem usando um produto ou uma biblioteca de códigos que estivesse em [versão] beta", disse o NCSC em uma postagem de seu blog, referindo-se a lançamentos de software experimental.
De acordo com a organização, este tipo de recurso tecnológico não deveria ser envolvido na realização de transações em nome de clientes porque ainda seria difícil confiar nele integralmente, um cuidado que também deve ser aplicado aos LLMs.
Inteligência artificial (imagem referencial) - Sputnik Brasil, 1920, 26.05.2023
Panorama internacional
Reino Unido testa uso militar de inteligência artificial com os EUA e a Austrália
Autoridades de todo o mundo estão lutando com a ascensão de recursos de IA como o ChatGPT da OpenAI, que as empresas estão tentando incorporar em uma vasta gama de serviços, incluindo vendas e atendimento ao cliente. De acordo com autoridades dos EUA e do Canadá, as implicações de segurança da IA precisam ser levadas em conta na medida em que hackers podem adotar o uso das ferramentas.
Uma pesquisa recente da Reuters/Ipsos descobriu que muitos funcionários corporativos estavam usando ferramentas como o ChatGPT para ajudar em tarefas básicas, como redigir e-mails, resumir documentos e fazer pesquisas preliminares.
Segundo a pesquisa, cerca de 10% dos entrevistados disseram que os seus chefes proibiram explicitamente ferramentas externas de IA, enquanto um quarto não sabia se a sua empresa permitia o uso da tecnologia.
Feed de notícias
0
Para participar da discussão
inicie sessão ou cadastre-se
loader
Bate-papos
Заголовок открываемого материала