Vulnerabilidade no ChatGPT pode permitir a extração de dados sigilosos

Pesquisadores de segurança cibernética demonstraram ser possível extrair dados sigilosos de usuários do ChatGPT ao explorar uma vulnerabilidade nos conectores da OpenAI que permitem integrar a IA a serviços como Gmail, Outlook e Dropbox, entre outros. Detalhes do hack foram divulgados nessa quarta-feira (6).

Em uma simulação apresentada durante a conferência Black Hat realizada em Las Vegas (Estados Unidos), os especialistas Michael Bargury e Tamir Ishay Sharbat conseguiram extrair informações confidenciais de uma conta no Google Drive aproveitando o bug em questão. Para tanto, eles usaram um ataque de injeção de prompt.

Como funciona o ataque?

O método envolve o compartilhamento de um documento aparentemente inofensivo com a conta no Google Drive da vítima. Dentro dele, há um código malicioso oculto que será acionado ao abrir o arquivo, contendo as instruções para que o ChatGPT faça a busca pelos dados sensíveis.

Escrito na cor branca e em fonte de tamanho 1, o prompt com 300 palavras passa despercebido ao olho humano, mas a máquina irá identificá-lo facilmente;Quando a vítima pede a IA para fazer um resumo do documento, o bot recebe as orientações maliciosas, que incluem a pesquisa por chaves API no Google Drive e a anexação delas a uma URL citada no final do texto oculto;A URL contém comandos na linguagem Markdown para se conectar a um servidor externo, extrair a imagem dos dados coletados e armazená-la;Embora a técnica possibilite a extração de uma quantidade limitada de informações por vez e não consiga remover documentos completos, ainda representa riscos, segundo os responsáveis pela descoberta.

“Não há nada que o usuário precise fazer para ser comprometido e não há nada que o usuário precise fazer para que os dados saiam. Mostramos que isso é completamente zero-clique. Só precisamos do seu email, compartilhamos o documento com você e pronto. Então, sim, isso é muito, muito ruim”, alertou Bargury, em entrevista à Wired.

Como destaca a reportagem, a extração de dados do ChatGPT usando Markdown e prompts maliciosos já foi demonstrada por outros pesquisadores. Em um dos casos, os especialistas conseguiram driblar o recurso de segurança do bot que detectava se a URL era maliciosa, recebendo as chaves API da vítima.

A vulnerabilidade nos conectores do ChatGPT só foi explorada durante experimentos, até o momento. (Imagem: Getty Images)

Quais são as implicações?

De acordo com os pesquisadores, conectar IA a fontes de dados externas permite aproveitar as capacidades da tecnologia para muito mais tarefas. No entanto, os benefícios chegam junto com vários riscos, com a possibilidade de cibercriminosos explorarem falhas como esta para o roubo de informações sensíveis.

A descoberta também mostra como os modelos de linguagem estão cada vez mais suscetíveis aos ataques de injeção indireta de prompts, com a utilização de instruções maliciosas ocultas em documentos supostamente legítimos. Dessa forma, as empresas devem investir em filtros mais robustos e aprimorar o monitoramento da entrada de dados em seus sistemas.

Segundo Bargury, a OpenAI foi informada sobre a vulnerabilidade nos conectores do ChatGPT, no início do ano, e realizou ajustes para mitigar riscos, evitando que a técnica seja utilizada para a extração de dados como demonstrado no exemplo deste caso. A desenvolvedora não se pronunciou sobre o assunto.

Lançado no início deste ano, o recurso de conexão permite vincular a IA a mais de 15 serviços, dependendo da modalidade da conta. Por meio da ferramenta, o bot acessa as informações armazenadas nessas plataformas, conforme as permissões dadas pelo usuário.

Curtiu o conteúdo? Continue acompanhando as notícias mais recentes no TecMundo e interaja com a gente nas redes sociais.