Os riscos da IA generativa estão realmente afetando a segurança?

Por Cláudio Banwwart, country manager Brasil da Netskope

Os aplicativos de IA generativa (genAI) têm sido um tema muito discutido, tanto em termos de sua promessa de transformar os negócios quanto de seus possíveis riscos. Sempre que surge uma nova ferramenta, tanto os impactos positivos quanto os negativos podem ser superestimados, e isso definitivamente está acontecendo.

No entanto, a genAI é realmente algo que requer mudanças na sua postura de segurança?

Leia mais:

  • Quais os principais riscos na internet em 2024? Hackers respondem
  • Qual a diferença entre Deep Web e Dark Web?
  • 8 dicas práticas e simples para melhorar a sua segurança online

Antes de me aprofundar nos riscos da genAI, vamos analisar alguns pontos relacionados aos storage buckets de SaaS, onde são armazenados os dados de software como serviço (SaaS). Os buckets são fechados por padrão; o assinante desse serviço mantém o controle sobre quem acessa o conteúdo.

Portanto, os que estão com vazamento são resultado de um problema no gerenciamento de acesso; não é uma falha do provedor. Uma maneira de atenuar esses problemas é com procedimentos que controlam o acesso e as atividades nos consoles que provisionam e gerenciam os buckets. A outra maneira é com ferramentas de gerenciamento de postura, que ajudam a encontrá-los abertos e a reforçar as políticas de acesso.

Ilustração de silhueta de pessoa com chip no lugar do cérebro para representar conceito de inteligência artificial
(Imagem: Pedro Spadoni via DALL-E/Olhar Digital)

Os aplicativos da genAI são vulneráveis por design

Agora, vamos comparar os buckets com a genAI. A maioria dos usuários da genAI trabalha com aplicativos voltados para o público (por exemplo, ChatGPT e DALL-E). Esses aplicativos são softwares como serviço (SaaS), que podem ser liberados ou não para uso na sua empresa. No momento, para a maioria das empresas, os aplicativos genAI não são aprovados, embora muitas pessoas os utilizem de qualquer forma.

Ao contrário dos compartimentos que são fechados por padrão, os aplicativos genAI são abertos por padrão. Os prompts que as pessoas fornecem e as respostas que recebem são todos públicos, e o modelo retém um histórico dessas informações para fins de treinamento. Tudo o que é obtido em uma interação pode aparecer em interações subsequentes com outras pessoas.

Esse aspecto aberto torna a genAI arriscada para informações confidenciais. É da natureza da genAI vazar, o que significa que o uso de serviços públicos dá aos provedores permissão para compartilhar suas informações com terceiros.

Ao contrário dos buckets, em que os assinantes mantêm o controle, os assinantes dos aplicativos genAI não têm quase nenhum controle. Embora você possa desativar o histórico da sua conta, os provedores ainda armazenam e processam dados por algum tempo. As informações confidenciais carregadas ainda ficam expostas fora da empresa, o que não é uma boa ideia, principalmente para setores altamente regulamentados.

inteligencia-artificial
Imagem: shutterstock/jittawit21

Mitigando os riscos de saída de dados confidenciais

Alguns produtos de segurança dedicados à genAI estão no mercado, mas eles duplicam a funcionalidade que você provavelmente já possui.

Os produtos autônomos de prevenção contra perda de dados (DLP) projetados apenas para aplicativos genAI fazem basicamente apenas uma coisa, além de adicionar custo e complexidade à configuração e ao gerenciamento, e não se integrarão a uma estratégia abrangente de proteção de dados.

Ele repete toda a sua estrutura de política de DLP, tentando espelhar suas políticas de DLP de SaaS de uso geral no mecanismo de DLP da genAI. Com o passar do tempo, essas políticas se desviarão. Ou seja, o produto de DLP de uso geral que você já usa é suficiente.

Outro tipo de ferramenta potencialmente útil para a segurança da genAI são os rastreadores de dados. Eles permitem que você rastreie para onde os arquivos vão e quem os está usando. No entanto, não faz sentido comprar mais um produto pontual em mais um mercado quando a maioria dos fornecedores de security service edge (SSE) já inclui algum tipo de funcionalidade de análise que oferece o mesmo recurso.

inteligência artifical hollywood
Imagem: Login / Shutterstock.com

Como você pode reduzir os riscos de informações confidenciais aparecerem em aplicativos públicos de genAI? Essas três técnicas são fundamentais (e podem soar familiares):

  • Controle o acesso aos dados que as pessoas fornecem aos aplicativos genAI. O princípio do menor privilégio se aplica aqui; as empresas devem sempre controlar o acesso a informações confidenciais. Se uma função comercial não exigir esse acesso, não o forneça. Sem acesso, uma pessoa não pode carregá-las por engano ou de forma maliciosa — na genAI ou em qualquer outro lugar.
  • Controle o acesso e as permissões do aplicativo genAI. Da mesma forma, as empresas devem sempre bloquear o acesso aos aplicativos genAI e restringir adequadamente o que é permitido dentro deles. O ideal é aplicar controles de acesso a todos os aplicativos SaaS (inclusive genAI) e a todas as atividades neles realizadas. Todos os SSEs baseados em proxy podem bloquear o acesso, enquanto apenas alguns podem restringir as atividades.
  • Ganhe visibilidade com o DLP inline. A capacidade de interceptar dados confidenciais no caminho de saída é crucial. Se o acesso e a atividade de uma pessoa são permitidos, mas os dados específicos em si não devem ser expostos publicamente à genAI, o DLP inline pode atenuar o risco, o que a maioria dos produtos SSE oferece.
  • A DLP inline observa todas as tentativas de movimentação de informações confidenciais em tempo real e, em seguida, se interpõe. Ele pode oferecer uma mensagem de orientação ou simplesmente remover as informações confidenciais antes de entregar o restante.
Chip de inteligência artificial
Chip de inteligência artificial – iStock

E quanto às ameaças de entrada?

Os atacantes estão bastante interessados em comprometer os aplicativos genAI. Um risco muito real é entregar cargas maliciosas de volta à empresa. Um prompt manipulado por um agente mal-intencionado pode preencher os modelos de genAI com sites falsos que contêm malware, por exemplo.

Imagine que alguém de sua empresa faça uma solicitação pedindo recomendações de viagens. Se a resposta do genAI agregar sugestões de viagens benignas com conteúdo malicioso dos sites impostores, um invasor terá contornado o aplicativo e qualquer segurança que sua organização tenha imposto no lado de saída.

O comprometimento das respostas da genAI são um problema muito maior a ser considerado. Espero que os provedores estejam atentos a esses riscos e desenvolvam seus serviços de forma a resistir a esse tipo de abuso.

Ilustração de robô humanoide interagindo com diversas formas de conteúdo em holograma para representar conceito de inteligência artificial
(Imagem: Pedro Spadoni via DALL-E/Olhar Digital)

Amplie as práticas recomendadas de segurança existentes para abranger a genAI

Os aplicativos de genAI são novidades atraentes com alguns riscos inerentes, mas isso não significa que você precise de ferramentas de segurança totalmente novas para proteger sua empresa. Uma coisa nova e brilhante não requer uma resposta nova e brilhante.

Os líderes de segurança podem reduzir a exposição ao risco da genAI empregando as mesmas técnicas, ferramentas e conhecimentos que já possuem. Controle o acesso a dados confidenciais. Controle o acesso aos aplicativos genAI e as atividades dentro deles. Use controles inline baseados em políticas para garantir que mesmo os usuários aprovados não possam fazer upload de algo confidencial por engano.

A genAI parece ter vindo para ficar, pois continua a ganhar popularidade e todos nós nos tornamos mais proficientes em seu uso. Como acontece com qualquer nova ferramenta projetada para aumentar a eficiência, devemos adotá-la. No entanto, devemos adotá-la usando o mesmo bom senso que aplicamos ao uso de qualquer nova ferramenta para garantir que estamos mantendo os dados confidenciais seguros.

O post Os riscos da IA generativa estão realmente afetando a segurança? apareceu primeiro em Olhar Digital.

Fique por dentro das mais quentes noticias do momento , se inscreva no nosso jornal de notícias.

0 0 votes
Article Rating
Subscribe
Notify of
guest
0 Comentários
Inline Feedbacks
View all comments
plugins premium WordPress
0
Would love your thoughts, please comment.x