This is the Trace Id: 6942892fb340805d05e94af6ea0ec029

Guia da Microsoft para proteger uma empresa assistida por IA: Guia de Introdução

Mulher usando uma tela sensível ao toque.

Guia de introdução sobre aplicativos de IA

A inteligência artificial (IA) está transformando as operações das empresas, impulsionando a inovação e, ao mesmo tempo, trazendo novos riscos. Desde o uso de shadow AI (IA sombra), como ferramentas voltadas ao consumidor sem supervisão, até ataques por injeção de prompt e regulamentações em evolução, como a Lei de IA da UE, as organizações precisam enfrentar esses desafios para usar a IA com segurança.

Este guia aborda os riscos associados à IA: vazamento de dados, ameaças emergentes e desafios de conformidade, além dos riscos específicos da IA com agentes autônomos. Também oferece orientações e etapas práticas com base no Framework de Adoção de IA. Para insights mais aprofundados e etapas práticas, baixe o guia.

A IA é um divisor de águas, mas só se for segura. Vamos começar.

À medida que as organizações adotam a IA, os líderes precisam lidar com três desafios principais:
  • 80% dos líderes citam o vazamento de dados como uma das maiores preocupações. 1 Ferramentas de shadow AI, usadas sem aprovação da equipe de TI, podem expor informações confidenciais e aumentar o risco de violações.
  • 88% das organizações se preocupam com a manipulação de sistemas de IA por agentes mal-intencionados. 2 Ataques como injeção de prompt exploram vulnerabilidades em sistemas de IA, destacando a necessidade de defesas proativas.
  • 52% dos líderes admitem incerteza sobre como lidar com as regulamentações de IA. 3 Manter conformidade com estruturas de política como a Lei de IA da UE é essencial para gerar confiança e manter o ritmo da inovação.

A IA com agentes autônomos tem um potencial transformador, mas sua autonomia traz desafios únicos de segurança que exigem um gerenciamento ativo e cuidadoso dos riscos. Confira abaixo os principais riscos e as estratégias criadas para lidar com cada um deles:

Alucinações e resultados não intencionais

Sistemas de IA com agentes autônomos podem gerar resultados imprecisos, desatualizados ou fora de contexto, o que pode impactar as operações e levar a decisões equivocadas.

Para reduzir esses riscos, as organizações devem implementar processos rigorosos de monitoramento para revisar se os resultados gerados por IA são precisos e relevantes. Atualizar regularmente os dados de treinamento garante o alinhamento com as informações mais recentes, enquanto caminhos de escalonamento para casos complexos permitem a intervenção humana quando necessário. A supervisão humana continua sendo fundamental para manter a confiabilidade e a confiança em operações baseadas em IA.

Excesso de confiança em decisões de IA

Confiar cegamente em sistemas de IA com agentes autônomos pode gerar vulnerabilidades quando usuários agem com base em resultados incorretos e sem validação.

As organizações devem estabelecer políticas que exijam revisão humana para decisões críticas influenciadas por IA. Treinar os funcionários para entender as limitações da IA estimula um ceticismo saudável e ajuda a reduzir a chance de erros. Combinar os insights da IA com o julgamento humano, por meio de processos de decisão em etapas, aumenta a resiliência e evita uma dependência excessiva.

Novos vetores de ataque

A autonomia e adaptabilidade da IA com agentes autônomos abrem espaço para que invasores explorem vulnerabilidades, gerando riscos operacionais e sistêmicos.

Riscos operacionais envolvem a manipulação de sistemas de IA para realizar ações maliciosas, como tarefas não autorizadas ou tentativas de phishing. As organizações podem mitigar esses riscos com medidas de segurança robustas, como detecção de anomalias em tempo real, criptografia e controles de acesso rigorosos.
Riscos sistêmicos surgem quando agentes comprometidos impactam sistemas interconectados, provocando falhas em cadeia. Mecanismos de segurança, protocolos de redundância e auditorias frequentes, alinhados a estruturas de política de segurança cibernética como o NIST, ajudam a reduzir essas ameaças e reforçar a proteção contra ataques adversariais.

Responsabilidade e obrigações legais

IA com agentes autônomos costuma operar sem supervisão humana direta, o que levanta dúvidas importantes sobre responsabilidade de obrigações legais por erros ou falhas.

As organizações devem estabelecer estruturas de política claras de responsabilidade, definindo funções e atribuições para os resultados relacionados à IA. Manter uma documentação transparente sobre como as decisões da IA são tomadas facilita a identificação de erros e a atribuição de obrigações legais. Trabalhar em conjunto com equipes jurídicas garante a conformidade com as regulamentações, enquanto a adoção de padrões éticos para a governança da IA fortalece a confiança e reduz riscos à reputação.

Com as inovações recentes em IA, como os agentes, as organizações precisam estabelecer uma base sólida fundamentada nos princípios de Confiança Zero, ou seja, "nunca confie, sempre verifique". Essa abordagem garante que cada interação seja autenticada, autorizada e monitorada de forma contínua. Embora alcançar a Confiança Zero leve tempo, adotar uma estratégia por fases permite um progresso constante e reforça a confiança na integração segura da IA.

A estrutura de política para adoção de IA da Microsoft é estruturada em três fases principais: Governar a IA, gerenciar a IA e proteger a IA.

Ao abordar essas áreas, as organizações conseguem preparar o terreno para um uso responsável da IA, ao mesmo tempo em que reduzem riscos críticos.

Para ter sucesso, priorize as pessoas treinando os funcionários para reconhecer os riscos da IA e usar com segurança as ferramentas aprovadas. Incentive a colaboração entre as equipes de TI, segurança e negócios para garantir uma abordagem unificada. Promova a transparência comunicando abertamente suas iniciativas de segurança em IA, fortalecendo a confiança e demonstrando liderança.

Com a estratégia certa, fundamentada nos princípios de Confiança Zero, você pode mitigar riscos, impulsionar a inovação e avançar com segurança em um cenário de IA que está sempre mudando.

Mais sobre Segurança

Como lidar com as ameaças cibernéticas e fortalecer as defesas na era da IA

Os avanços na inteligência artificial (IA) apresentam novas ameaças e também oportunidades para a segurança cibernética. Descubra como os agentes de ameaças usam a IA para realizar ataques mais sofisticados, depois analise as melhores práticas que ajudam a proteger contra ameaças cibernéticas tradicionais e habilitadas para IA.

CISO com tecnologia de IA: Possibilitando uma melhor estratégia com insights de inteligência contra ameaças cibernéticas

Três benefícios principais aguardam os CISOs que adotam a IA generativa na área de segurança: insights aprimorados de inteligência contra ameaças cibernéticas, respostas a ameaças mais rápidas e apoio na tomada de decisões estratégicas. Aprenda com três exemplos de cenários e descubra por que 85% dos CISOs consideram a IA crucial para a área de segurança.

Relatório de Defesa Digital da Microsoft de 2024

A edição de 2024 do Relatório de Defesa Digital da Microsoft analisa a evolução das ameaças cibernéticas, provenientes de grupos de ameaças de estados-nação e criminosos cibernéticos. O relatório oferece novos insights e orientações para aumentar a resiliência e fortalecer as defesas, além de explorar o impacto crescente da IA generativa na segurança cibernética

Siga a Segurança da Microsoft