Nos últimos meses, o Google Threat Intelligence Group (GTIG) identificou que atores maliciosos têm utilizado a inteligência artificial para coletar informações, elaborar fraudes de phishing extremamente realistas e criar malware. Embora não tenhamos registrado ataques diretos a modelos de ponta ou produtos de IA generativa por parte de atores de ameaças persistentes avançadas (APT), temos observado e mitigado frequentes ataques de extração de modelos, uma forma de espionagem corporativa, provenientes de entidades do setor privado em todo o mundo. Esse é um risco que outras empresas com modelos de IA provavelmente enfrentarão em breve.
Hoje, divulgamos um relatório que detalha essas observações e as ações que tomamos, incluindo a desativação de contas associadas para interromper atividades maliciosas. Também fortalecemos nossos controles de segurança e os modelos Gemini contra abusos.
Leia o relatório completo no blog de Inteligência de Ameaças do Google Cloud.



