Em pesquisa de segurança recente sobre o Google Bard e uma análise comparativa em relação ao ChatGPT, os especialistas da Check Point Software Technologies Ltd. descobriram que o Bard não impõe quase nenhumas restrições à criação de e-mails de phishing e que, à mínima manipulação, pode ser utilizado para desenvolver keyloggers maliciosos.
As ferramentas de inteligência artificial (IA) generativas, como ChatGPT e Google Bard, ganharam rápida popularidade em todo o mundo. Essas ferramentas permitem que seus usuários aumentem a eficiência e a produtividade em suas tarefas e responsabilidades diárias.
“No entanto, tais capacidades podem ser mal utilizadas. Logo após terem sido introduzidas, as tais ferramentas foram usadas para criar malwares, muitos dos quais apareceram nas lojas oficiais de aplicativos. A IA generativa foi usada para criar e-mails e mensagens para campanhas de phishing alimentadas por IA e, até mesmo, um vídeo gerado por IA no YouTube que foi considerado malicioso”, alerta Fernando de Falchi, gerente de Engenharia de Segurança da Check Point Software Brasil.
Agora, o que os especialistas da Check Point Software chamam a atenção são as ameaças relacionadas especificamente ao cenário de ameaças móveis. Os aplicativos que imitam sites e recursos populares de IA (ChatGPT e Google Bard) buscam roubar informações confidenciais e há aqueles apps que usam serviços da Web, se comportando como proxies para sites e recursos populares de IA, aproveitando sua posição como um “Man in The Middle”, também para roubar informações em tempo real.
Por esses motivos, algumas organizações decidiram proibir o uso de ferramentas de IA em dispositivos ou redes corporativas. Os especialistas verificaram que outras empresas, aquelas que permitem o acesso de funcionários a ferramentas de IA generativas, acabaram sendo vítimas de vazamento de dados confidenciais.
Portanto, até que medidas adequadas estejam disponíveis para proteger dados confidenciais contra vazamentos e roubo de informações internas, as organizações devem ter cuidado extra em suas políticas de segurança. E os dispositivos móveis não são exceção.
“Na verdade, é mais provável que os usuários móveis baixem um aplicativo malicioso ou sejam vítimas de tentativas de phishing. Telas menores de dispositivos móveis, grandes quantidades de aplicativos e notificações podem distrair os usuários, tornando mais difícil para eles evitarem clicar em links maliciosos ou baixar arquivos maliciosos. Para muitos de nós, as redes sociais são os aplicativos mais usados em nosso dispositivo móvel, o que significa que os usuários móveis estão mais expostos a engenharia social e phishing”, explica Falchi.
Além disso, as linhas tênues entre o uso pessoal e profissional de dispositivos móveis os tornam um ponto de entrada principal em uma organização, portanto, a proteção contra ameaças de IA deve ser uma prioridade.
Fonte:
https://tiinside.com.br/02/08/2023/ia-generativa-facilita-quebra-de-seguranca-em-dispositivos-moveis/