Especialistas estão emitindo alertas sobre a partilha de dados pessoais com chatbots de Inteligência Artificial (IA), como o conhecido ChatGPT. Stan Kaminsky, um especialista em segurança da Kaspersky, destaca que até mesmo informações aparentemente inofensivas, como nome, endereço ou telefone, deveriam ser evitadas nessas plataformas. Mas, por que mesmo compartilhar o seu nome torna-se motivo de preocupação?
O desafio da privacidade em chatbots de IA
A preocupação central aqui não é que as informações fornecidas aos chatbots se tornem imediatamente públicas; o problema é a ausência de uma garantia sólida de que esses dados permanecerão privados indefinidamente.
VEJA TAMBÉM
Reflexão antes de consumir: alimentos que aumentam os riscos de câncer e diabetes
SAÚDE
Reflexão antes de consumir: alimentos que aumentam os riscos de câncer e diabetes
Não deixam você na mão (nem na estrada): 4 carros que detestam oficinas
AUTOMOBILÍSTICA
Não deixam você na mão (nem na estrada): 4 carros que detestam oficinas
Como calcular custos de envio e prazos de entrega para suas encomendas através dos Correios?
ECONOMIA
Como calcular custos de envio e prazos de entrega para suas encomendas através dos Correios?
Por exemplo, o ChatGPT da OpenAI retém conversas que, embora possam parecer privadas, podem ser usadas posteriormente para resolver problemas técnicos ou até mesmo treinar novas versões do software.
Potenciais riscos
Uma preocupação substancial é a possibilidade de vazamento de dados devido a falhas ou ataques cibernéticos. Um incidente reportado pelo site Ars Technica levantou suspeitas de que o ChatGPT poderia estar expondo conversas privadas de usuários. Embora a OpenAI tenha esclarecido que o evento foi, na verdade, um roubo de contas, o alerta sobre a segurança de nossos dados permanece.
Informações que parecem triviais, como seu nome e telefone, podem se transformar em ferramentas para golpistas. Por exemplo, um atendente de banco com acesso ao seu nome completo e número de telefone poderia facilitar crimes, aumentando significativamente os riscos de fraude.
Precauções com documentos
Outra recomendação é evitar enviar documentos por meio desses chatbots. Mesmo com plugins que permitem o processamento de documentos via IA, o risco de exposição de dados sensíveis é elevado. Documentos corporativos, informações sobre pagamentos de funcionários ou detalhes sobre lançamentos de produtos podem acabar indo parar em mãos erradas.
Dicas para um uso seguro
Quando for necessário utilizar um chatbot para tarefas que envolvam dados pessoais, uma prática sensata é modificar as informações específicas ou utilizar asteriscos em lugar dos dados reais. Essa medida simples pode contribuir para proteger suas informações contra possíveis usos indevidos.