Possibilidade de vazamento de dados -

ChatGPT: 7 dados pessoais que você nunca deve revelar para inteligências artificiais

Com o avanço das inteligências artificiais (IAs), muitas pessoas passaram a utilizar ferramentas como o ChatGPT para facilitar atividades do cotidiano. Algumas até recorrem ao chatbot como se fosse um terapeuta. No entanto, é essencial estar atento aos tipos de informações que não devem ser compartilhadas com IAs.

Foto: reproduçãofoto

Em primeiro lugar, vale lembrar que a base de dados usada por essas tecnologias é controlada por empresas, e os sistemas de segurança nem sempre são totalmente infalíveis. Ou seja, existe a possibilidade de vazamento de dados.

Criminosos podem se aproveitar de informações pessoais vazadas para aplicar golpes financeiros ou até realizar empréstimos em nome de terceiros. Pensando nisso, foram reunidos sete tipos de dados que você deve evitar informar em conversas com inteligências artificiais. Veja a seguir:

Informações pessoais:
Evite informar nome completo, data de nascimento, número de documentos ou qualquer dado pessoal em interações com IAs ou desconhecidos na internet. Esses dados podem ser usados para fraudes. Até mesmo telefones e e-mails devem ser mantidos em sigilo, pois embora os chatbots não guardem essas informações intencionalmente, elas podem vazar.

Logins e senhas:
Jamais confie a uma IA os seus acessos a redes sociais ou sites. Essas credenciais devem ser memorizadas ou salvas em um gerenciador de senhas confiável. Também é fundamental não repassar senhas a pessoas em quem você não confia plenamente.

Informações do trabalho:
Dependendo do seu setor, dados corporativos podem ser sigilosos. Nunca compartilhe informações internas da empresa com IAs. Propriedade intelectual e dados confidenciais devem ser tratados apenas entre os envolvidos. Em 2023, por exemplo, um funcionário da Samsung foi demitido após expor dados sigilosos da empresa ao ChatGPT.

Dados bancários:
Arquivos ou textos com informações financeiras, como números de cartão de crédito ou contas bancárias, não devem ser inseridos em ferramentas de IA. Essas informações são alvo frequente de crimes digitais e precisam ser protegidas com cuidado.

Pensamentos e emoções:
Apesar de existirem IAs projetadas para interações afetivas, especialistas alertam sobre os riscos de tratar esses sistemas como psicólogos. "Se você estiver passando por dificuldades emocionais, busque apoio com amigos e familiares ou entre em contato com o Centro de Valorização da Vida (CVV) pelo número 188." Uma IA pode interpretar de forma errada seus sentimentos e oferecer respostas perigosas.

Informações médicas:
IAs não substituem médicos. Evite enviar resultados de exames ou sintomas na tentativa de obter diagnóstico. Além de representar risco à sua saúde, isso pode violar a Lei Geral de Proteção de Dados (LGPD). Somente profissionais da saúde são capacitados para interpretar dados clínicos com responsabilidade.

Atividades ilegais ou inapropriadas:
Este é o alerta mais evidente. Chatbots como o ChatGPT não respondem a perguntas que envolvam práticas ilegais ou antiéticas. Além disso, conteúdos inadequados podem ser registrados e gerar denúncias ou consequências legais. "O ChatGPT não foi desenvolvido para responder perguntas relacionadas a atividades ilegais."

Instagram

Comentários

Trabalhe Conosco