A OpenAI anunciou recentemente que pode acessar conversas no ChatGPT em situações graves de risco à segurança. Essa medida visa permitir que a empresa acione a polícia em casos específicos, como ameaças de dano físico ou incentivo ao suicídio.
No contexto atual, a OpenAI destaca que, embora a privacidade seja um valor fundamental, a segurança do usuário pode justificar a revisão de conversas.
Em situações de risco iminente, como atividades ilegais ou mensagens relacionadas à automutilação, a empresa pode intervir. Esta abordagem gera preocupações sobre até onde deve ir a intervenção humana em sistemas automatizados.
Segurança x privacidade: Um tema delicado
A tensão entre segurança e privacidade é tema central nos debates sobre tecnologia. Chatbots como o ChatGPT oferecem benefícios, mas a possibilidade de quebra de privacidade levanta preocupações.
Se um usuário compartilha informações que indicam perigos, a OpenAI pode considerar essas informações críticas e decidir revisá-las com potencial repasse às autoridades competentes.
Chatbots terapêuticos e o risco de vigilância
O uso de chatbots cresce na área terapêutica, prometendo acessibilidade à saúde mental. Contudo, a questão da privacidade assume proporções significativas nesse cenário.
Informações pessoais, quando mal protegidas, correm o risco de serem manipuladas ou vigiadas. A falta de regulamentação efetiva pode transformar ferramentas de apoio em mecanismos de vigilância.
Essas ferramentas, que buscam oferecer suporte psicológico, enfrentam o risco de transformar informações íntimas em dados públicos. Sem regulamentações claras, a promessa de suporte pode se converter em vigilância disfarçada.
Como se proteger ao usar Inteligência Artificial?
Para minimizar riscos, os usuários devem estar cientes das consequências ao compartilhar dados com inteligências artificiais. É essencial evitar fornecer informações pessoais sensíveis e estar consciente das responsabilidades dos provedores de tecnologia.
Empresas de IA devem garantir que a privacidade seja respeitada, adotando medidas como criptografia de ponta a ponta. Atualmente, a OpenAI ainda está avaliando a extensão de suas intervenções.
A empresa também introduziu o “modo incógnito” no ChatGPT, visando melhorar a privacidade sem salvar históricos de conversas.