Enquanto algumas pessoas utilizam o ChatGPT apenas como uma ferramenta, outras passaram a enxergar a famosa criação da OpenAI como um amigo ou até mesmo um terapeuta.
Por conta disso, o número de usuários que decidem compartilhar desabafos e pedir conselhos ao chatbot vem aumentado cada vez mais, o que pode ser extremamente perigoso.
Em declarações recentes, o CEO da OpenAI, Sam Altman, ressaltou que, apesar do ChatGPT proporcionar interações privadas, ele não conta com a mesma proteção legal presente em relações entre médicos ou psicólogos e seus pacientes, por exemplo.
Logo, caso haja necessidade, a empresa pode ser obrigada a divulgar as interações compartilhadas entre o usuário e a ferramenta em processos ou investigações que as solicitem.
Embora cada país adote suas políticas individuais de proteção de dados, poucos possuem leis específicas que garantam o sigilo das conversas realizadas com inteligência artificial, o que pode fragilizar a confiança dos usuários.
Riscos do uso do ChatGPT como terapia
A quebra de sigilo por questões judiciais está longe de ser o único problema envolvendo o compartilhamento de informações profundamente pessoais com o ChatGPT. Afinal, mesmo com toda a segurança, a ferramenta não está totalmente imune a golpes.
Logo, criminosos virtuais podem se aproveitar de vazamentos de dados para aplicar golpes em usuários, tendo como base tudo o que foi compartilhado durante as interações.
Além disso, embora o ChatGPT seja capaz de oferecer respostas empáticas, ele não pode substituir um profissional, uma vez que ele pode ser moldado pelo usuário.
Por conta disso, a IA tende a fornecer apenas respostas que agradam ao usuário, ao invés de oferecer o que ele realmente necessita. E isso se soma a já citada falta de sigilo.
Portanto, é evidente que é necessário estabelecer limites na utilização do ChatGPT, lembrando sempre que se trata de uma ferramenta de inteligência artificial generativa, e não um profissional médico qualificado.