
05 ago Conversas no ChatGPT não têm sigilo, alerta Sam Altman
A prática de usar o ChatGPT como uma espécie de terapeuta tem crescido exponencialmente, especialmente entre os jovens. Contudo, essa tendência levanta uma séria questão sobre privacidade, conforme alertado por ninguém menos que Sam Altman, CEO da OpenAI.
Em uma recente entrevista, Altman foi direto ao ponto: não há confidencialidade legal nas conversas com a inteligência artificial, diferentemente do sigilo garantido entre pacientes e médicos, terapeutas ou advogados. Essa revelação choca milhões de usuários que compartilham seus problemas mais íntimos com a ferramenta, acreditando em um anonimato que, na prática, não existe.
Altman explicou que, na falta de um arcabouço legal específico para a IA, a OpenAI pode ser legalmente obrigada a fornecer o histórico de conversas dos usuários em casos de processos judiciais. Ele reconheceu a situação como “muito complicada” e defendeu a criação de uma regulamentação que garanta o mesmo nível de privacidade que existe em outras relações profissionais.
Privacidade na era das IAs
A falta de sigilo é um obstáculo para a adoção mais ampla da tecnologia, e Altman admitiu a preocupação de muitos usuários, como o próprio apresentador do podcast, Theo Von, que expressou reservas em usar o ChatGPT por questões de privacidade.
A discussão sobre a privacidade de dados na era da IA se intensifica. A própria OpenAI já está em uma batalha judicial com o jornal The New York Times para evitar uma ordem que a obrigaria a salvar os chats de milhões de usuários globalmente, com exceção dos clientes do ChatGPT Enterprise.
A empresa argumenta que a medida seria um “excesso” e abriria um precedente perigoso para demandas de descoberta legal e requisições de autoridades, que já são uma realidade para as grandes empresas de tecnologia, que são regularmente obrigadas a entregar dados de seus usuários em investigações criminais.
Entenda: ChatGPT remove recurso que mostrava conversas privadas no Google
A preocupação com a privacidade de dados digitais ganhou destaque em anos recentes, com discussões sobre o acesso a informações sensíveis. Um exemplo notório foi a decisão da Suprema Corte americana que derrubou a proteção legal ao aborto, levando mulheres a migrarem para aplicativos de monitoramento de ciclo menstrual mais seguros, com criptografia de dados, como o Apple Health.
Conversas usadas como apoio emocional, não são legalmente confidenciais, afirma CEO da OpenIA. (Imagem: Reprodução)
Esse tipo de movimento mostra que, quando a confidencialidade de dados pessoais é ameaçada, os usuários buscam alternativas mais seguras, e o mesmo pode acontecer com as plataformas de IA se a falta de sigilo não for resolvida.
Falta de sigilo: Sam Altman, CEO da OpenAI, alertou que conversas com o ChatGPT não são legalmente confidenciais, ao contrário do que acontece com médicos e terapeutas.Risco legal: A OpenAI pode ser legalmente forçada a entregar históricos de conversas dos usuários em casos de processos judiciais, o que levanta preocupações sobre privacidade.Batalha judicial e regulatória: A empresa já está lutando contra uma ordem judicial para não salvar os chats de milhões de usuários e Altman defende a criação de leis que garantam privacidade para a IA.
Diante do cenário, a mensagem de Sam Altman é clara: enquanto a tecnologia de IA avança, a responsabilidade legal e ética sobre a privacidade do usuário continua atrasada. A falta de regulamentação para o sigilo em conversas com inteligência artificial é uma falha que, além de comprometer a segurança dos dados, pode minar a confiança dos usuários.