Dentro de sua política interna sobre emprego de tecnologias de Inteligência Artificial (IA), o escritório Lee, Brock, Camargo Advogados (LBCA) restringiu o uso de IAs externas, caso do ChatGPT, por parte de seus profissionais.
"A restrição decorre da desconfiança sobre possíveis práticas de manipulação de dados em plataformas de IA e que, em tese, poderiam comprometer o código proprietário dos sistemas desenvolvidos pela LBCA e outros dados confidenciais sob cuidados da banca", explica o sócio-head, Solano de Camargo.
O comitê de Governança de Dados e Segurança da Informação da LBCA mostrou preocupação específica com a forma como serviços de IA, baseados em chatbots, armazenam os dados que são compartilhados em seus servidores.
Outro risco apontado decorre do fato de que a maioria dos chatbots e serviços de IA dependem de informações prestadas pelo usuário para treinar seus modelos, que podem acidentalmente inserir dados confidenciais ou de terceiros, sem perceber a gravidade da situação.
Na avaliação do Comitê da LBCA, alguns serviços de IA, como o ChatGPT, permitem que se desative o salvamento do histórico do chat, porém, não está claro se a exclusão de um bate-papo terá efeito, caso as informações imputadas já tiverem sido usadas para treinar os modelos da IA.
No último mês de março, por exemplo, a OpenAI – empresa criadora doChatGPT - suspendeu brevemente este chatbot, para reparar um bug que permitia a alguns usuários a visualização de partes do histórico de bate-papo de outros usuários.
Na nova política sobre IA, contudo, a LBCA permite que seus colaboradores façam o uso, de forma limitada, de certas ferramentas de IA generativas para ajudar seus desenvolvedores de software a escrever e testar códigos; assim como admite que os advogados possam utilizar tecnologia da IAs para organizar apresentações e estruturas de documentos, sem o uso de informações confidenciais.