• contato@valadaresefueta.com.br
  • 21965450470

Impactos jurídicos na utilização da inteligência artificial pelos colaboradores

A inteligência artificial (IA) está consolidada como uma das tecnologias mais transformadoras da era moderna, revolucionando diversos setores, incluindo o empresarial. As empresas têm adotado sistemas de IA para melhorar a eficiência operacional, automatizar processos, auxiliar em tomada de decisões e aprimorar a experiência do cliente. Ocorre que com a crescente integração dessa tecnologia nas atividades empresariais, surgem preocupações quanto ao seu uso por colaboradores e com as repercussões jurídicas dessa utilização. Neste artigo vamos tratar dos desafios jurídicos e das responsabilidades associadas à utilização da IA nas empresas.A adoção da IA nas atividades empresariais é uma necessidade para a manutenção da competitividade em qualquer mercado. A IA oferece uma série de benefícios que vão desde a automação de tarefas repetitivas até a análise preditiva de grandes volumes de dados. Essa tecnologia permite que as empresas otimizem seus processos internos, aumentem a produtividade e tomem decisões mais informadas e estratégicas, tudo isso numa velocidade cada vez maior. A inteligência artificial tornou-se uma ferramenta estratégica para as empresas, oferecendo inúmeras oportunidades para inovação, crescimento e redução de custos. No entanto, a sua utilização pelos colaboradores exige uma abordagem cuidadosa e responsável, com políticas claras e treinamento adequado.O uso inadequado ou não supervisionado de ferramentas de IA por funcionários e prestadores de serviços pode expor a empresa graves riscos jurídicos, como o vazamento de informações confidenciais, violação de direitos de propriedade intelectual e responsabilidade por resultados discriminatórios.Um dos maiores desafios é garantir que os colaboradores utilizem a IA de maneira ética e de acordo com ordenamento jurídico, que muitas vezes se revela como um verdadeiro labirinto de normas jurídicas. A utilização de IA sem a devida orientação pode resultar, por exemplo, no compartilhamento inadvertido de dados sensíveis, expondo a empresa a multas, conforme previsão na Lei Geral de Proteção de Dados. Esta tecnologia também pode gerar informações falsas diante da sua característica generativa e criativa. Podemos destacar, ainda, a produção de vídeos, imagens e áudios cuja precisão e qualidade podem criar confusão e prejuízos aos consumidores. Este risco é agravado cada vez mais diante das inúmeras ferramentas de IA capazes de gerar conteúdos com extrema rapidez e facilidade, como o ChatGPT, Claude, Midjourney, ElevenLabs e Kling AI que permitem a criação e disseminação de informações, imagens, áudios e vídeos.Casos recentes servem de alerta para os riscos vinculados ao uso inadequado da IA pelos colaboradores. Um exemplo relevante é o incidente ocorrido numa das maiores empresas de tecnologia do mundo, em que colaboradores foram identificados enviando código confidencial para uma ferramenta de IA. Esta conduta expôs todo o trabalho de desenvolvimento e investimento da empresa. Trata-se de incidente que revela a importância de políticas claras sobre o uso da IA no ambiente de trabalho, divulgação dos regulamentos internos e da legislação, além de treinamento e atualização constantes dos funcionários.No âmbito  jurídico, podemos citar o emblemático caso do advogado norte-americano que apresentou jurisprudência inexistente como fundamento para seu pleito perante um Tribunal dos Estados Unidos. O advogado havia realizado uma busca no ChatGPT de algumas decisões judiciais para corroborar sua tese em processo judicial, mas a função criativa desta ferramenta de inteligência artificial produziu um resultado inexistente no mundo real. O resultado foi a aplicação de uma multa de alguns milhares de dólares em razão da informação falsa contida na petição.Além disso, o uso de IA pelos colaboradores pode levar a questões de discriminação algorítmica. Algoritmos enviesados podem ajudar a reforçar preconceitos e desigualdades, como foi observado em alguns sistemas de concessão de crédito ou em processos de recrutamento. Esses problemas impactam diretamente a empresa, gerando grandes riscos jurídicos. Isto porque, atualmente, ainda não temos legislação que defina claramente a responsabilidade pelos resultados discriminatórios gerados por ferramentas de IA: a responsabilidade por indenizar os danos causados pelo algoritmo discriminatório é de quem usou a ferramenta ou de quem a programou? A ausência de resposta com fundamento normativo para essa pergunta gera uma considerável insegurança jurídica para as empresas.O AI Act da União Europeia é um exemplo de legislação que oferece um excelente modelo de regulamentação, classificando os sistemas de IA em categorias de risco e estabelecendo requisitos específicos para cada uma delas. Embora ainda não tenhamos uma legislação específica vigente no Brasil, o Projeto de Lei 2338/2023, inspirado no AI Act, propõe uma abordagem similar, sugerindo a aplicação de normas diferenciadas de acordo com o nível de risco da IA utilizada.A regulamentação da IA pretende garantir que esta tecnologia seja desenvolvida e utilizada de forma ética e segura, protegendo os direitos fundamentais e promovendo a inovação. Mesmo sem a consolidação de uma norma brasileira, neste momento, o Projeto de Lei mencionado serve de inspiração e é um verdadeiro norte para as empresas que precisam adaptar seus processos e garantir que seus colaboradores e prestadores estejam cientes dos riscos envolvidos e da correta forma de utilização da IA.As empresas que adotarem práticas que visam a orientar seus colaboradores quanto à utilização da IA certamente estarão mais protegidas contra os riscos inerentes aos desafios éticos e legais da era da inteligência artificial. A IA pode e deve ser plenamente integrada ao ambiente de trabalho, mas a capacidade das empresas de gerenciar com eficiência o seu uso pelos colaboradores certamente será um fator determinante para a longevidade de qualquer negócio.

Conversar
no Whatsapp