Cresce uso de inteligência artificial em reclamações trabalhistas

A inteligência artificial - até mesmo o polêmico ChatGPT - tem sido cada vez mais adotada nas reclamações trabalhistas. Levantamento da plataforma de jurimetria Data Lawyer mostra um aumento de quase 800% no volume de processos que citam o termo. Ferramentas aparecem nas petições para embasar os pedidos ou para requisitar provas.

Entre 2017 e 2022, foram ajuizadas 7.032 ações trabalhistas contendo os termos “inteligência artificial” ou “artificial intelligence”, segundo o levantamento, feito a pedido do escritório Trench Rossi Watanabe. Desse total, 6,2 mil processos foram ajuizados de 2020 para cá, em meio à pandemia da covid-19. Antes de 2020, eram apenas 802 processos.

Esse boom no volume de ações a partir de 2020, segundo a advogada Leticia Ribeiro, sócia do escritório Trench Rossi Watanabe, pode ser justificado por uma aceleração no contato com novas tecnologias durante o período de isolamento.

Os processos que citam inteligência artificial tratam, em geral, do uso de ferramentas de geolocalização, para embasar pedidos de horas extras em trabalhos externos, ou de produção de provas digitais, como o uso de informações postadas em redes sociais ou armazenadas em celulares.

O ChatGPT é citado em pelo menos duas ações trabalhistas. Foi utilizado para buscar informações ou definição sobre determinada expressão — em uma função praticamente de dicionário.

Em uma das ações, o ChatGPT foi adotado, na elaboração da petição, para esclarecer as atribuições de um promotor de vendas. O processo tramita no Tribunal Regional do Trabalho de Pernambuco (nº 0000848-38.2021.5.06.0008).

Na outra ação, é utilizado na petição inicial para refutar a fundamentação de um laudo pericial sobre a definição de “determinante genético”. “É isso que se aprende no ensino médio. É o que se tem no Google. O Chat GPT não diverge”, diz o texto. O caso corre na 10ª Vara do Trabalho de Belo Horizonte (processo nº 0010008-31.2022.5.03.0010).

De acordo com o advogado Fabio Medeiros, sócio do escritório Lobo de Rizzo, o tema da inteligência artificial, por enquanto, aparece nos processos mais como “tecnologia de deslocamento” - como pedidos de geolocalização. “Ainda não se tem visto ações voltadas às novas ferramentas como ChatGPT. Como discussões que deverão aparecer sobre a elaboração de documentos por empregados pela inteligência artificial, sem o conhecimento do empregador”, diz.

O que se vê até agora, acrescenta, são pedidos de produção de provas, via geolocalização, para comprovar horas extras fora do ambiente de trabalho. Nesses casos, ainda não há uma jurisprudência consolidada, afirma o advogado, mas uma tendência maior em negar esses pedidos. “Com a justificativa de que esses dados violariam a intimidade do empregado ou esbarrariam em informações protegidas pela lei Geral de Proteção de Dados (LGPD).”

Há decisões, nesse sentido, nos tribunais regionais do trabalho de São Paulo, Rio de Janeiro e Minas Gerais. No TRT-SP, a Seção de Dissídios Individuais - 8 negou pedido por entender que seria abuso de poder e violaria a intimidade e privacidade do empregado. Para os desembargadores, a medida só poderia ser adotada para apuração de infração penal. O processo (nº 1002600-63.2021.5.02.0000) já transitou em julgado.

No TRT-MG, a 1ª Seção de Dissídios Individuais entendeu que fornecer dados de geolocalização ofenderia o sigilo telemático e a privacidade (processo nº 0011155-59.20 21.5.03.0000). Há decisões semelhantes no TRT-RJ (processos nº 0100209-56.2022.5.01.0000 enº 0100087-40.2017.5.01.0284).

Hoje, segundo Leticia Ribeiro, do Trench Rossi Watanabe, os departamentos de recursos humanos vêm utilizando de maneira crescente ferramentas de inteligência artificial, como o Chat GPT — adotado na parte de recrutamento, para fazer descrição de função e coletar dados. A área também vem aproveitando a IA, acrescenta, para controle automático de currículos, por exemplo.

O lado positivo dessa automação, afirma a advogada, é a possibilidade de profissionais ficarem mais dedicados a questões estratégicas. “O lado negativo é que esses algoritmos ainda não conseguem tratar de questões sensíveis, e podem gerar um viés inconsciente.”

Apesar do crescimento do uso da inteligência artificial, o assunto ainda segue sem regulamentação no Brasil. Existem pelo menos cinco projetos de lei sobre o tema no Congresso. O mais atual, e que segue na mesma linha da proposta da União Europeia, é o de nº 2338, de 2023, do senador Rodrigo Pacheco (PSD/MG).

De acordo com advogados, a Europa deve aprovar em breve o “IA Act”, norma que deve servir de orientação para as empresas sobre os limites da utilização dessas novas ferramentas.

O PL 2338 cria regras para que os sistemas de inteligência sejam disponibilizados no Brasil, estabelecendo os direitos das pessoas afetadas por seu funcionamento. Pela proposta, essas ferramentas deverão passar por uma avaliação feita pelos próprios fornecedores para determinar se podem ser classificadas como de alto risco ou risco excessivo.

O projeto já lista sistemas que serão considerados de alto risco, como classificação de crédito, identificação de pessoas, administração da Justiça, implementação de veículos autônomos, diagnósticos e procedimentos médicos, tomada de decisões sobre acesso a emprego,aensino, ou a serviços públicos e privados essenciais, entre outros.

Também define critérios para o usodesses sistemas pelo poder público, prevendo punições para as eventuais violações à lei. A quebra das regras previstas poderá acarretar multa de até R$ 50 milhões por infração ou até 2% do faturamento, no caso de empresas.

A multa prevista, que pode ser altíssima, vai na mesma linha da já aprovada LGPD, também inspirada na lei europeia, e que prevê esse mesmo valor de até R$ 50 milhões por infração.

Enquanto não há regulamentação no Brasil, advogados afirmam que as empresas devem tomar alguns cuidados em suas políticas internas e fornecer treinamento aos funcionários.

A advogada Leticia Ribeiro diz que, no caso de empresas que usam inteligência artificial, por exemplo, é preciso ter certeza que não fornecerá dados de maneira enviesada, que possam eliminar candidatos com uma tomada de decisão discriminatória, fora do contexto ESG ou que violem práticas responsáveis de inclusão e diversidade para as empresas. “Elas precisam ter alguma forma de controle”, afirma.

Fabio Medeiros, do Lobo de Rizzo, recomenda que as companhias passem a se antecipar e pensem em políticas internas e treinamentos que tratem dos limites para o uso da inteligência artificial no trabalho. Se, por exemplo, seria permitido o uso de inteligência artificial na elaboração de textos.

Também deve haver, diz o advogado, uma preocupação com as informações que serão fornecidas a essas ferramentas. “O empregado vai lançar dados em uma plataforma que não tem mais controle. E nesse caso também existe o risco de vazamento de dados do próprio empregado, da empresa, de fornecedores, o que pode afetar diretamente nas regras de privacidade da LGPD.

Fonte: Valor Econômico