No ano passado, a famosa cantora norte-americana Taylor Swift sofreu os efeitos da manipulação de sua imagem decorrentes da tecnologia gerada pela inteligência artificial (IA). A estrela pop viu seu rosto praticamente idêntico em comunhão com um corpo aleatório formando imagens pornográficas, em posições sexuais e explícitas. As fotografias se espalharam rapidamente nas redes sociais, sendo vistas por milhões de pessoas antes de serem removidas após determinação judicial.
Com o aumento de softwares de inteligência artificial, tal situação passou a ser corriqueira, sendo ainda mais precisos, com análise de dados, processamento de linguagem natural, reconhecimento de imagem, reconhecimento de voz e texto, automação de tarefas, segurança digital, dentre outros. Assim, a inteligência artificial utiliza algoritmos e técnicas avançadas para simular a inteligência humana.
É cada vez maior o número de softwares de IA, sendo mais utilizados os seguintes: ChatGPT, Cybel Angel, LivePerson, Windows PowerShell, ClickUp, Arago/HIRO, Sundown, PyTorch, Google Cloud AI Platform, Keras, TensorFlow, PyTorch, Scikit-learn, IBM Watson, OpenAI Gym, H2O.ai, Microsoft Copilot, Bard, LegalRobot, Decktopus, Poised, ChatPDF, Krisp AI, VEED, Genesys, DataLab, Julius AI, GitHub Copilot, Dataminr.
Porém, a situação merece maiores análises e regulamentação. Um bom exemplo de uso indevido e consequência drástica ocorreu também no ano passado, em que um empregado de uma empresa multinacional efetuou a transferência de cerca de US$ 26 milhões a criminosos que usaram a tecnologia deepfake para se passar pelo diretor financeiro da empresa em uma reunião por videoconferência.
O Deep fake, criado pela IA, se caracteriza por uma cópia da imagem da pessoa, gestos e até voz. Muito conhecido nas redes sociais por imitações de celebridades, como Tom Cruise.
O funcionário teria recebido um e-mail do seu diretor financeiro narrando que precisava tratar de um assunto sigiloso por videoconferência. A princípio ele desconfiou do e-mail, pois parecia um phishing (espécie de isca digital com link fraudulento). Entretanto, quando chegou o pedido de reunião por videoconferência e ele abriu o link estavam 4 funcionários da empresa, sendo um deles o CFO (Chief Financial Officer), o próprio diretor financeiro.
A reunião fluiu normalmente e o empregado conversou com as pessoas, trataram de alguns assuntos e no final da reunião ficou acordado que ele deveria fazer 15 transferências para 5 contas bancárias para pagar a um fornecedor.
Alguns dias depois o funcionário recebeu uma ligação da sede da empresa em Londres perguntando dele ter feito aquelas transferências. Ele explicou tudo o que foi tratado na reunião realizada com outros funcionários e o próprio CFO e foi aí que ficou sabendo que a reunião não existiu, ou seja, foi um golpe, uma simulação. O rombo foi de cerca de 26 milhões de dólares, como supramencionado. O único participante real era o próprio empregado. O caso é um dos vários episódios recentes com a utilização da IA para imitar pessoas e lucrar criminosamente.
Indaga-se: esse funcionário pode ser dispensado por justa causa?
Novos golpes são crescentes e as empresas precisam se precaver, com orientação, normas empresariais e treinamentos dos empregados a fim de diminuir os riscos. Com procedimentos predeterminados o empregado deve seguir as instruções para se evitar fraudes e, em caso de descumprimento, a justa causa se torna totalmente possível.
No caso narrado acima, ocorrido em Honk Kong na China, entendemos que a justa causa é possível, caso a empresa tenha compliance ou regimento interno para situações semelhantes. Dada a vultuosa quantia transferida de forma atípica, o e-mail suspeito (phishing) e a ausência de outros meios para se garantir maior credibilidade antes de realizar as 15 transferências, como ligações ou e-mails corporativos, pode-se acarretar a extinção contratual por justa causa. Porém, entendemos defensável a alegação de ausência de culpa do empregado, levado a erro com a “presença” do próprio diretor financeiro na reunião simulada.
Fato é que, como dito, a situação precisa ser regulamentada e todos temos que desconfiar de qualquer reunião telepresencial em que seja solicitado o envio de valores ou informações de dados sensíveis.
Tempos pós-modernos!
Diego Antunes é advogado especialista, consultor, palestrante, diretor da ESA-Araruama e professor universitário da graduação nas disciplinas de Introdução ao Direito, Lógica e Argumentação Jurídica, Pensamento Crítico, Direito do Trabalho, Processo do Trabalho e Prática Trabalhista e da pós-graduação em Direito Material e Processual do Trabalho.
