Transformações tecnológicas e o futuro do Direito: novas fronteiras e regulações emergentes
Fernanda Galvão e Daniele Persegani
1) Introdução
Inteligência artificial (“IA”) não é um conceito tão recente. Seu precursor, o cientista inglês Alan Turing, teve trabalho de destaque publicado em 1950 (1), estabelecendo bases para a computação moderna ao introduzir a ideia de algoritmos e máquinas capazes de processar informações de forma automatizada. Durante a Segunda Guerra Mundial, Turing desempenhou papel crucial com a criação da “Bombe”, máquina eletromecânica essencial para decifrar códigos criptográficos da Enigma alemã. Afirma-se que seu trabalho contribuiu para encurtar a duração do conflito. Até esse ponto, a IA era acessível apenas a grupo seleto de profissionais especializados em matemática, estatística e programação de computadores. Além disso, a tecnologia era desenvolvida em linguagem técnica específica, compreendida apenas por especialistas.
A partir de 2022, a trajetória da IA passou por transformação significativa. OpenAI, gigante empresa no ramo da tecnologia, lançou o ChatGPT, ferramenta de IA projetada para interagir com usuários comuns usando a chamada linguagem natural, isto é, linguagem cotidiana dos humanos. Desde então, observou-se rápida expansão de ferramentas de IA similares, capazes de realizar tarefas como responder perguntas, resumir conteúdos, resolver cálculos matemáticos complexos, traduzir textos em diversos idiomas. Essas ferramentas são classificadas como Inteligência Artificial de Propósito Geral (“IAPG”), em contraste com Inteligência Artificial de Propósito Específico (“IAPE”) (2).
Fato é que os profissionais que têm acesso às ferramentas de IA perceberam que os usos vão impactar de forma profunda a maneira como se conhece e executa os trabalhos em todos os segmentos. Inclusive, no meio jurídico, não será diferente, e paira uma espécie de angústia sobre a maneira que o mercado vai incorporar a tecnologia nas profissões e como os antigos problemas sociais serão resolvidos ou até agravados a partir da implementação da IA no cotidiano.
Este artigo pretende avaliar as tendências na regulamentação do uso da IA no contexto global e no Brasil, e, também o impacto que essa tecnologia trará especificamente ao meio jurídico. Ao final, serão levantadas reflexões com o intuito de contribuir para o enfrentamento desses efeitos da IA e o papel dos juristas nessa jornada.
2) Abordagens globais para a regulamentação da IA
A regulamentação da IA tornou-se tema de importância global à medida que a tecnologia se expande e permeia diversas áreas da sociedade. Diferentes países têm adotado abordagens variadas para regular a IA, que invariavelmente reflete suas prioridades políticas, econômicas e sociais.
Nos Estados Unidos (“EUA”), por exemplo, a Casa Branca emitiu, em 2020, o documento “Guidance for Regulation of Artificial Intelligence Applications” (3), orientando as agências governamentais sobre como abordar a regulamentação da IA. Esse documento destaca a necessidade de equilibrar o incentivo à inovação com a aplicação segura e eficaz das tecnologias, evitando que regulamentações excessivamente rígidas sufoquem o progresso tecnológico.
Essa abordagem reflete a filosofia hands-off das autoridades americanas, traduzida em intervenção governamental mínima, focada em diretrizes gerais ao invés de regras estritas. A lógica por trás dessa postura é que, em ambiente de rápida inovação tecnológica, regulamentações impostas prematuramente podem rapidamente se tornar obsoletas ou, pior, restringir o desenvolvimento da IA.
Com essa perspectiva, os EUA adotaram estratégia flexível, permitindo que o mercado se ajuste gradualmente às novas tecnologias, sem ser sufocado por regulamentações que poderiam limitar o avanço da inovação. No entanto, essa postura levanta questões sobre o quanto as empresas de tecnologia americanas poderiam estar influenciando as autoridades para adotar essa flexibilidade, favorecendo seus próprios interesses.
A falta de regulamentação clara da IA traz implicações para os usuários, especialmente em relação aos princípios de accountability, ou seja, a prestação de contas, que pode ser comprometida. Sem regras de transparência sobre como as ferramentas decidem, são treinadas e incorporam vieses discriminatórios, os usuários ficam dependentes das informações que as empresas escolhem divulgar quando instadas a dar explicações solicitadas pelos usuários.
A flexibilização das regras de IA nos EUA deu início a notável movimento em 2016 liderado pela pesquisadora de IA do Massachussets Institute of Technology, Joy Buolamwinié (4). A pesquisadora foi pessoalmente vítima de vieses de algoritmos de ferramentas de IA de reconhecimento facial (5). Buolamwinié divulgou os resultados de suas pesquisas às empresas de tecnologia, o que culminou com a fundação da Liga da Justiça Algorítmica (6). Trata-se de organização dedicada a assegurar que o uso de IA e IAPG seja feito de forma justa e equitativa. Seu trabalho envolve a colaboração com líderes globais para criar políticas e alternativas que protejam os direitos humanos.
Em contraste com a flexibilidade dos EUA, a União Europeia adotou abordagem mais rigorosa. Em abril de 2021, a Comissão Europeia apresentou a proposta de regulamentação denominada AI Act, marco regulatório robusto que visa abordar questões fundamentais como transparência, responsabilidade e direitos fundamentais (7). Após extensas discussões entre os países membros, o AI Act foi finalmente aprovado pelo Parlamento Europeu em março de 2024, com vigência a partir de agosto de 2024.
Essa é a primeira regulamentação mundial sobre o uso da IA e classificou a tecnologia em diferentes níveis de risco: desde “risco inaceitável”, como sistemas de vigilância em massa, totalmente proibidos, até “risco mínimo”, como filtros de spam, amplamente isentos de regulamentação direta. Sistemas de IA de alto risco, como os utilizados em infraestruturas críticas, como transporte, educação e recrutamento, devem atender a requisitos rigorosos de segurança da informação, supervisão humana e transparência antes mesmo de serem implementados (8).
Além disso, o AI Act impõe obrigações específicas para sistemas de IA exigindo que empresas e desenvolvedores mantenham documentação técnica detalhada, garantam conformidade com leis de propriedade intelectual e realizem avaliações de impacto sobre direitos fundamentais. Com isso, a União Europeia busca garantir que o desenvolvimento e uso das ferramentas de IA estejam alinhados com valores como privacidade, segurança e não discriminação, promovendo ambiente regulatório que permita a inovação responsável e segura.
Nesse contexto, a abordagem do AI Act demonstra o compromisso da União Europeia em liderar a regulamentação de tecnologias emergentes, estabelecendo padrão que outros países, como o Brasil, podem seguir ao criar suas próprias leis. Assim como o “General Data Protection Regulation” (“GDPR”) (9) europeu influenciou a legislação de proteção de dados no Brasil e em vários países da América Latina, essa nova regulamentação de IA servirá de referência para nações que entendem como relevante regular os usos da IA.
Contudo, embora pioneira, essa legislação ainda é recente, e não há parâmetros práticos de sua aplicação, especialmente porque a maioria das obrigações de conformidade das empresas entrará em vigor gradualmente, sendo o primeiro marco relevante em fevereiro de 2025.
3) Perspectivas sobre a regulamentação da IA no Brasil
No Brasil, a regulamentação da IA está em desenvolvimento, refletindo o crescente interesse do governo e da sociedade civil em estabelecer marco regulatório robusto. O Projeto de Lei nº 2.338/2023 (“PL”), proposto pelo Senador Rodrigo Pacheco, exemplifica essa iniciativa (10). Inspirado pelo AI Act europeu, o PL adota abordagem baseada em princípios, permitindo sua adaptação às rápidas mudanças tecnológicas e garantindo que o uso de IA no Brasil esteja alinhado aos padrões internacionais. Ao mesmo tempo, promove a inovação e protege direitos fundamentais como privacidade de dados, não discriminação, transparência e supervisão humana.
Essa preocupação com o combate a vieses discriminatórios em sistemas de IA já é observada na justificativa do PL (11). Um dos destaques do projeto é o capítulo específico que assegura os direitos das pessoas impactadas por essas tecnologias, por meio de acesso à informação, transparência nas decisões automatizadas e o direito de contestá-las e solicitar intervenção humana. O PL regula o direito à não discriminação e à correção de vieses, sejam eles diretos, indiretos, ilegais ou abusivos, reforçando a importância de tratamento justo e equitativo no uso da IA.
Além disso, o legislador brasileiro destaca a importância de proteger grupos vulneráveis, reconhecendo que eles podem ser mais impactados pelos vieses presentes nos sistemas de IA. O projeto define claramente conceitos de discriminação direta e indireta, com base na “Convenção Interamericana contra o Racismo” (12) e estabelece direitos específicos para prevenir a discriminação desses grupos. Também propõe medidas de governança e mecanismos de fiscalização para assegurar que desenvolvedores e operadores de IA adotem práticas que minimizem vieses e promovam a igualdade, reafirmando compromisso com a justiça e a proteção dos direitos fundamentais no uso de tecnologias emergentes.
Apesar de ser iniciativa importante e baseada em pesquisas sólidas, o PL enfrenta grandes desafios. As principais críticas apontam para a complexidade do texto legislativo e questionam se o Brasil possui maturidade para implementar legislação tão avançada. Há também preocupações sobre o impacto da criação de novo órgão regulador de IA. Sobretudo se levar em conta que o país ainda está nos estágios iniciais de implementação da Lei Geral de Proteção de Dados (“LGPD”) e da Autoridade Nacional de Proteção de Dados (“ANPD”), que permanece em fase de consolidação, mesmo após quase quatro anos de vigência da LGPD. A própria ANPD tem desempenhado papel de liderança na regulamentação da IA estabelecendo diretrizes para proteger dados e privacidade, alinhadas com as melhores práticas internacionais (13).
Além dessas críticas, tem sido muito questionado a precipitação dos trâmites do PL nas casas legislativas, sem que tenha sido dado oportunidade à sociedade civil e às empresas de participar de debates amplos sobre o modelo de regulação que o Brasil pretende seguir. Foi exatamente nesse contexto que foi criado o Conselho de Inteligência Artificial e Sociedade (“CIAS”). O CIAS é resultado da colaboração entre a Associação Brasileira de Internet (“Abranet”), Instituto de Tecnologia e Sociedade (“ITS”) e representantes de diversos setores da sociedade. Sua missão é promover consulta pública com o seguinte propósito: o que o Brasil quer da IA? (14). É iniciativa de ampliar a escuta da população, das empresas e dos órgãos públicos, e, com isso, aprofundar o debate sobre qual regulação de IA será mais adequada para o país. Essa iniciativa tem muita relevância, pois idealmente o Brasil precisa maturar os temas relativos aos impactos da IA conforme os problemas locais, evitando assim que a legislação brasileira não seja simplesmente cópia daquela adotada na União Europeia, que, inclusive, pode ter pouca adesão à realidade brasileira.
Apesar da iniciativa do CIAS, paralelamente, o PL continua em tramitação no Senado, com debates nas comissões, e a expectativa é que seja aprovado até o final de 2024.
4) Atualizações sobre os impactos da IA no mercado jurídico
Nos últimos anos, a IA vem transformando o mercado jurídico rapidamente, trazendo ganhos significativos em eficiência e precisão. À medida que a tecnologia avança, o setor aproveita o potencial para otimizar processos, reduzir custos e atender às pressões do mercado em aumentar a produtividade. Já se fala inclusive numa nova era da hiperprodutividade. De sistemas que automatizam tarefas administrativas, aos que analisam grandes volumes de dados, a IA está redefinindo como advogados, juízes e outros profissionais do Direito desempenham suas funções cotidianas.
Diante dessa transformação, a Comissão Nacional de Justiça (“CNJ”) mantém seu apoio constante ao uso de IA em tarefas operacionais e repetitivas, com o objetivo de aumentar a agilidade dos Tribunais e reduzir o acúmulo de processos. Um exemplo é a “Plataforma Sinapses”, destinada ao treinamento, hospedagem e auditoria de modelos de IA para o Judiciário. Atualmente, essa plataforma abriga 150 modelos de IA ativos, desenvolvidos por 29 Tribunais e conselhos, disponíveis para os órgãos de justiça (15).
Recentemente, o CNJ aprovou a padronização das ementas dos acórdãos publicados pelos Tribunais brasileiros, utilizando IA para facilitar a compreensão dos principais pontos e fundamentos dos casos julgados de maneira rápida e clara, beneficiando tanto a comunidade jurídica quanto a população (16). Essas iniciativas integram o Programa Justiça 4.0 (17), lançado em 2020, que visa modernizar o Judiciário brasileiro com tecnologias avançadas, incluindo Modelos de Linguagem de Grande Escala (“LLM”), ou seja, IA treinada com vasto número de fontes textuais para processar e gerar textos em linguagem natural.
O Programa Justiça 4.0 já utiliza LLM para auxiliar juízes na redação automática de documentos legais, como despachos, e na análise de grandes volumes de documentos jurídicos, identificando padrões, extraindo informações relevantes e categorizando casos. Essa série de tarefas busca tornar a justiça mais eficiente, facilitar a tramitação processual e compartilhar soluções tecnológicas entre os Tribunais, evitando o desperdício de recursos públicos.
A expansão do uso de IA no Judiciário é confirmada por pesquisas realizadas pelo CNJ desde 2020. A pesquisa mais recente, “Uso de Inteligência Artificial (IA) no Poder Judiciário – 2023”, publicada em junho de 2024 (18), revelou que, dos 94 Tribunais consultados, 62 possuem projetos de IA totalizando 140 iniciativas em desenvolvimento ou já implementadas, representando aumento de 26% em relação a 2022.
Esse crescimento reflete a tendência de adotar inovações tecnológicas para aprimorar a eficiência das atividades judiciais. A pesquisa também destacou os principais benefícios do uso de IA: redução de erros e falhas em processos, melhoria na tomada de decisão dos magistrados por meio de análises mais precisas e redução do tempo de tramitação dos processos. Assim, o uso de IA pelo Poder Judiciário já é realidade no Brasil.
Além do Judiciário, a Ordem dos Advogados do Brasil (“OAB”) tem se mostrado atenta aos recursos de IA na advocacia. A recente criação do Observatório Nacional de Cibersegurança, Inteligência Artificial e Proteção de Dados (“ONCiber”) pelo Conselho Federal da OAB (19) demonstra esse comprometimento. O ONCiber monitora projetos de implementação e regulamentação de tecnologias de cibersegurança e IA, dá suporte na interpretação e aplicação da LGPD e outras normativas correlatas, além de contribuir com debates regulatórios e atualizações legislativas, promovendo transparência e segurança jurídica.
A participação da OAB nas discussões sobre IA é fundamental para garantir que o avanço tecnológico beneficie todos os advogados de maneira equitativa, e não apenas um grupo seleto com acesso privilegiado à tecnologia. Advogados familiarizados com ferramentas de IA podem desempenhar papel inclusivo, apoiando a OAB na criação de oportunidades para aqueles sem condições financeiras de investir em tecnologia. Focar em iniciativas desse tipo ajudará a minimizar os impactos negativos das novas tecnologias, evitando que elas aumentem as desigualdades entre advogados com diferentes níveis de acesso digital.
5) Breves reflexões e conclusões
A evolução da IA desde os tempos de Alan Turing até hoje mostra significativo progresso. De ferramenta restrita a especialistas em matemática e computação, a IA tornou-se mais acessível, impulsionada por inovações como ChatGPT. Essas mudanças provocaram impactos profundos em vários setores, incluindo o jurídico. À medida que a IA avança, cresce a necessidade de regulamentações que equilibrem inovação com proteção dos direitos fundamentais.
No Brasil, o Projeto de Lei nº 2.338/2023, inspirado na legislação do bloco europeu, busca prevenir discriminações e proteger grupos vulneráveis, enquanto promove inovação. Contudo, desafios significativos permanecem e deverão ser enfrentados antes de sua aprovação e implementação. Paralelamente, o uso de IA se expande em diversos setores, embora no meio jurídico, tradicionalmente mais conservador, essa adoção ainda seja limitada.
Há uma transição notável de computadores programados por meio de regras binárias da computação para computadores treinados por meio de modelos estatísticos (algoritmos) com base em dados massivos disponíveis na Internet, ou seja, dados do passado, que são utilizados pelas ferramentas para decidirem e gerarem respostas que apresentam carga considerável de subjetividade.
Apesar de a IA já ter sido criada há vários anos, ainda não existe uma teoria que unifique melhores práticas de usos para mitigação de riscos. Trata-se de campo da computação que tem avançado por meios empíricos; isto é, com base nos erros e acertos da prática. Portanto, a disponibilização da IA para uso público geral a partir de 2022 aumenta ainda mais as incertezas sobre os impactos que as novas tecnologias trazem consigo.
A realidade é que as certezas que se pode ter até o momento é que todos – leia-se, os desenvolvedores, usuários, detentores do conhecimento da tecnologia – estão aprendendo juntos sobre os impactos da IA, no mercado de trabalho e nas relações sociais de forma geral.
Especificamente quanto ao meio jurídico, é possível concluir, até o momento, o seguinte:
> Há muito trabalho humano por trás de qualquer ferramenta de IA, pois o treino e calibragem das máquinas depende justamente da atividade humana; o Direito pode contribuir nos debates sobre a forma como essa calibragem tem sido feita, a fim de tornar a relação minimamente simétrica entre os detentores de tecnologia e os usuários finais;
> Os profissionais do Direito terão importante papel em moderar os usos da tecnologia nos demais segmentos em especial nas questões de governança, que perpassam necessariamente pelas questões dos vieses presentes nas ferramentas de IA, para que a tecnologia não seja apenas meio robotizado de perpetuação e agravamento de segregação social, e, também, de injustiças;
> As ferramentas de IA não serão capazes de executar o trabalho humano que depende de sabedoria, intuição, criatividade, ou seja, atributos peculiares de humanos e vice-versa. Logo, essas características essenciais à prática do Direito não poderão ser exercidas pelas máquinas, mas, por outro lado, capacidade de processamento de informações, rapidez na leitura de informações/dados das máquinas não poderá ser comparada com a capacidade humana;
> Muito provavelmente os profissionais que conseguirem dominar o uso de IA terão grau de eficiência, agilidade e assertividade incomparáveis aos níveis de produtividade até então conhecidos;
> Existe um papel social dos profissionais que tem acesso à tecnologia para construir, em conjunto com as organizações como CNJ, OAB, ANPD, Congresso Nacional, caminho para oportunizar o acesso à IA também para os profissionais menos favorecidos para que estes não fiquem ainda mais à margem das novas exigências de produtividade do mercado;
> É possível que marco regulatório IA no Brasil, se aprovado ainda em 2024, não seja aderente à realidade brasileira, dado à falta de aprofundamento do debate entre sociedade civil, empresas e órgãos públicos. Portanto, o momento é propício para que os interessados contribuam nas discussões da Consulta Pública promovida pelo CIAS.
O VLF, sempre atento à evolução tecnológica, está monitorando as relevantes discussões jurídicas sobre o uso da IA no âmbito do Direito e os trâmites de sua regulamentação, através do Projeto de Lei nº 2.338/2023. Caso tenha dúvidas, nossa equipe de consultoria em contratos e compliance poderá auxiliá-lo.
Fernanda Galvão
Advogada da Equipe de Consultoria e Compliance do VLF Advogados
Daniele Persegani
Sócia-executiva e Coordenadora da Equipe de Consultoria e Compliance do VLF Advogados
(1) COZMAN, Fabio Gagliardi; KAUFMAN, Dora. Viés no aprendizado de máquina em sistemas de inteligência artificial: a diversidade de origens e os caminhos de mitigação. Revista USP, n. 135, p. 195-210, 2022. Disponível em: https://www.revistas.usp.br/revusp/article/view/206235/189877. Acesso em: 27 ago. 2024.
(2) IAPG – são tecnologias desenvolvidas para realizar múltiplas tarefas, como por exemplo Alexa que é capaz de responder perguntas; ligar aparelhos domésticos, escolher músicas, dentre outras, ao passo que IAPE (inteligência artificial de propósito específico”) são tecnologias capacitadas para atividades em meios específicos como por exemplo, plataformas de streaming capazes de sugerir filmes com base no perfil de usuário, plataformas de Sistemas de Previsão de Tráfego, que conseguem analisar dados de trânsito e fornecem rotas alternativas em tempo real, como por exemplo o Waze.
(3) ESTADOS UNIDOS. Guidance for Regulation of Artificial Intelligence Applications. Casa Branca, 2020. Disponível em: https://www.whitehouse.gov/wp-content/uploads/2020/01/Draft-OMB-Memo-on-Regulation-of-AI-1-7-19.pdf. Acesso em: 21 ago. 2024.
(4) Ela é autora do best seller “Unmasking IA: My Mission to Protect What Is Human in a World of Machines”, publicada no idioma inglês, em outubro de 2023. Em tradução livre “Desmascarando a IA: Minha missão de proteger o que é humano no mundo das máquinas.
(5) A pesquisa de Joy é objeto de um Documentário denominado “Coded Bias”, em português “Preconceito Decodificado”, lançado em 2020, disponível nas plataformas de streaming.
(6) The Algorithmic Justice League. Disponível em: https://www.ajl.org. Acesso em: 28 ago. 2024.
(7) CONSELHO DE INTELIGÊNCIA ARTIFICIAL E SOCIEDADE. O que queremos da Inteligência Artificial? Disponível em: https://www.oquequeremosdaia.com.br/sobre-o-conselho. Acesso em: 28 ago. 2024.
(8) UNIÃO EUROPEIA. AI Act enters into force. Comissão Europeia, 2024. Disponível em: https://commission.europa.eu/news/ai-act-enters-force-2024-08-01_en. Acesso em: 21 ago. 2024.
(8) UNIÃO EUROPEIA. European Artificial Intelligence Act comes into force. Comissão Europeia, 2024. Disponível em: https://commission.europa.eu/news/ai-act-enters-force-2024-08-01_en. Acesso em: 21 ago. 2024.
(9) UNIÃO EUPOPÉIA. GDPR-Info. General Data Protection Regulation (GDPR). Disponível em: https://gdpr-info.eu/. Acesso em: 26 ago. 2024.
(10) BRASIL. Senado Federal. Projeto de Lei 2.338/2023. Brasília, 2023. Disponível em: https://www25.senado.leg.br/web/atividade/materias/-/materia/157233. Acesso em: 21 ago. 2024.
(11) A justificação em um Projeto de Lei é a seção onde o autor do projeto explica e fundamenta a necessidade e os objetivos da proposta legislativa. Esta parte é essencial para que os legisladores e o público compreendam o propósito da lei, as razões para sua criação, e os benefícios esperados.
(12) BRASIL. Decreto nº 10.932, de 10 de janeiro de 2022. Promulga a Convenção Interamericana contra o Racismo, a Discriminação Racial e Formas Correlatas de Intolerância, firmado pela República Federativa do Brasil, na Guatemala, em 5 de junho de 2013. Diário Oficial da União: seção 1, Brasília, DF, 11 jan. 2022. Disponível em: https://www.planalto.gov.br/ccivil_03/_Ato2019-2022/2022/Decreto/D10932.htm. Acesso em: 26 ago. 2024.
(13) BRASIL. Autoridade Nacional de Proteção de Dados. Diretora da ANPD defende protagonismo da Autoridade na regulamentação da IA. Brasília: Autoridade Nacional de Proteção de Dados, 15 abr. 2024. Disponível em: https://www.gov.br/anpd/pt-br/assuntos/noticias/diretora-da-anpd-defende-protagonismo-da-autoridade-na-regulamentacao-da-ia. Acesso em: 21 ago. 2024.
(14) Conselho de Inteligência Artificial e Sociedade. O que queremos da Inteligência Artificial? Disponível em: https://www.oquequeremosdaia.com.br/sobre-o-conselho. Acesso em: 28 ago. 2024. Conselho de Inteligência Artificial e Sociedade (CIAS)
(15) BRASIL. Programa das Nações Unidas para o Desenvolvimento. Plataforma Sinapses reúne 150 modelos de inteligência artificial. Disponível em: https://www.undp.org/pt/brazil/news/plataforma-sinapses-reune-150-modelos-de-inteligencia-artificial. Acesso em: 26 ago. 2024.
(16) BRASIL. Conselho Nacional de Justiça (CNJ). CNJ lança modelo padrão para ementas a ser usado em decisões judiciais. Disponível em: https://www.cnj.jus.br/cnj-lanca-modelo-padrao-para-ementas-a-ser-usado-em-decisoes-judiciais/. Acesso em: 26 ago. 2024.
(17) Criado pelo Conselho Nacional de Justiça (CNJ) em parceria com o Programa das Nações Unidas para o Desenvolvimento (PNUD), o Programa Justiça 4.0 torna o sistema Judiciário brasileiro mais próximo da sociedade ao disponibilizar novas tecnologias e inteligência artificial. Impulsiona a transformação digital do Judiciário para garantir serviços mais rápidos, eficazes e acessíveis. Ao promover soluções digitais colaborativas que automatizam as atividades dos Tribunais, otimiza o trabalho dos magistrados, servidores e advogados. Garante, assim, mais produtividade, celeridade, governança e transparência dos processos. Disponível em: https://www.cnj.jus.br/tecnologia-da-informacao-e-comunicacao/justica-4-0/. Acesso em: 26 ago. 2024.
(18) BRASIL. Conselho Nacional De Justiça. Pesquisa sobre o uso da inteligência artificial (IA) no Poder Judiciário – 2023. Disponível em: https://www.cnj.jus.br/wp-content/uploads/2024/06/pesquisa-uso-da-inteligencia-artificial-ia-no-poder-judiciario-2023.pdf. Acesso em: 26 ago. 2024.
(19) BRASIL. Conselho Federal da Ordem dos Advogados do Brasil. Segurança digital: OAB lança Observatório Nacional de proteção de dados e Inteligência Artificial. Disponível em:https://www.oab.org.br/noticia/62289/seguranca-digital-oab-lanca-observatorio-nacional-de-protecao-de-dados-e-inteligencia-artificial. Acesso em: 27 ago.2024.