Regulação da Inteligência Artificial: panorama global e principais desafios
Fernanda Vidigal e Letícia Camargos
Internet das Coisas, carros autônomos, drones, sistemas de diagnósticos médicos automáticos, algoritmos em redes sociais, marketing inteligente, assistentes virtuais, serviços de streaming, reconhecimento facial, indústrias robotizadas, smart contracts, blockchain e até mesmo decisões judiciais automatizadas. Antes pensada como uma tecnologia futurista e possível apenas em imaginação, hoje, a tão mencionada inteligência artificial (ou “IA”) já é uma realidade com a qual a sociedade convive diariamente em seus mais diversos setores.
Para compreender a relevância do assunto, basta refletir sobre os exemplos citados acima e perceber as inúmeras revoluções trazidas pelo uso da IA no dia a dia das pessoas e dos negócios. Trata-se, afinal, de um dos maiores avanços tecnológicos das últimas décadas, que prometeu e já vem entregando simplificação de processos, redução custos e promoção de facilidades e comodidades para a vida humana. Em contrapartida, o desenvolvimento exponencial da IA e as novas conjunturas por ela criadas têm sido motivo de desconfianças e incertezas.
Podem ser citados questionamentos como “quem deve ser responsabilizado por danos causados pelo uso da IA?”; “como deve ser tratado o risco da diminuição de empregos pela adoção de máquinas e de novas tecnologias?”; “o que fazer diante de erros ou defeitos em sistemas de inteligência artificial?”; “é possível garantir o direito à privacidade e evitar o vazamento de dados?”. Em decorrência dessas questões, a falta de segurança jurídica torna-se uma preocupação tanto para aqueles que consomem, como para aqueles que desenvolvem os sistemas de IA, haja vista o temor por eventuais penalizações.
Diante disso, cada vez mais os olhares de especialistas, organizações e governos têm se voltado para as formas de regulação do uso da IA. A tarefa, no entanto, não é fácil. É necessário, por um lado, garantir a observância dos direitos humanos, a transparência e a previsibilidade na utilização de sistemas de IA; e, por outro, evitar o enrijecimento das regras e a criação de obstáculos à inovação e ao desenvolvimento tecnológico.
Já em 2017, a China anunciou um plano para se tornar líder mundial em inteligência artificial até 2030, o Plano de Desenvolvimento de uma Nova Geração de IA (1), que possui como um de seus objetivos promover a regulação da IA no país. O órgão regulador chinês, chamado Cyberspace Administration of China, editou regras norteadoras do uso de sistemas de algoritmos, proibindo a sua utilização de maneira discriminatória e enviesada e a propagação de Fake News, bem como determinando a adoção de medidas de segurança e verificação pelos provedores desses sistemas (2).
De maneira concorrente, em 2019, os Estados Unidos emitiram a Executive Order on Maintaining American Leadership in Artificial Intelligence (3), estabelecendo políticas para a manutenção da sua liderança no assunto da IA, inclusive do ponto de vista regulatório (4).
Outra iniciativa regulatória de destaque é a da União Europeia, que, além da publicação da conhecida General Data Protection Regulation (“GDPR”) (5) no ano de 2016, divulgou, em abril de 2021, a proposta 2021/0106 (COD) para a regulação de um Artificial Intelligence Act (6). A referida proposta se destaca, em especial, no que diz respeito à classificação dos sistemas de IA com base em três categorias de riscos: risco inaceitável, risco elevado e risco baixo ou mínimo. Seguindo essa classificação, as restrições e exigências aumentariam conforme maiores fossem os riscos apresentados pelos diferentes sistemas de inteligência artificial para a população.
Devem, ainda, ser mencionadas as recomendações da Organização para a Cooperação e Desenvolvimento Econômico (“OCDE”) relacionadas à IA, que foram adotadas em maio de 2019 por países membros e não membros (dentre estes, o Brasil) (7). Posteriormente, em fevereiro de 2022, seguindo o exemplo da União Europeia, a OCDE desenvolveu uma estrutura para a classificação de sistemas de IA (a OCDE Framework for Classifying AI Systems) (8), com o objetivo de fornecer uma ferramenta para que os diversos órgãos reguladores e legisladores possam avaliar as oportunidades e riscos oferecidos pelos sistemas de IA e, assim, informar suas estratégias nacionais voltadas para a inteligência artificial.
As diversas experiências internacionais possuem nítida influência no processo regulatório brasileiro de IA, a começar pela implementação da Lei Geral de Proteção de Dados (“LGPD”), em 2018, inspirada pelos ditames da GDPR. Ademais, atualmente estão em discussão no Congresso Nacional três Projetos de Lei destinados de forma mais específica ao tratamento da inteligência artificial: PL 5.051/2019, PL 21/2020 e PL 872/2021 (referidos conjuntamente como “Projetos de Lei”).
Nesse cenário, em fevereiro de 2022, o Senado Federal instituiu a Comissão de Juristas responsável por “subsidiar a elaboração de minuta de substitutivo para instruir a apreciação dos Projetos de Lei, que têm como objetivo estabelecer princípios, regras, diretrizes e fundamentos para regular o desenvolvimento e a aplicação da inteligência artificial no Brasil” (9). Desde a sua instalação, a Comissão de Juristas tem promovido audiências públicas para a oitiva de especialistas sobre o tema e debates (10).
Os principais pontos em discussão, seja no processo regulatório brasileiro, seja nas experiências internacionais acima mencionadas, podem ser sintetizados conforme abaixo.
a) Definição de inteligência artificial
A dificuldade de definição do que é inteligência artificial tem sido um dos principais dilemas dos legisladores, tendo em vista não apenas os diferentes tipos de sistemas de IA existentes, como também a sua possibilidade de aplicação em várias áreas. De maneira geral, os Projetos de Lei que tramitam no Brasil ou não definiram a IA, como é o caso do PL 5.051/2019, ou trouxeram definição muito restritiva, como no caso do PL 21/2020 (11).
Sobre o assunto, é salutar a estrutura de classificação fixada pela OCDE, que permite uma descrição clara e, ao mesmo tempo, flexível dos diversos sistemas de IA. Assim, tal classificação garante, inclusive, a abrangência de futuras novas tecnologias utilizadoras de inteligência artificial (12).
b) Empregabilidade
Um ponto comum de preocupação pelas várias experiências regulatórias de IA é o aumento do desemprego em razão da substituição da mão de obra humana por máquinas providas de inteligência artificial. A maioria das recomendações internacionais sobre o tema tem sido no sentido de promover políticas e investimentos voltados para a capacitação da força de trabalho para a nova realidade, incluindo atualizações no setor da educação.
Deve-se pontuar, contudo, que tal estratégia não é simplesmente replicável em todas as regiões globais. Em países subdesenvolvidos e em desenvolvimento, o desafio da formação de profissionais com habilidades para a nova realidade é ainda maior e dificilmente acompanhará o ritmo do desenvolvimento tecnológico. Trata-se, de fato, de ponto que merece especial atenção das políticas públicas.
c) Vieses e discriminações
Outro fator gerador de debates é o risco relacionado ao surgimento de vieses algorítmicos e discriminações por meio dos sistemas de IA. Tais situações ocorrem quando determinado sistema toma decisões “enviesadas” e até mesmo discriminatórias, prejudicando um sujeito ou grupo, seja por meio do aumento injustificado do preço de produtos, da negativa de serviços e até mesmo demissões ou não admissões para empregos.
Exemplo emblemático de discriminação algorítmica é o caso do desenvolvimento de um software pela Amazon, em 2014, para revisar currículos de candidatos a emprego (13). A ferramenta utilizava inteligência artificial para atribuir pontuações aos candidatos, com base em padrões de currículos enviados à Amazon em processos seletivos dos últimos dez anos.
Em 2015, no entanto, a companhia percebeu que a classificação realizada pelo software não era neutra, uma vez que o histórico de candidaturas anteriores (que alimentava a base de dados do sistema de IA) era predominantemente masculina. Com isso, o algoritmo atribuía pontuações mais baixas para currículos que continham qualquer menção ao gênero feminino, como “capitã do clube de xadrez feminino”, privilegiando a contratações de homens em detrimento de mulheres. A Amazon tentou editar o programa para corrigir o problema, mas não havia uma garantia de que o software não desenvolveria, por si só, outra forma de seleção enviesada ou discriminatória. Então, a companhia resolveu encerrar o projeto.
Discute-se, nesse sentido, a real possibilidade de se pensar em sistemas neutros, que não carreguem consigo vieses de desenvolvedores, provedores ou financiadores da IA. Ainda que não haja um comportamento intencional por parte desses agentes, é possível cogitar em erros de sistema, mau funcionamento ou até problemas relacionados à alimentação de bancos de dados.
Nesse aspecto, além da garantia da transparência nos processos por trás dos sistemas de IA (tornando possível a identificação e correção de vieses), as organizações e os indivíduos envolvidos no seu desenvolvimento devem ser responsáveis pelo funcionamento de seus sistemas em conformidade com as leis e em respeito aos direitos fundamentais.
d) Privacidade e proteção de dados
O direito à privacidade e a proteção de dados são temas que sempre se chocam com o desenvolvimento de novas tecnologias, especialmente em se tratando de inteligência artificial e adoção de algoritmos. Ora, para funcionarem, os sistemas de IA precisam ser constantemente alimentados por dados. Promovem, assim, a coleta e o cruzamento de informações para identificarem comportamentos e tomarem decisões.
É o que ocorre, por exemplo, com os algoritmos de marketing que monitoram buscas em sites da Internet e até a localização de consumidores por meio de GPS para gerarem conteúdos publicitários. Menciona-se, ainda, a utilização de sistemas de câmeras de vigilância, que, por meio de reconhecimento facial, capturam e digitalizam imagens de pessoas a fim de identificar possíveis agentes criminosos.
Cada vez mais rapidamente, a coleta e o processamento de dados vêm ameaçando a privacidade dos indivíduos. Um grande exemplo desse risco é a política chinesa de atribuição de créditos sociais à população através do monitoramento das atividades e dos comportamentos das pessoas, desde suas informações registrais e fiscais até o tempo que passam assistindo à televisão ou ouvindo música. O plano do governo chinês é, por meio desses dados, estabelecer uma espécie de ranking de confiança da população, premiando-as ou punindo-as, conforme os seus créditos (14).
e) Responsabilidade civil e órgão fiscalizador
É também objeto de discussão a questão da responsabilidade por danos causados pelo uso de sistemas de inteligência artificial. A título de exemplo, é possível citar casos de acidentes, até mesmo fatais, envolvendo veículos automatizados e robôs. Em situações como essas, os órgãos regulatórios têm debatido a quem deve ser imputada a responsabilidade pelos danos causados e, ainda, a forma adequada de se aferir essa responsabilidade.
Há propostas de criação de uma nova hipótese de personalidade jurídica (a e-person) ou de utilização das regras de direito societário para a responsabilização de sistemas de IA e seus agentes (15). Além disso, no Brasil, muito se discute sobre a adoção da noção de responsabilidade civil objetiva para a reparação de danos causados pelo uso de inteligência artificial, à semelhança do que ocorre no direito consumerista. Nesse caso, os agentes de desenvolvimento e operação dos sistemas de IA seriam responsabilizados pelas decisões e ações tomadas pelos sistemas, independentemente da existência de culpa.
É fundamental, ainda, a fiscalização do funcionamento dos sistemas de IA, seja para a prevenção, seja para a remediação de eventuais atos ilícitos e violações aos direitos constitucionalmente previstos. Nesse sentido, a criação de um órgão regulador ou a atribuição dessa tarefa a órgão já existente também tem sido objeto de debates no processo legislativo brasileiro (16).
Como visto, a inteligência artificial faz parte do atual cotidiano da sociedade e as diversas organizações e governos internacionais têm trabalhado para a sua regulamentação. Apesar dos debates e dificuldades enfrentados, uma coisa é certa: o mundo precisa se preparar para conviver com a nova realidade tecnológica. Para que os indivíduos, as empresas e o setor público se beneficiem das comodidades trazidas pela IA, é necessário também que se atentem para uma gestão dos riscos decorrentes da sua utilização. Hoje já se fala em governança e conformidade (compliance) da inteligência artificial e as adaptações não devem parar por aí.
Fernanda Marra Vidigal
Advogada da Equipe de Consultoria do VLF Advogados
Letícia Camargos
Trainee da Equipe de Consultoria do VLF Advogados
(1) Disponível em: http://www.gov.cn/zhengce/content/2017-07/20/content_5211996.htm. Acesso em: 17 maio 2022.
(2) As normas podem ser acessadas, em inglês, em: https://digichina.stanford.edu/work/translation-internet-information-service-algorithmic-recommendation-management-provisions-effective-march-1-2022/. Acesso em: 17 maio 2022.
(3) Disponível em: https://www.federalregister.gov/documents/2019/02/14/2019-02544/maintaining-american-leadership-in-artificial-intelligence. Acesso em: 17 maio 2022.
(4) Os órgãos regulatórios dos EUA já haviam publicado o House Resolution 153 (H.RES.153), de 2017, o FUTURE of Artificial Intelligence Act, também de 2017, e o Algorithmic Accountability Act, de 2019.
(5) A GDPR estabelece, por exemplo, que os indivíduos têm o direito de ser informados sobre a existência de decisões automatizadas e da lógica e consequências envolvidas nessas decisões (artigos 13 e 14). Além disso, disciplina a GDPR que os titulares de dados têm o direito de não se sujeitar a uma decisão baseada exclusivamente em tratamento automatizado (artigo 22). A GDPR está disponível em: https://gdpr-info.eu/. Acesso em: 2 maio 2022.
(6) Disponível em: https://eur-lex.europa.eu/legal-content/EN/TXT/?qid=1623335154975&uri=CELEX%3A52021PC0206. Acesso em: 17 maio 2022.
(7) Na oportunidade, a OCDE estabeleceu cinco princípios e cinco recomendações que devem guiar os países na adoção da IA. Entre os princípios, estão (i) desenvolvimento inclusivo, sustentável e bem estar; (ii) valores centrados no ser humano e na equidade; (iii) transparência e explicabilidade; (iv) robustez, segurança e proteção; e (v) prestação de contas (ou accountability). As recomendações, por sua vez, são (i) investimento em pesquisa e desenvolvimento de IA; (ii) promoção de ecossistema digital voltado para a IA; (iii) criação de ambiente político favorável a IA; (iv) capacitação de pessoas para interagirem com a IA no mercado de trabalho; e (v) cooperação internacional para uma IA confiável. Disponível em: https://legalinstruments.oecd.org/api/print?ids=648&lang=en. Acesso em: 2 maio 2022.
(8) Disponível em: https://oecd.ai/en/classification. Acesso em: 17 maio 2022.
(9) O ato do Presidente do Senado que instituiu a Comissão de Jursitas está disponível em: https://www25.senado.leg.br/web/atividade/materias/-/materia/152136. Acesso em: 18 maio 2022.
(10) As audiências públicas podem ser assistidas em: https://legis.senado.leg.br/comissoes/comissao?codcol=2504&data1=2022-02-17&data2=2022-06-17. Acesso em: 17 maio 2022.
(11) PL 21/2020, Art. 2º “Para os fins desta Lei, considera-se: I - sistema de inteligência artificial: o sistema baseado em processo computacional que pode, para um determinado conjunto de objetivos definidos pelo homem, fazer previsões e recomendações ou tomar decisões que influenciam ambientes reais ou virtuais”.
(12) A estrutura recomendada pela OCDE classifica os sistemas e aplicativos de IA nas seguintes dimensões: Pessoas e Planeta, Contexto Econômico, Dados e Entradas/Inputs, Modelo de IA, e Tarefas e Saídas/Outputs. Cada uma delas tem suas propriedades e atributos ou subdimensões relevantes para avaliar as políticas voltadas a sistemas específicos de IA. Saiba mais em: https://wp.oecd.ai/app/uploads/2022/02/Classification-2-pager-1.pdf. Acesso em: 18 maio 2022.
(13) Fonte: https://www.reuters.com/article/us-amazon-com-jobs-automation-insight-idUSKCN1MK08G. Acesso em: 19 maio 2022.
(14) Saiba mais em: https://www.bbc.com/portuguese/internacional-42033007. Acesso em: 19 maio 2022.
(15) Sobre o assunto, recomenda-se: COLOMBI, Henry; CHAVE, Natália Cristina. Ai And Legal Personhood: Perspectives In Brazilian Corporate Law. In: PARENTONI, Leonardo; CARDOSO, Renato César (Coords). MARTINS, Guilherme Vinseiro; VALENTINI, Rômulo Soares; FREITAS, Wallace Almeida de (Orgs). Law, Technology and Innovation, v. II: Insights on Artificial Intelligence and the Law. Belo Horizonte: Editora Expert, 2021.
(16) Conforme Painel 11 das audiências públicas promovidas pela Comissão de Juristas do Senado Federal, disponível em: https://legis.senado.leg.br/comissoes/reuniao?0&reuniao=10726&codcol=2504. Acesso em: 19 maio 2022.