Publicações

Como o ChatGPT e normas internacionais podem influenciar a IA no Brasil? Entenda

Como o ChatGPT e normas internacionais podem influenciar a IA no Brasil? Entenda

Valor Econômico
17/6/2023

A polêmica ao redor da ferramenta ChatGPT, que fornece respostas detalhadas sobre praticamente qualquer assunto, aumentou a preocupação dos “seres humanos em geral” com os impactos da inteligência artificial (IA): nos estudos, no trabalho, no lazer. Vou perder meu emprego para um robô? As crianças vão deixar de pesquisar elas próprias? Minha criatividade será superada pela IA? Perguntas como essas geraram tamanha tensão, que acabaram por estimular o debate, no mundo, sobre a regulação da IA. Inclusive no Brasil.

No país, enquanto não há lei específica sobre o tema, são aplicadas legislações como o Código Civil, a própria Constituição Federal e a Lei Geral de Proteção de Dados (LGPD). Recentemente, o Tribunal de Justiça de São Paulo (TJSP) manteve a condenação de uma concessionária de linha do metrô de São Paulo por uso indevido do sistema de câmeras de segurança para a captação de imagens de usuários. Determinou o pagamento de R$ 500 mil por dano moral coletivo.

O Projeto de Lei nº 2338/2023, que poderá criar o Marco Legal de Inteligência Artificial, ainda está no início do andamento no Congresso Nacional. Assim, regulações de outros países podem influenciar os parlamentares brasileiros.

Fabrício Polido, advogado especialista em direito digital, sócio do escritório L.O. Baptista e professor da UFMG, explica, por meio de sete respostas, como as regulamentações referentes à IA têm sido elaboradas ao redor do mundo e como está essa discussão no Brasil.

1. Quais países já têm se mobilizado para regulamentar a inteligência artificial?

O debate sobre a regulamentação de IA têm se tornado cada vez mais presente nos países ao redor do mundo. União Europeia, Estados Unidos, Argentina, Brasil, China, Canadá, Reino Unido e Coreia são apenas alguns exemplos dos países que têm desempenhado iniciativas nesse sentido. Além disso, o lançamento do ChatGPT pela empresa norte-americana OpenAI, no final de 2022, reacendeu o debate global sobre a necessidade de regulamentar a IA.

2. É na Europa onde o debate sobre o tema está mais avançado, certo?

Em março de 2018, a Comissão da União Europeia (UE) criou um grupo de peritos em IA para elaborar uma proposta de orientações para o uso ético dessa tecnologia, publicado em 2019. A partir desse documento, o primeiro rascunho do regulamento da UE sobre IA foi publicado em fevereiro de 2020 e convidou todas as partes interessadas a expressarem seus comentários sobre o regulamento sugerido e recebeu, no total, mais de mil contribuições de empresas, organizações empresariais, indivíduos, institutos acadêmicos e autoridades públicas. Com base nas contribuições, em 2021, foi publicada uma nova versão do projeto de lei.

Atualmente, o IA Act está passando por um processo legislativo detalhado, durante o qual é provável que seja emendado. As regras seguem uma abordagem baseada em risco e estabelecem obrigações para provedores e usuários, dependendo do nível de risco que a IA pode gerar. Sistemas de IA com um nível inaceitável de risco para a segurança das pessoas seriam estritamente proibidos, incluindo sistemas que implantam técnicas subliminares ou propositalmente manipuladoras, exploram as vulnerabilidades das pessoas ou são usados para pontuação social (classificando as pessoas com base em seu comportamento social, status socioeconômico, características pessoais) .

No Reino Unido , o governo ainda não divulgou uma estrutura legal, mas publicou uma Estratégia Nacional de IA, um documento detalhado que estabelece o plano de criar um ecossistema de garantia de IA próspero e eficaz nos próximos cinco anos. Além disso, em 2022, o país anunciou um novo AI Standards Hub, iniciativa que visa fornecer um recurso on-line para materiais educacionais e ferramentas práticas projetadas para ajudar as organizações a “desenvolver e se beneficiar dos padrões globais de IA, em parceria com o Instituto Alan Turing, a British Standards Institution (BSI) e o National Physical Laboratory (NPL).

3. Como está o debate nos Estados Unidos e no Canadá?

Nos Estados Unidos, a regulamentação de IA tem ocorrido por meio de uma abordagem fragmentada entre os Estados. Em 2022, 15 Estados e localidades propuseram ou aprovaram legislações relativas à IA. A nível nacional, em 2021, foi promulgada a “Bill of Rights and State Initiatives”, um guia não obrigatório de auxílio para legisladores em todos os níveis de governo para a regulamentação de IA. O documento fornece uma estrutura abrangente para fortalecer e coordenar atividades de pesquisa, desenvolvimento, demonstração e educação em IA em todos os departamentos e agências dos EUA.

No Canadá , o Parlamento introduziu o “The Artificial Intelligence and Data Act (AIDA)”, projeto de lei que visa regulamentar a IA utilizando a abordagem baseada em risco que, diferentemente da União Europeia, não proíbe o uso de ferramentas automatizadas de tomada de decisão, mas sim estabelece o dever dos desenvolvedores de criarem um plano de mitigação para reduzir os riscos e aumentar a transparência no uso da IA em sistemas sociais, comerciais e políticos do país.

4. No ano passado, a China aprovou regras para IA. Como está essa regulamentação na Ásia em geral?

Em março de 2022, a China aprovou um regulamento que rege o uso de algoritmos pelas empresas em sistemas de recomendação on-line, exigindo que tais serviços sejam morais, éticos, responsáveis e transparentes. O regulamento exige que as empresas notifiquem os usuários quando um algoritmo de IA desempenha um papel na determinação de quais informações exibir para eles e dar aos usuários a opção de não serem direcionados. Além disso, o regulamento proíbe algoritmos que usam dados pessoais para oferecer preços diferentes aos consumidores.

Na Índia, quatro comitês foram instituídos pelo Ministério de Eletrônica e Tecnologia da Informação (MeitY) para enfatizar e analisar múltiplas questões éticas da IA. Além disso, o Projeto de Lei de Proteção de Dados Pessoais de 2019 está sendo apreciado em um Comitê Parlamentar Conjunto.

Na Coreia do Sul , em fevereiro de 2023, o Comitê de Ciência, TIC, Radiodifusão e Comunicações da Assembleia Nacional Coreana aprovou uma proposta de legislação para promulgar a “Lei sobre a Promoção da Indústria de IA e a Estrutura para o Estabelecimento de IA Confiável” (a “Lei de IA”). A lei ainda será votada na Assembleia Nacional e deve ser aprovada ainda neste ano.

5. Na América Latina, as discussões também estão caminhando?

Na Argentina, em 2018, o governo federal implantou o Plano Nacional de Inteligência Artificial, e realizou a Conferência sobre Inteligência Artificial da Secretaria de Modernização, do Ministério da Produção e Trabalho e do Ministério da Educação, Cultura, Ciência e Tecnologia, como parte de uma ampla estrutura institucional tanto na Agenda Digital Argentina (Decreto 996/2018).

No México , em 2018, o governo federal publicou um estudo denominado “Towards an AI strategy in Mexico: Harnessing the AI Revolution”, que serve como base para a construção de uma estratégia de regulação da IA no país. O documento contou com a colaboração da Embaixada do Reino Unido e das consultorias Oxford Insights (Reino Unido) e C Minds (Colômbia) e concentra sua análise e fornece recomendações para cinco áreas: governo e os serviços públicos; dados e a infraestrutura digital; pesquisa e desenvolvimento; capacidade, habilidades e educação; ética.

No Chile , o Ministério da Ciência, Tecnologia, Conhecimento e Inovação (MCTCI) promulgou um documento intitulado “Inteligência Artificial para o Chile: A urgência de desenvolver uma estratégia”, com sugestões para as políticas no país. Em 2019, o governo implantou um plano para desenvolver a “Política Nacional de Inteligência Artificial do Chile” até 2020. A Comissão Nacional de Pesquisa Científica e Tecnológica é o órgão responsável pela estratégia chilena. Em fevereiro de 2020, o Chile lançou um processo de consulta pública para coletar percepções e perguntas das organizações da sociedade civil, da academia, do setor produtivo e dos cidadãos em geral sobre o uso e o desenvolvimento da IA no país. A ideia era incorporar contribuições a uma política nacional até agosto de 2020. A política contém as diretrizes estratégicas que o país deve seguir nesta área durante os próximos 10 anos com o objetivo de capacitar as pessoas no uso e desenvolvimento das ferramentas de IA e participar do debate sobre suas consequências legais, éticas, sociais e econômicas. O Plano de Ação que acompanha a política reúne 70 ações prioritárias e 180 iniciativas a serem desenvolvidas no período de 2021-2030.

6. E o Brasil, como fica?

No Brasil, desde 2019, têm surgido na Câmara dos Deputados inúmeros projetos de lei que visam regulamentar a IA, mas o que mais se destacou foi o Projeto de Lei 21/2020, que cria o Marco Legal de Inteligência Artificial e estabelece fundamentos, princípios e diretrizes para o desenvolvimento e a aplicação da inteligência artificial no Brasil. Nos últimos dois anos, as discussões em torno do PL 21/2020 se intensificaram.

Após aprovação do texto na Câmara dos Deputados, o Senado Federal instaurou uma Comissão de Juristas responsável por elaborar um projeto substitutivo para regulamentação da IA no Brasil. Instalada em março de 2022, a equipe promoveu painéis temáticos, reuniões, seminários e audiências públicas. Em dezembro de 2022, a Comissão entregou seu relatório final com a primeira minuta do documento que será objeto de debate no Congresso, dando origem ao atual texto do PL nº 2338/2023.

O PL brasileiro segue movimentos internacionais de regulação da inteligência artificial, como o AI Act da União Europeia, ao estabelecer normas gerais para o uso responsável de IA no Brasil, protegendo os direitos fundamentais e garantindo a implementação de sistemas seguros e confiáveis em benefício da sociedade e do desenvolvimento científico e tecnológico.

Com pouco mais de 40 artigos, o texto detalha, ainda, obrigações e responsabilidades dos fornecedores e operadores de inteligência artificial; classifica sistemas de IA pela abordagem de risco; e estabelece medidas de transparência e boas práticas de governança aos agentes de IA.

Disponível em: https://valor.globo.com/legislacao/noticia/2023/06/17/como-o-chatgpt-e-normas-internacionais-podem-influenciar-a-ia-no-brasil-entenda.ghtml

Outras notícias
Tags