A Regulamentação da Inteligência Artificial na União Europeia

  • Categoria do post:IA e Automações
  • Última modificação do post:31 de janeiro de 2025
  • Tempo de leitura:12 minutos de leitura
Regulamentação da Inteligência Artificial

A União Europeia (UE) aprovou a Regulamentação da Inteligência Artificial, a primeira lei com grande relevância que tem a ambição de regular o setor. Essa legislação abrangente é um marco significativo, estabelecendo categorias de risco e requisitos para o desenvolvimento e uso responsável da IA.

O projeto começou em abril de 2021, a Comissão Europeia propôs o primeiro quadro regulatório da UE para a IA. O novo regulamento prevê que os sistemas de IA sejam analisados e classificados de acordo com o risco que representam para os usuários. Esses diferentes níveis de risco implicarão em mais ou menos regulamentação.

A IA promete uma série de benefícios, como melhorias na saúde, transporte mais seguro e limpo, manufatura mais eficiente e energia mais barata e sustentável.

Por que uma Regulamentação da Inteligência Artificial?

A prioridade do Parlamento é garantir que os sistemas de IA utilizados na UE sejam seguros, transparentes, rastreáveis, não discriminatórios e ecologicamente corretos. Os sistemas de IA devem ser supervisionados por pessoas, em vez de automação, para evitar resultados prejudiciais.

Além disso, o Parlamento deseja estabelecer uma definição tecnologicamente neutra e uniforme para a IA, que possa ser aplicada a futuros sistemas de IA.

Como isso afeta você?

As aplicações de IA têm influência sobre quais informações você vê online, capturando e analisando dados para personalizar anúncios ou até mesmo para diagnósticos médicos. Em resumo, a IA afeta diversas áreas da sua vida, no mundo digital e fora dela.

Assim como o Regulamento Geral de Proteção de Dados (GDPR) da UE em 2018, o Ato de Inteligência Artificial da UE pode se tornar um padrão global, determinando a forma como a IA afeta positiva ou negativamente sua vida, independentemente de onde você esteja. Além disso, os trabalhos do parlamento europeu sempre foram referência para legisladores de todas as partes do mundo, inclusive do Brasil.

O que é o Ato de Inteligência Artificial da União Europeia?

O Ato de Inteligência Artificial da UE é uma proposta de legislação europeia sobre inteligência artificial (IA) – a primeira legislação abrangente sobre IA por um grande regulador em qualquer lugar. Ele classifica as aplicações de IA em categorias de risco. Primeiro, proíbe aplicações e sistemas de IA que criam um risco inaceitável, como sistemas de pontuação social geridos pelo governo, semelhantes aos utilizados na China. Segundo, impõe requisitos legais específicos para aplicações de alto risco, como ferramentas de análise de currículos que classificam candidatos a emprego. Por fim, deixa em grande parte não regulamentadas as aplicações de IA que não são explicitamente proibidas ou consideradas de alto risco.

Equilibrando Inovação e Segurança

A legislação reflete um compromisso entre promover a inovação e proteger os cidadãos dos riscos potenciais da IA. Reconhecendo a importância econômica e social da IA, busca-se estabelecer um quadro claro e abrangente para seu desenvolvimento responsável.

Implicações para o Setor de Tecnologia

Grandes empresas de tecnologia estão sujeitas ao Regulamento da IA e devem cumprir os novos requisitos. Isso inclui avaliações de risco, mitigação de danos e transparência para os usuários. A expectativa é que a legislação promova a concorrência e a inovação, reduzindo as barreiras impostas pelas Big Techs.

O Papel da UE na Liderança Global

Com a aprovação da Lei da IA, a UE se destaca como líder global na regulamentação de tecnologias emergentes. Essa legislação servirá como modelo para outras jurisdições, abordando desafios éticos e legais da IA e reforçando o compromisso com os direitos fundamentais.

O que esperar quanto a Vigência?

Prevê-se que a Lei da IA entre em vigor até maio de 2024, com implementação gradual a partir de 2025. Essa abordagem faseada dará às empresas e desenvolvedores tempo para se adaptarem aos novos requisitos e padrões.

Espera-se que o texto acordado seja finalmente adotado em abril de 2024. Será totalmente aplicável 24 meses após a entrada em vigor, mas algumas partes serão aplicáveis mais cedo:

  • A proibição de sistemas de IA que representem riscos inaceitáveis se aplicará seis meses após a entrada em vigor.
  • Os códigos de prática serão aplicáveis nove meses após a entrada em vigor.
  • As regras sobre sistemas de IA de propósito geral que precisam cumprir requisitos de transparência serão aplicáveis 12 meses após a entrada em vigor.

Atos de IA: regras diferentes para diferentes níveis de risco

As novas regras estabelecem obrigações para fornecedores e usuários, dependendo do nível de risco da inteligência artificial. Embora muitos sistemas de IA representem riscos mínimos, eles precisam ser avaliados.

Categorias de Risco da IA

O Regulamento da UE categoriza a IA em quatro níveis de risco:

  1. Inaceitável: IA proibida devido a riscos inaceitáveis.
  2. Alto Risco: IA sujeita a regulamentações rigorosas, incluindo avaliação de conformidade e supervisão humana.
  3. Risco Médio: IA sujeita a requisitos de transparência e responsabilidade.
  4. Baixo Risco: IA não sujeita a regulamentações específicas, mas deve aderir a princípios éticos.

Riscos Inaceitáveis

Sistemas de IA considerados uma ameaça às pessoas serão proibidos. Isso inclui:

  • Manipulação comportamental cognitiva de pessoas ou grupos vulneráveis específicos, como brinquedos ativados por voz que incentivam comportamentos perigosos em crianças.
  • Pontuação social: classificação de pessoas com base em comportamento, status socioeconômico ou características pessoais.
  • Identificação biométrica e categorização de pessoas.
  • Sistemas de identificação biométrica remota em tempo real, como reconhecimento facial.

Alguns usos podem ser permitidos para fins de aplicação da lei. Sistemas de identificação biométrica remota em tempo real serão permitidos em um número limitado de casos graves, enquanto os sistemas de identificação biométrica remota “posterior”, onde a identificação ocorre após um atraso significativo, serão permitidos apenas para processar crimes graves e somente após aprovação judicial.

Alto risco

Sistemas de IA que afetam negativamente a segurança ou os direitos fundamentais serão considerados de alto risco e serão divididos em duas categorias:

  1. Sistemas de IA usados em produtos abrangidos pela legislação de segurança de produtos da UE. Isso inclui brinquedos, aviação, carros, dispositivos médicos e elevadores.
  2. Sistemas de IA em áreas específicas que terão que ser registrados em um banco de dados da UE.

Todos os sistemas de IA de alto risco serão avaliados antes de serem colocados no mercado e também ao longo de seu ciclo de vida. As pessoas terão o direito de apresentar queixas sobre sistemas de IA às autoridades nacionais designadas.

Risco Médio e Requisitos de transparência

IA generativa, como o ChatGPT, não será classificada como de alto risco, mas terá que cumprir requisitos de transparência e leis de direitos autorais da UE:

  • Revelar que o conteúdo foi gerado por IA.
  • Projetar o modelo para evitar a geração de conteúdo ilegal.
  • Publicar resumos de dados protegidos por direitos autorais usados para treinamento.

Modelos de IA de alto impacto de propósito geral que possam representar riscos sistêmicos, como o modelo de IA mais avançado GPT-4, teriam que passar por avaliações rigorosas e qualquer incidente sério teria que ser relatado à Comissão Europeia.

Conteúdo que é gerado ou modificado com a ajuda de IA – imagens, áudio ou arquivos de vídeo (por exemplo, deepfakes) – precisa ser claramente rotulado como gerado por IA para que os usuários saibam quando encontram esse tipo de conteúdo.

Fique atento aos próximos passos

A implementação eficaz do Regulamento da IA é essencial para seu sucesso. Governos, agências reguladoras e empresas devem colaborar para garantir a conformidade e abordar quaisquer desafios que surjam. Com essa abordagem, a Lei da IA pode contribuir para um futuro digital mais justo, equitativo e próspero para todos.

Agora, você está atualizado sobre a nova regulamentação da IA na Europa e como ela pode impactar o desenvolvimento e uso dessa tecnologia. Fique atento às próximas etapas e prepare-se para se adequar aos novos requisitos para garantir conformidade e promover a inovação responsável.

Você pode consultar o Ato sobre Inteligência Artificial da União Europeia aqui.

Existe regulação da IA no Brasil?

No final de setembro de 2021, a Câmara dos Deputados aprovou um projeto de lei que estabelece um arcabouço legal para a inteligência artificial. Esse projeto ainda precisa ser aprovado pelo Senado brasileiro.

Autor

  • Alexandre Nakata é criador do MVG Estratégico para Advogados, onde ensina estratégias de marketing, vendas e gestão para profissionais da advocacia que desejam escalar seus resultados.

    Graduado em Direito pela Universidade Estadual de Maringá (UEM), obteve nota máxima em sua monografia sobre Responsabilidade Civil no Direito Digital. Possui especializações em Direito Notarial e Registral pelo Damásio Educacional e em Direito Tributário pela Faculdade UniBF, além de ter cursado disciplinas de mestrado na Universidade Estadual de Londrina (UEL) como aluno especial.

    Fundou e dirigiu a Nakata Advocacia e Consultoria Empresarial, escritório que atuava com processos judiciais e consultoria para startups e empresas de energia solar fotovoltaica. Em 2022, vendeu o negócio por seis dígitos para focar na educação jurídica e no desenvolvimento de advogados de alta performance.

    É autor dos livros: Livros: "Responsabilidade Civil no Direito Digital - Evolução, fundamentos e desafios" (2021) e "80 Lições sobre Marketing Jurídico, Vendas e Gestão que o Direito Não Ensina" (2024).

    Atualmente, dedica-se à produção de conteúdo, treinamentos e mentorias para advogados que buscam crescer na profissão de forma estratégica e sustentável.

    👈 Confira Meus Treinamentos GRATUITOS