A União Europeia está considerando uma legislação de longo alcance sobre inteligência artificial (IA).
A Lei de Inteligência Artificial proposta classificaria os sistemas de IA por risco e exigiria vários requisitos de desenvolvimento e uso.
Os legisladores europeus ainda estão debatendo os detalhes, com muitos enfatizando a necessidade de promover a inovação da IA e proteger o público.
A União Europeia (UE) está considerando um novo quadro legal que visa reforçar significativamente os regulamentos sobre o desenvolvimento e uso de inteligência artificial.
A legislação proposta, a Lei de Inteligência Artificial (IA) , concentra-se principalmente no fortalecimento de regras sobre qualidade de dados, transparência, supervisão humana e responsabilidade. Também visa abordar questões éticas e desafios de implementação em vários setores, desde saúde e educação até finanças e energia.
“[IA] existe há décadas, mas alcançou novas capacidades alimentadas pelo poder da computação”, disse Thierry Breton, comissário da UE para o mercado interno, em comunicado . A Lei de Inteligência Artificial visa “fortalecer a posição da Europa como um centro global de excelência em IA do laboratório ao mercado, garantir que a IA na Europa respeite nossos valores e regras e aproveitar o potencial da IA para uso industrial”.
A pedra angular da AI Act é um sistema de classificação que determina o nível de risco que uma tecnologia de IA pode representar para a saúde e segurança ou direitos fundamentais de uma pessoa. A estrutura inclui quatro níveis de risco: inaceitável, alto, limitado e mínimo.
Sistemas de IA com risco limitado e mínimo – como filtros de spam ou videogames – podem ser usados com poucos requisitos além das obrigações de transparência. Sistemas considerados como representando um risco inaceitável – como pontuação social do governo e sistemas de identificação biométrica em tempo real em espaços públicos – são proibidos com poucas exceções.
“Na inteligência artificial, a confiança é uma obrigação, não é algo bom de se ter.”— Margrethe Vestager, vice-presidente executiva para uma Europa adequada à era digital
Sistemas de IA de alto risco são permitidos, mas os desenvolvedores e usuários devem aderir aos regulamentos que exigem testes rigorosos, documentação adequada da qualidade dos dados e uma estrutura de responsabilidade que detalha a supervisão humana. A IA considerada de alto risco inclui veículos autônomos, dispositivos médicos e máquinas de infraestrutura crítica, para citar alguns.
A legislação proposta também descreve os regulamentos em torno da chamada IA de propósito geral, que são sistemas de IA que podem ser usados para diferentes fins com vários graus de risco. Essas tecnologias incluem, por exemplo, sistemas de IA geradores de modelos de linguagem grandes , como o ChatGPT.
Lei de Inteligência Artificial da UE: para aproveitar com segurança todo o potencial da IA
“Com esta lei, a UE está assumindo a liderança na tentativa de tornar os sistemas de IA adequados para o futuro que nós, como humanos, desejamos”, disse Kay Firth-Butterfield, chefe de IA do Fórum Econômico Mundial.
A Lei de Inteligência Artificial propõe penalidades severas por descumprimento. Para as empresas, as multas podem chegar a € 30 milhões ou 6% da receita global. O envio de documentação falsa ou enganosa aos reguladores também pode resultar em multas.
“Com essas regras históricas, a UE está liderando o desenvolvimento de novas normas globais para garantir que a IA seja confiável”, acrescentou Margrethe Vestager, vice-presidente executiva para uma Europa adequada para a era digital, em comunicado . “À prova de futuro e favoráveis à inovação, nossas regras intervirão onde for estritamente necessário: quando a segurança e os direitos fundamentais dos cidadãos da UE estiverem em jogo.”
A proposta de lei também visa estabelecer um Conselho Europeu de Inteligência Artificial, que supervisionaria a implementação do regulamento e garantiria a aplicação uniforme em toda a UE. O órgão seria encarregado de emitir pareceres e recomendações sobre questões que surjam, bem como fornecer orientações às autoridades nacionais.
“O Conselho deve refletir os vários interesses do ecossistema de IA e ser composto por representantes dos Estados Membros”, diz a legislação proposta.
A Lei de Inteligência Artificial foi originalmente proposta pela Comissão Europeia em abril de 2021. Uma chamada posição de abordagem geral sobre a legislação foi adotada pelo Conselho Europeu no final de 2022 e a legislação está atualmente em discussão no Parlamento Europeu.
“A inteligência artificial é de suma importância para o nosso futuro”, disse Ivan Bartoš, vice-primeiro-ministro tcheco para Digitalização, em comunicado após a adoção do Conselho. “Conseguimos alcançar um equilíbrio delicado que impulsionará a inovação e a aceitação da tecnologia de inteligência artificial em toda a Europa.”
Assim que o Parlamento Europeu adotar sua própria posição sobre a legislação, as negociações interinstitucionais da UE — um processo conhecido como trílogos — começarão a finalizar e implementar a lei. Os trílogos podem variar significativamente no tempo à medida que os legisladores negociam pontos de discórdia e revisam propostas. Ao lidar com peças legislativas complexas como a Lei de Inteligência Artificial, dizem as autoridades da UE, os trílogos costumam ser processos demorados.
Fonte:
Traduzido para o Português pela Redação Sustentabilidades
Spencer Feingold
WEF