regulamentação das gigantes da IA na Califórnia

Regulamentação das gigantes da IA na Califórnia: novas tentativas?

Nova Proposta de Regulação da Inteligência Artificial em Califórnia

Em setembro do ano passado, o projeto de lei SB 1047 chamou a atenção ao chegar à mesa do governador da Califórnia, Gavin Newsom, mas acabou sendo vetado. A proposta previa que criadores de grandes modelos de inteligência artificial, especialmente aqueles que exigem mais de US$ 100 milhões para treinamento, realizassem testes para identificar riscos específicos.

O veto gerou descontentamento entre denunciantes da indústria de IA, enquanto grandes empresas de tecnologia comemoraram a decisão. No entanto, a história não terminou ali. Newsom, considerando as exigências da legislação excessivamente rígidas e de abordagem única, encarregou um grupo de renomados pesquisadores de IA de elaborar um novo plano. O objetivo é apoiar o desenvolvimento e a governança da IA generativa na Califórnia, além de estabelecer medidas de segurança.

Relatório Publicado Sobre a Nova Política

Nesta terça-feira, foi divulgado um relatório elaborado por esse grupo, intitulado “Relatório da Califórnia sobre Política de IA de Fronteira”. Com 52 páginas, os autores enfatizam que as capacidades da IA — incluindo a habilidade de raciocínio em cadeias de pensamento — melhoraram rapidamente desde o veto do SB 1047.

Usando estudos de caso históricos e pesquisas empíricas, os autores sugerem um novo arcabouço que exige maior transparência e fiscalizações independentes dos modelos de IA. Esse relatório surge em um contexto de possível moratória de dez anos sobre a regulação da IA pelos estados, apoiada por um Congresso republicano e empresas como a OpenAI.

Impactos da IA em Diversos Setores

O relatório, co-liderado por destacados nomes como Fei-Fei Li, Mariano-Florentino Cuéllar e Jennifer Tour Chayes, conclui que avanços na IA na Califórnia podem impactar setores como agricultura, biotecnologia, tecnologia limpa, educação, finanças, medicina e transporte. Os autores ressaltam a importância de não sufocar a inovação e garantir que as exigências regulatórias sejam suficientemente adequadas para permitir que as organizações se adequem.

Apesar dos avanços, a redução de riscos continua a ser uma prioridade. O relatório destaca que, sem as devidas salvaguardas, a IA poderosa pode causar danos severos, alguns dos quais podem ser irreversíveis.

A Necessidade de Avaliações Independentes

Um ponto crítico do relatório é a defesa de avaliações de risco realizadas por terceiros. Os autores argumentam que tais avaliações incentivariam empresas como OpenAI e Google a melhorar a segurança de seus modelos. Atualmente, as principais empresas de IA realizam suas próprias avaliações ou contratam terceiros, mas a avaliação independente é considerada vital.

Embora milhares de indivíduos estejam dispostos a realizar avaliações de risco, as empresas hesitam em fornecer acesso suficiente para que evaluadores possam realizar testes significativos. Até mesmo para avaliadores de segunda parte, o acesso às informações necessárias é limitado.

O relatório chama a atenção para a falta de transparência na indústria de IA, onde ainda há pouca concordância sobre melhores práticas e uma opacidade sistêmica em áreas essenciais, como aquisição de dados e processos de segurança.

Chamadas por Proteções e Transparência

Os autores do relatório também destacam a necessidade de proteções para denunciantes, avaliações de terceiros com garantias para pesquisadores e o compartilhamento direto de informações com o público. Isso tudo visa promover uma transparência que vá além da escolha das empresas de revelarem dados.

Com o avanço das conversas sobre políticas federais de IA, um dos escritores do relatório afirmou que a Califórnia pode liderar um esforço de harmonização entre os estados, em contraste com a confusão iminente que as leis estaduais podem criar.

Apesar de propostas já estarem sendo discutidas, os autores advertem que, mesmo com boas políticas de segurança, não é possível evitar todos os resultados adversos. Com a adoção crescente dos modelos de IA, entender os danos que surgem na prática se torna cada vez mais crucial.
 
Veja em nossa página principal mais dicas e conteúdos imperdíveis!

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *