A administração Trump revelou na sexta-feira um quadro legislativo concebido para estabelecer uma política nacional unificada para inteligência artificial (IA) nos Estados Unidos. O plano procura anular as leis de IA a nível estatal, consolidando o poder em Washington e potencialmente minando os recentes esforços liderados pelo Estado para regular a tecnologia em rápida evolução.
O principal argumento por trás desta centralização é que um cenário regulatório fragmentado dificulta a inovação americana. De acordo com uma declaração da Casa Branca, “Uma colcha de retalhos de leis estaduais conflitantes prejudicaria a inovação americana e a nossa capacidade de liderar na corrida global da IA”. A estrutura propõe uma abordagem federal que substitui regulamentações estaduais mais rígidas, priorizando o dimensionamento e o desenvolvimento da IA.
Mudando a responsabilidade: pais sobre plataformas
Um elemento-chave do quadro é uma mudança notável na responsabilidade. Em vez de impor obrigações rigorosas às empresas de IA, enfatiza o controlo parental em questões como a segurança infantil. A proposta apela ao Congresso para equipar os pais com ferramentas para gerir os ambientes digitais dos seus filhos, tais como controlos de contas e limitações de utilização de dispositivos. Embora reconheça a necessidade de reduzir os riscos de exploração sexual e automutilação, não chega a impor requisitos concretos e aplicáveis às plataformas.
Esta abordagem reflecte uma tendência mais ampla no sentido de uma regulamentação mais leve, defendida por figuras como o czar da IA da Casa Branca, David Sacks, um capitalista de risco conhecido pelas suas opiniões pró-crescimento e “aceleracionistas”. A estrutura visa um “padrão nacional minimamente oneroso”, acelerando a adoção da IA em todos os setores.
Preempção de leis estaduais e escudos de responsabilidade
A estrutura procura ativamente antecipar-se às regulamentações estaduais de IA, preservando a autoridade estatal apenas sobre leis gerais, como fraude, proteção infantil, zoneamento e uso estatal de IA. Estabelece explicitamente uma linha dura contra os Estados que regulam o próprio desenvolvimento da IA, enquadrando-o como uma questão “inerentemente interestadual” ligada à segurança nacional e à política externa.
De forma crítica, a estrutura propõe proteger os desenvolvedores de IA da responsabilidade por conduta ilegal envolvendo seus modelos. Esta disposição impede que os estados penalizem os desenvolvedores pelo uso indevido de sua tecnologia por terceiros, uma demanda fundamental da indústria de IA.
Resposta da Indústria: Apoio às Normas Nacionais
Muitos na indústria da IA estão a celebrar o quadro, vendo-o como um caminho para uma inovação mais rápida. Teresa Carlson, presidente do General Catalyst Institute, afirmou que as startups têm pedido exatamente isso: “Um padrão nacional claro para que possam construir rapidamente e em escala”. A estrutura elimina o obstáculo de navegar por leis estaduais conflitantes, aliviando a carga regulatória sobre as empresas de IA.
Preocupações com responsabilidade e supervisão
Os críticos argumentam que esta centralização diminui o papel dos Estados como reguladores iniciais, sufocando a experimentação e a supervisão. Brendan Steinhauser, CEO da The Alliance for Secure AI, acusou a administração de fazer “a oferta da Big Tech às custas dos americanos normais e trabalhadores”. O quadro carece de disposições relativas à supervisão independente, mecanismos de aplicação ou quadros de responsabilidade para novos danos causados pela IA.
A posição da administração em relação aos direitos de autor e à liberdade de expressão complica ainda mais a situação. Embora reconheça o uso justo dos dados de formação em IA, também enfatiza a prevenção da censura governamental, potencialmente dificultando a regulamentação da desinformação ou da interferência eleitoral.
Processo Antrópico: Conflito da Primeira Emenda
A ênfase da estrutura na proteção da “expressão política legal” surge no momento em que a Anthropic processa o governo, alegando violação da Primeira Emenda depois que o Departamento de Defesa a classificou como um risco para a cadeia de suprimentos por se recusar a permitir aplicações de vigilância militar. Este confronto destaca o impulso mais amplo do governo contra a “IA desperta”, já que Trump criticou publicamente a Antrópico pela neutralidade ideológica.
Em conclusão, o quadro de IA proposto pela administração Trump dá prioridade à normalização nacional e ao crescimento da indústria em detrimento da regulamentação a nível estatal e da supervisão abrangente. A mudança para a responsabilidade parental e os escudos de responsabilidade para os criadores levanta preocupações sobre a responsabilização e o potencial para o desenvolvimento descontrolado da IA.
