Incluído por Trump, as empresas de IA lobby para menos regras

Por pouco mais de dois anos, os líderes de tecnologia na vanguarda do desenvolvimento da inteligência artificial fizeram um pedido incomum dos legisladores. Eles queriam que Washington os regulasse.

Os executivos de tecnologia alertaram os legisladores que a IA generativa, que pode produzir texto e imagens que imitam criações humanas, tinham o potencial de interromper a segurança e as eleições nacionais e, eventualmente, poderiam eliminar milhões de empregos.

A IA pode dar “errado”, Sam Altman, diretor executivo da Openai, testemunhou no Congresso em maio de 2023. “Queremos trabalhar com o governo para impedir que isso aconteça”.

Mas desde a eleição do presidente Trump, os líderes de tecnologia e suas empresas mudaram sua música e, em alguns casos, reverteram o curso, com pedidos ousados ​​do governo para ficar fora do caminho, no que se tornou o esforço mais força para avançar seus produtos.

Nas últimas semanas, Meta, Google, Openai e outros, pediram ao governo Trump que bloqueie as leis estaduais da IA ​​e declarasse que é legal que eles usem material protegido por direitos autorais para treinar seus modelos de IA. Eles também estão fazendo lobby para usar dados federais para desenvolver a tecnologia, bem como para facilitar o acesso a fontes de energia para suas demandas de computação. E eles pediram incentivos fiscais, subsídios e outros incentivos.

A mudança foi permitida por Trump, que declarou que a IA é a arma mais valiosa do país para superar a China em tecnologias avançadas.

Em seu primeiro dia no cargo, Trump assinou uma ordem executiva para Regras de teste de segurança de reversão para a IA usado pelo governo. Dois dias depois, ele assinou outra ordem, solicitando sugestões da indústria para criar políticas para “sustentar e aprimorar o domínio global da IA ​​da América”.

As empresas de tecnologia “são realmente encorajadas pelo governo Trump, e até questões como segurança e IA responsável desapareceram completamente de suas preocupações”, disse Laura Caroli, membro sênior do Wadhwani AI Center no Center for Strategic and International Studies, um think tank sem fins lucrativos. “A única coisa que conta é estabelecer a liderança dos EUA na IA”

Muitos especialistas em políticas de IA temem que esse crescimento desenfreado possa ser acompanhado por, entre outros problemas em potencial, pela rápida disseminação da desinformação política e da saúde; discriminação por examinadores automatizados de aplicativos financeiros, de emprego e habitação; e ataques cibernéticos.

A reversão dos líderes de tecnologia é gritante. Em setembro de 2023, mais de uma dúzia deles endossou o regulamento da IA ​​em uma cúpula em Capitol Hill, organizada pelo senador Chuck Schumer, democrata de Nova York e líder majoritário na época. Na reunião, Elon Musk alertou sobre “riscos civilizacionais” colocados por AI

Após, o governo Biden começou a trabalhar com as maiores empresas de IA para testar voluntariamente seus sistemas para fraquezas de segurança e segurança e padrões de segurança obrigatórios para o governo. Estados como a Califórnia introduziram legislação para regular a tecnologia com padrões de segurança. E editores, autores e atores processaram empresas de tecnologia pelo uso de material protegido por direitos autorais para treinar seus modelos de IA.

(O New York Times processou o Openai e seu parceiro, Microsoft, acusando -os de violação de direitos autorais em relação ao conteúdo de notícias relacionado aos sistemas de IA. OpenAI e Microsoft negaram essas reivindicações.)

Mas depois que Trump venceu a eleição em novembro, as empresas de tecnologia e seus líderes imediatamente aumentaram seu lobby. Google, Meta e Microsoft doaram US $ 1 milhão para a inauguração de Trump, assim como o Sr. Altman e Tim Cook da Apple. Mark Zuckerberg, da Meta, fez uma festa de inauguração e se encontrou com Trump várias vezes. Musk, que tem sua própria empresa de IA, Xai, passou quase todos os dias do lado do presidente.

Por sua vez, Trump saudou os anúncios da IA, incluindo um plano da Openai, Oracle e SoftBank para investir US $ 100 bilhões em data centers de IA, que são grandes edifícios cheios de servidores que fornecem poder de computação.

“Temos que estar inclinados para o futuro da IA ​​com otimismo e esperança”, disse o vice -presidente JD Vance a funcionários do governo e líderes de tecnologia na semana passada.

Em uma cúpula de IA em Paris no mês passado, o Sr. Vance também pediu políticas de IA “pró-crescimento” e alertou os líderes mundiais contra a “regulamentação excessiva” que poderia “matar uma indústria transformadora exatamente como está decolando”.

Agora, as empresas de tecnologia e outras pessoas afetadas pela IA estão oferecendo respostas à segunda ordem executiva da IA ​​do presidente, “removendo barreiras à liderança americana em inteligência artificial”, que exigiu o desenvolvimento de uma política de IA pró-crescimento dentro de 180 dias. Centenas deles apresentaram comentários à National Science Foundation e ao Office of Science and Technology Policy para influenciar essa política.

O OpenAI entrou com 15 páginas de comentários, pedindo ao governo federal que preencha os estados da criação de leis de IA. A empresa de São Francisco também invocou Deepseek, um chatbot chinês criado para uma pequena fração do custo dos chatbots desenvolvidos pelos EUA, dizendo que era um importante “medidor do estado dessa competição” com a China.

Se os desenvolvedores chineses “tiverem acesso sem restrições a dados e as empresas americanas ficarem sem acesso ao uso justo, a corrida pela IA terminará efetivamente”, disse Openai, solicitando que o governo dos EUA entregue dados para alimentar seus sistemas.

Muitas empresas de tecnologia também argumentaram que o uso de trabalhos protegidos por direitos autorais para o treinamento de modelos de IA era legal e que o governo deveria ficar do lado. Openai, Google e Meta disseram acreditar que tinham acesso legal a obras protegidas por direitos autorais, como livros, filmes e arte para treinamento.

A Meta, que possui seu próprio modelo de IA, chamado LLAMA, pressionou a Casa Branca a emitir uma ordem executiva ou outra ação para “esclarecer que o uso de dados publicamente disponíveis para treinar modelos é inequivocamente um uso justo”.

O Google, Meta, Openai e Microsoft disseram que o uso de dados protegidos por direitos autorais era legal porque as informações foram transformadas no processo de treinamento de seus modelos e não estavam sendo usadas para replicar a propriedade intelectual dos detentores de direitos. Atores, autores, músicos e editores argumentaram que as empresas de tecnologia deveriam compensá -los por obter e usar seus trabalhos.

Algumas empresas de tecnologia também fizeram lobby no governo Trump para endossar a IA “código aberto”, que essencialmente disponibiliza o código do computador gratuitamente para ser copiado, modificado e reutilizado.

A Meta, dona do Facebook, Instagram e WhatsApp, pressionou mais para uma recomendação de políticas sobre fornecimento aberto, que outras empresas de IA, como antropia, descreveram como aumentar a vulnerabilidade aos riscos de segurança. A Meta disse que a tecnologia de código aberto acelera o desenvolvimento da IA ​​e pode ajudar as start-ups a acompanhar as empresas mais estabelecidas.

Andreessen Horowitz, uma empresa de capital de risco do Vale do Silício com participações em dezenas de startups de IA, também pediu apoio a modelos de código aberto, nos quais muitas de suas empresas dependem para criar produtos de IA.

E Andreessen Horowitz fez os argumentos mais severos contra novos regulamentos para as leis existentes sobre segurança, proteção do consumidor e direitos civis são suficientes, disse a empresa.

“Proibir os danos e punir os maus atores, mas não exige que os desenvolvedores passem por aros regulatórios onerosos com base no medo especulativo”, disse Andreessen Horowitz em seus comentários.

Outros continuaram avisando que a IA precisava ser regulamentada. Grupos de direitos civis pediram auditorias de sistemas para garantir que não discriminem populações vulneráveis ​​em decisões de moradia e emprego.

Artistas e editores disseram que as empresas de IA precisavam divulgar o uso do material de direitos autorais e pediram à Casa Branca que rejeitasse os argumentos da indústria de tecnologia de que seu uso não autorizado de propriedade intelectual para treinar seus modelos estava dentro dos limites da lei de direitos autorais. A política do Center for AI, um grupo de think tank e um grupo de lobby, pediu auditorias de sistemas de terceiros para vulnerabilidades de segurança nacional.

“Em qualquer outro setor, se um produto prejudicar ou prejudicar negativamente os consumidores, esse projeto está com defeito e os mesmos padrões devem ser aplicados à IA”, disse KJ Bagchi, vice -presidente do Centro de Direitos e Tecnologia Civil, que enviou um dos pedidos.

Source link

Artigos Relacionados

Botão Voltar ao Topo