Aqui estão algumas coisas que acredito sobre inteligência artificial:
Acredito que, nos últimos anos, os sistemas de IA começaram a superar os seres humanos em vários domínios – matemática, codificação e diagnóstico médico, apenas para citar alguns – e que estão melhorando todos os dias.
Acredito que muito em breve-provavelmente em 2026 ou 2027, mas possivelmente assim que este ano-uma ou mais empresas de IA alegam que criaram uma inteligência geral artificial, ou AGI, que geralmente é definida como algo como “um sistema de IA de uso geral que pode realizar quase todas as tarefas cognitivas que um humano pode fazer”.
Acredito que, quando a AGI for anunciada, haverá debates sobre definições e argumentos sobre se conta ou não como AGI “real”, mas que elas principalmente não importam, porque o ponto mais amplo-que estamos perdendo nosso monopólio da inteligência em nível humano e a transição para um mundo com sistemas de IA muito poderosos-será verdadeira.
Acredito que, durante a próxima década, a IA poderosa gerará trilhões de dólares em valor econômico e inclinará o equilíbrio do poder político e militar em relação às nações que o controlam – e que a maioria dos governos e grandes corporações já vêem isso como óbvio, como evidenciado pelas enormes somas de dinheiro que estão gastando para chegar primeiro.
Acredito que a maioria das pessoas e instituições está totalmente despreparada para os sistemas de IA que existem hoje, muito menos os mais poderosos, e que não há um plano realista em nenhum nível de governo para mitigar os riscos ou capturar os benefícios desses sistemas.
Acredito que os céticos endurecidos da IA - que insistem que o progresso é todo fumaça e espelha e que descarta AGI como uma fantasia ilusória – não apenas estão errados por méritos, mas estão dando às pessoas uma falsa sensação de segurança.
Acredito que se você acha que a AGI será grande ou terrível para a humanidade – e honestamente, pode ser muito cedo para dizer – sua chegada levanta importantes questões econômicas, políticas e tecnológicas às quais atualmente não temos respostas.
Acredito que o momento certo para começar a se preparar para a AGI é agora.
Isso pode parecer louco. Mas eu não cheguei a essas visualizações como futurista de olhos estrelados, um investidor que exija meu portfólio de IA ou um cara que pegou muitos cogumelos mágicos e assistiu “Terminator 2.”
Cheguei a eles como jornalista que passou muito tempo conversando com os engenheiros construindo poderosos sistemas de IA, os investidores financiando -o e com os pesquisadores estudando seus efeitos. E cheguei a acreditar que o que está acontecendo na IA agora é maior do que a maioria das pessoas entende.
Em São Francisco, onde estou baseado, a idéia de Agi não é marginal ou exótica. Pessoas aqui falar sobre “Sentir a AGI” e construir sistemas de IA mais inteligentes do que um humano se tornaram o objetivo explícito de algumas das maiores empresas do Vale do Silício. Toda semana, encontro engenheiros e empreendedores que trabalham na IA que me dizem essa mudança-grande mudança, mudança de abastecimento do mundo, o tipo de transformação que nunca vimos antes-está chegando.
“Nos últimos dois anos, o que costumava ser chamado de ‘linhas de tempo curtas’ (pensando que a AGI provavelmente seria construída nesta década) se tornou um quase consenso”, disse Miles Brundage, um pesquisador de políticas de IA independente que deixou o OpenAI no ano passado, me disse recentemente.
Fora da área da baía, poucas pessoas ouviram falar de AGI, muito menos começaram a planejar. E na minha indústria, jornalistas que levam a IA progredem seriamente ainda correm o risco de serem ridicularizados como Supes ingênuas ou shills da indústria.
Honestamente, recebo a reação. Embora agora tenhamos sistemas de IA contribuindo para os avanços do Prêmio Nobel, e mesmo que 400 milhões de pessoas por semana estão usando chatgpt, muitas das IA que as pessoas encontram em suas vidas diárias são um incômodo. Simpatizo com pessoas que veem a IA Slop estampadas em todos os seus feeds no Facebook ou têm uma interação desajeitada com um chatbot de atendimento ao cliente e penso: Esse O que vai dominar o mundo?
Eu costumava zombar da ideia também. Mas cheguei a acreditar que estava errado. Algumas coisas me convenceram a levar o progresso da IA mais a sério.
Os insiders estão alarmados.
A coisa mais desorientadora da indústria de IA de hoje é que as pessoas mais próximas da tecnologia – os funcionários e executivos dos principais laboratórios de IA – tendem a ficar os mais preocupados com a rapidez com que está melhorando.
Isso é bastante incomum. Em 2010, quando eu estava cobrindo a ascensão das mídias sociais, ninguém no Twitter, Foursquare ou Pinterest estava alertando que seus aplicativos poderiam causar caos social. Mark Zuckerberg não estava testando o Facebook para encontrar evidências de que poderia ser usado para criar novos biológicos ou realizar ataques cibernéticos autônomos.
Hoje, porém, as pessoas com a melhor informação sobre o progresso da IA-as pessoas que construem IA poderosa, que têm acesso a sistemas mais avançados do que o público em geral vê-estão nos dizendo que grande mudança está próxima. As principais empresas de IA são se preparando ativamente para a chegada de AGI e estão estudando propriedades potencialmente assustadoras de seus modelos, como se são capazes de Scheming e decepçãoantecipando que eles se tornem mais capazes e autônomos.
Sam Altman, o diretor executivo da Openai, tem escrito que “os sistemas que começam a apontar para a AGI estão aparecendo”.
Demis Hassabis, o diretor executivo do Google Deepmind, disse AGI é provavelmente “três a cinco anos”.
Dario Amodei, o diretor executivo da Antrópica (que não gosta do termo AGI, mas concorda com o princípio geral), me disse no mês passado que acreditava que estávamos um ano ou dois de ter “um número muito grande de sistemas de IA que são muito mais inteligentes que os humanos em quase tudo”.
Talvez devêssemos descontar essas previsões. Afinal, os executivos da IA lucram com o hype inflado da AGI e podem ter incentivos para exagerar.
Mas muitos especialistas independentes – incluindo Geoffrey Hinton e Joshua BengoDois dos pesquisadores de IA mais influentes do mundo, e Ben Buchanan, que era o principal especialista da IA do governo Biden – estão dizendo coisas semelhantes. Então é uma série de outros proeminentes economistasAssim, matemáticos e Oficiais de Segurança Nacional.
Para ser justo, Alguns especialistas Duvido que AGI seja iminente. Mas mesmo se você ignorar todos que trabalham nas empresas de IA ou têm uma participação investida no resultado, ainda existem vozes independentes credíveis suficientes com prazos curtos de AGI que devemos levá -los a sério.
Os modelos de IA continuam melhorando.
Para mim, tão persuasivo quanto a opinião de especialistas é a evidência de que os sistemas de IA de hoje estão melhorando rapidamente, de maneiras bastante óbvias para quem os usa.
Em 2022, quando o OpenAI lançou o ChatGPT, os principais modelos de IA lutavam com aritmética básica, freqüentemente falhavam em problemas complexos de raciocínio e, muitas vezes, “alucinados”, ou inventaram fatos inexistentes. Os chatbots daquela época poderiam fazer coisas impressionantes com o acréscimo certo, mas você nunca usaria uma para algo extremamente importante.
Os modelos de IA de hoje são muito melhores. Agora, modelos especializados estão colocando Pontuações no nível medalhista Na Olimpíada Internacional de Matemática, e os modelos de uso geral ficaram tão bons em resolver problemas complexos que tivemos que criar testes novos e mais difíceis para medir suas capacidades. Alucinações e erros factuais ainda acontecem, mas são mais raros em modelos mais novos. E muitas empresas agora confiam em modelos de IA o suficiente para transformá-las em funções principais e voltadas para o cliente.
(O New York Times processou o OpenAI e seu parceiro, Microsoft, acusando -os de violação de direitos autorais de conteúdo de notícias relacionado aos sistemas de IA. OpenAI e Microsoft negaram as reivindicações.)
Parte da melhoria é uma função da escala. Na IA, modelos maiores, treinados usando mais dados e poder de processamento, tendem a produzir melhores resultados, e os principais modelos de hoje são significativamente maiores que seus antecessores.
Mas também decorre dos avanços que os pesquisadores de IA fizeram nos últimos anos – principalmente, o advento dos modelos de “raciocínio”, que são construídos para dar uma etapa computacional adicional antes de dar uma resposta.
Os modelos de raciocínio, que incluem o O1 O1 e o R1 de Deepseek, são treinados para resolver problemas complexos e são construídos usando aprendizado de reforço – uma técnica usada para ensinar IA a Jogue o jogo de tabuleiro em um nível sobre -humano. Eles parecem estar tendo sucesso em coisas que tropeçaram em modelos anteriores. (Apenas um exemplo: GPT-4O, um modelo padrão lançado pelo OpenAI, marcou 9 % no Aime 2024, um conjunto de problemas de matemática de competição extremamente difíceis; O1, um modelo de raciocínio que openai lançado Vários meses depois, obteve 74 % no mesmo teste.)
À medida que essas ferramentas melhoram, elas estão se tornando úteis para muitos tipos de trabalho de conhecimento de colarinho branco. Meu colega Ezra Klein escreveu recentemente que os resultados da pesquisa profunda do ChatGPT, um recurso premium que produz resumos analíticos complexos, eram “pelo menos a mediana” dos pesquisadores humanos com quem havia trabalhado.
Também encontrei muitos usos para ferramentas de IA no meu trabalho. Não uso a IA para escrever minhas colunas, mas a uso para muitas outras coisas – preparando -se para entrevistas, resumindo trabalhos de pesquisa, criando aplicativos personalizados para me ajudar com tarefas administrativas. Nada disso foi possível há alguns anos. E acho implausível que quem use esses sistemas regularmente para um trabalho sério possa concluir que eles atingiram um platô.
Se você realmente deseja entender o quanto a IA melhorou recentemente, converse com um programador. Há um ou dois anos, existiam ferramentas de codificação de IA, mas visavam mais acelerar os codificadores humanos do que substituí -los. Hoje, os engenheiros de software me dizem que a IA faz a maior parte da codificação real para eles e que sentem cada vez mais que seu trabalho é supervisionar os sistemas de IA.
Jared Friedman, parceiro da Y Combinator, um acelerador de start-up, disse recentemente Um quarto do atual lote de startups do acelerador estava usando a IA para escrever quase todo o seu código.
“Há um ano, eles teriam construído seu produto do zero – mas agora 95 % é construído por uma IA”, disse ele.
O excesso de preparação é melhor do que repreender.
No espírito da humildade epistêmica, devo dizer que eu e muitos outros poderiam estar errados sobre nossas linhas do tempo.
Talvez o progresso da IA atinja um gargalo que não esperávamos – uma escassez de energia que impede as empresas de IA de construir data centers maiores ou acesso limitado aos chips poderosos usados para treinar modelos de IA. Talvez as arquiteturas de modelos de hoje e as técnicas de treinamento não possam nos levar até a AGI, e são necessários mais avanços.
Mas mesmo que a AGI chegue uma década mais tarde do que eu espero – em 2036, em vez de 2026 – acredito que devemos começar a nos preparar para isso agora.
A maioria dos conselhos que ouvi sobre como as instituições devem se preparar para o AGI se resume às coisas que devemos fazer de qualquer maneira: modernizando nossa infraestrutura energética, endurecendo nossas defesas de segurança cibernética, acelerando o pipeline de aprovação para medicamentos projetados pela IA, escrevendo regulamentos para impedir o desenvolvimento de IA mais graves, ensinando a alfabetização de IA nas escolas e priorizando o desenvolvimento social e o desenvolvimento emocional. Todas essas são idéias sensatas, com ou sem AGI
Alguns líderes de tecnologia temem que os medos prematuros sobre a AGI nos levem a regular a IA de maneira muito agressiva. Mas o governo Trump sinalizou que deseja acelerar o desenvolvimento da IA, não diminuir a velocidade. E dinheiro suficiente está sendo gasto para criar a próxima geração de modelos de IA – centenas de bilhões de dólares, com mais a caminho – que parece improvável que as principais empresas de IA bombearem os freios voluntariamente.
Também não me preocupo com os indivíduos demais para a AGI. Um risco maior, eu acho, é que a maioria das pessoas não percebe que a IA poderosa está aqui até que as está olhando na cara – eliminando seu trabalho, prendendo -as em uma farsa, prejudicando -os ou a alguém que eles amam. Isso é, aproximadamente, o que aconteceu durante a era das mídias sociais, quando não conseguimos reconhecer os riscos de ferramentas como Facebook e Twitter até que fossem grandes demais e entrincheiradas para mudar.
É por isso que acredito em levar a possibilidade de AGI a sério agora, mesmo que não saibamos exatamente quando chegará ou precisamente qual for a forma.
Se estamos em negação – ou se simplesmente não prestamos atenção – poderíamos perder a chance de moldar essa tecnologia quando mais importa.