A IA é um dos maiores e mais consumidos zeitgeists que eu já vi na tecnologia. Não consigo nem pesquisar na Internet sem ser servido vários anúncios sobre possíveis produtos de IA, incluindo o que ainda está implorando por permissões para executar meus dispositivos. A IA pode estar em todos os lugares em que olhamos em 2025, mas o tipo de redes neurais agora associadas a ela é um pouco mais antiga. Esse tipo de IA estava realmente se envolvendo na década de 1950, embora não foi até 2012 que o vimos começar a geração atual de aprendizado de máquina com Alexnet; Um bot de reconhecimento de imagem cujo código acaba de ser lançado como código aberto pelo Google e o Museu de História do Computador.
Vimos muitas idéias diferentes de IA ao longo dos anos, mas geralmente o termo é usado em referência a computadores ou máquinas com recursos de auto -aprendizado. Embora o conceito tenha sido discutido pelos escritores de ficção científica desde os anos 1800, está longe de ser totalmente realizado. Hoje, a maior parte do que chamamos de IA refere -se a modelos de idiomas e aprendizado de máquina, em oposição ao pensamento ou raciocínio individuais únicos por uma máquina. Esse tipo de técnica de aprendizado profundo está essencialmente alimentando computadores grandes conjuntos de dados para treiná -los em tarefas específicas.
A idéia de aprendizado profundo também não é novo. Na década de 1950, pesquisadores como Frank Rosenblatt, em Cornell, já haviam criado uma rede neural de aprendizado de máquina simplificado usando idéias fundamentais semelhantes ao que temos hoje. Infelizmente, a tecnologia não havia alcançado a idéia e foi amplamente rejeitado. Não foi até os anos 80 que realmente vimos o aprendizado de máquina surgir mais uma vez.
Em 1986, Geoffrey Hinton, David Rumelhart e Ronald J. Williams, publicaram um artigo em torno dapropagação, um algoritmo que aplica pesos apropriados às respostas de uma rede neural com base no custo. Eles não foram os primeiros a levantar a idéia, mas o primeiro que conseguiu popularizá -la. A backpropagação como uma idéia para o aprendizado de máquina foi levantada por vários, incluindo Frank Rosenblatt já nos anos 60, mas não poderia ser implementado. Muitos também o creditam como uma implementação de aprendizado de máquina da regra da cadeia, para a qual a mais antiga atribuição por escrito é para Gottfried Wilhelm Leibniz em 1676.
Apesar dos resultados promissores, a tecnologia não estava pronta para a velocidade necessária para tornar esse tipo de aprendizado profundo viável. Para levar a IA ao nível que vemos hoje, precisávamos de mais dados para treiná -los e poder computacional de um nível muito mais alto para conseguir isso.
Em 2006, o professor Fei-Fei Li, na Universidade de Stanford, começou a construir Imagenet. Li imaginou um banco de dados que continha uma imagem para todos os substantivos ingleses, então ela e seus alunos começaram a coletar e categorizar fotografias. Eles usaram o WordNet, uma coleção estabelecida de palavras e relacionamentos para identificar as imagens. A tarefa era tão grande que acabou sendo terceirizada para freelancers até que foi realizada como de longe o maior conjunto de dados do gênero em 2009.
Foi na mesma época que a Nvidia estava trabalhando no sistema de programação CUDA para suas GPUs. Esta é a empresa que apenas se esforçou para a IA no GTC de 2025 e está usando a tecnologia para ajudar as pessoas a aprender linguagem de sinais. Com o CUDA, esses poderosos chips de computação poderiam ser muito mais facilmente programados para enfrentar outras coisas que não apenas gráficos visuais. Isso permitiu que os pesquisadores comecem a implementar redes neurais em áreas como reconhecimento de fala e realmente ver o sucesso.
Em 2011, dois desses estudantes de Goeffrey Hinton, Ilya Sutskever (que foram co-fundados o Openai) e Alex Krizhevsky começaram a trabalhar no que se tornaria Alexnet. Sutskever viu o potencial de seu trabalho anterior e convenceu seu colegas Krizhevsky a usar seu domínio da GPU apertando para treinar essa rede neural, enquanto Hinton atuou como investigador principal. Durante o ano seguinte, Krizhevsky treinou, ajustou e preparou o sistema em um único computador usando duas GPUs da NVIDIA com seu próprio código CUDA. Em 2012, os três lançaram um artigo que Hinton também apresentou em uma conferência de visão computacional em Florença.
Hinton resumiu a experiência para o CHM como “Ilya pensou que deveríamos fazê -lo, Alex fez funcionar, e eu recebi o Prêmio Nobel”.
Não fez muito barulho na época, mas Alexnet mudou completamente a direção da IA moderna. Antes de Alexnet, as redes neurais não eram comuns nesses desenvolvimentos. Agora, eles são a estrutura para quase tudo divulgando o nome AI, de cães robôs com sistemas nervosos a fones de ouvido de trabalho milagrosos. À medida que os computadores ficam mais poderosos, estamos definidos apenas para ver ainda mais.
Dado o quão enorme a Alexnet tem sido para a IA, a CHM liberando o código -fonte não é apenas um aceno maravilhoso, mas também bastante prudente em garantir que essas informações estejam disponíveis gratuitamente para todos. Para garantir que fosse feito de maneira justa, correta – e, acima de tudo, legalmente -, o CHM entrou em contato com o homônimo de Alexnet, Alex Krizhevsky, que os colocou em contato com Hinton, que estava trabalhando com o Google depois de ser adquirido. Agora, considerado um dos pais do aprendizado de máquina, Hinton conseguiu conectar o CHM à equipe certa no Google, que iniciou um processo de negociação de cinco anos antes de ser lançado
Isso pode significar o código, Disponível para todos no Github Pode ser uma versão um tanto higienizada da Alexnet, mas também é a correta. Existem vários com similares ou mesmo com o mesmo nome, mas é provável que sejam homenagens ou interpretações. Este upload é descrito como o “código -fonte de Alexnet como em 2012”, para servir como um marcador interessante ao longo do caminho para a IA, e qualquer forma que ela aprenda a tomar no futuro.