A Lição Amarga
Rico Sutton
13 De março de 2019
A maior lição que pode ser lida a partir de 70 anos de pesquisa em IA é que os métodos gerais que alavancam a computação são, em última análise, os mais eficaz e por uma grande margem. A razão final para isso é A lei de Moore, ou melhor, sua generalização continuou exponencialmente queda de custo por unidade de computação. A maioria das pesquisas sobre IA tem sido conduzido como se a computação disponível para o agente fosse constante (nesse caso, alavancar o conhecimento humano seria uma das únicas maneiras para melhorar o desempenho), mas, durante um tempo ligeiramente mais longo do que um típico projeto de pesquisa, massivamente mais computação inevitavelmente se torna disponível. Buscando uma melhoria que faça a diferença no a curto prazo, os pesquisadores procuram alavancar seu conhecimento humano do domínio, mas a única coisa que importa a longo prazo é o alavancagem da computação.Estes dois não precisam correr contra cada um outros, mas na prática eles tendem a. O tempo gasto em um é tempo não gasto no outro. Há compromissos psicológicos com o investimento em uma abordagem ou outra. E a abordagem do conhecimento humano tende a complique os métodos de maneiras que os tornam menos adequados para tomar vantagem de métodos gerais que alavancam a computação. Havia muitos exemplos de aprendizado tardio dos pesquisadores de IA desse amargo lição, e é instrutivo rever alguns dos mais proeminentes.E a abordagem do conhecimento humano tende a complique os métodos de maneiras que os tornam menos adequados para tomar vantagem de métodos gerais que alavancam a computação. Havia muitos exemplos de aprendizado tardio dos pesquisadores de IA desse amargo lição, e é instrutivo rever alguns dos mais proeminentes.E a abordagem do conhecimento humano tende a complicar métodos de maneira a torná-los menos adequados para tomar vantagem de métodos gerais que alavancam a computação. Havia muitos exemplos de aprendizado tardio dos pesquisadores de IA sobre esse amargo lição, e é instrutivo revisar alguns dos mais importantes.
No xadrez por computador, os métodos que derrotaram o campeão mundial, foram, Kasparov, em 1997, foi baseado em uma pesquisa massiva e profunda. Na época, isto foi encarado com consternação pela maioria dos computadores pesquisadores que buscaram métodos que alavancaram a compreensão humana da estrutura especial do xadrez. Quando um mais simples, baseado em pesquisa a abordagem com hardware e software especiais provou muito mais eficazes, esses pesquisadores de xadrez baseados no conhecimento humano não eram bons perdedores. Disseram que a busca pela força bruta" pode ter vencido desta vez, mas não era uma estratégia geral, e de qualquer maneira não era como as pessoas jogava xadrez. Esses pesquisadores queriam métodos baseados em contribuições humanas para venceram e ficaram desapontados quando não o fizeram.
Um padrão semelhante de progresso da pesquisa foi visto no computador Go, apenas adiado por mais 20 anos. Enormes esforços iniciais foram evitar a busca aproveitando o conhecimento humano, ou do características especiais do jogo, mas todos esses esforços se mostraram irrelevantes, ou pior, uma vez que a pesquisa foi aplicada efetivamente em escala. Também importante foi o uso da aprendizagem por auto-jogo para aprender uma função de valor (como ele foi em muitos outros jogos e até mesmo no xadrez, embora a aprendizagem não desempenhar um grande papel no programa de 1997 que bateu pela primeira vez um campeão mundial). Aprender por meio do jogo pessoal e aprender em geral é como procurar nisso ele permite que a computação maciça seja realizada. Pesquisa e aprendizagem são as duas classes mais importantes de técnicas para utilizar grandes quantidades de computação em pesquisa de IA. No computador Go, como em xadrez de computador,o esforço inicial dos pesquisadores foi direcionado para utilizando a compreensão humana (para que menos busca fosse necessária) e apenas muito mais tarde foi um sucesso muito maior ao abraçar a busca e aprendendo.
No reconhecimento de fala, houve uma competição inicial, patrocinada por DARPA, na década de 1970. Os participantes incluíram uma série de métodos especiais que levou vantagem do conhecimento-saber humano das palavras, dos fonemas, dos trato vocal humano, etc. Do outro lado, havia métodos mais recentes que eram mais estatístico na natureza e fez muito mais computação, com base em modelos ocultos de Markov (HMMs). Mais uma vez, os métodos estatísticos ganharam sobre os métodos baseados no conhecimento humano. Isso levou a uma grande mudança na todo o processamento de linguagem natural, gradualmente ao longo de décadas, onde estatística e computação passaram a dominar o campo. A recente ascensão o aprendizado profundo no reconhecimento de fala é o passo mais recente nesse processo direção consistente. Os métodos de aprendizagem profunda dependem ainda menos do humano conhecimento, e usar ainda mais computação, juntamente com a aprendizagem sobre conjuntos de treinamento enormes,para produzir um reconhecimento de fala dramaticamente melhor sistemas. Como nos jogos, os pesquisadores sempre tentaram fazer sistemas que funcionou da maneira como os pesquisadores pensavam que suas próprias mentes funcionavam tentou colocar esse conhecimento em seus sistemas - mas provou em última análise contraproducente, e um desperdício colossal do tempo do pesquisador, quando, através da lei de Moore, computação maciça tornou-se disponível e um meio foi encontrado para colocá-lo em bom uso.computação massiva tornou-se disponível e um meio foi encontrado para colocá-lo em bom uso.computação massiva tornou-se disponível e um meio foi encontrado para colocá-lo em bom uso.
Na visão computacional, houve um padrão semelhante. Métodos iniciais concebido de visão como a busca de bordas, ou cilindros generalizados, ou em termos de recursos SIFT. Mas hoje tudo isso é descartado. Moderno as redes neurais de aprendizagem profunda usam apenas as noções de convolução e certos tipos de invariâncias, e executar muito melhor.
Esta é uma grande lição. Como um campo, ainda não aprendemos completamente é como se continuássemos a cometer o mesmo tipo de erros. Ver isto, e para efetivamente resistir a isso, temos que entender o apelo de esses erros. Temos que aprender a amarga lição que construir em como pensamos que pensamos que não funciona a longo prazo. A amarga lição é com base nas observações históricas que 1) os pesquisadores de IA têm frequentemente tentou construir o conhecimento em seus agentes, 2) isso sempre ajuda no curto prazo, e é pessoalmente satisfatório para o pesquisador, mas 3) em a longo prazo ele platôs e até mesmo inibe o progresso adicional, e 4) o progresso revolucionário eventualmente chega por uma abordagem oposta baseada na escala de computação por pesquisa e aprendizagem. O sucesso final é tingido de amargura, e muitas vezes incompletamente digerido,porque é sucesso sobre uma abordagem favorecida e centrada no ser humano.
Uma coisa que deve ser aprendida com a amarga lição é a grande poder dos métodos de propósito geral, dos métodos que continuam a escala com o aumento da computação, mesmo quando a computação disponível se torna muito bom. Os dois métodos que parecem escalar arbitrariamente dessa maneira são pesquisar e aprendizagem.
O segundo ponto geral a ser aprendido com a amarga lição é que o conteúdo real das mentes é tremendamente, irremediavelmente complexo; nós deve parar de tentar encontrar maneiras simples de pensar sobre o conteúdo de mentes, como maneiras simples de pensar sobre espaço, objetos, múltiplos agentes ou simetrias. Tudo isso faz parte do arbitrário, do, mundo exterior intrinsecamente complexo. Não são o que devem ser construídos em, como sua complexidade é infinita; em vez disso, devemos construir apenas o meta-métodos que podem encontrar e capturar essa complexidade arbitrária. Essencial para estes métodos é que eles podem encontrar boas aproximações, e, mas a busca por eles deve ser pelos nossos métodos, não por nós. Queremos IA agentes que podem descobrir como nós podemos, não que contêm o que temos descoberto.Construir em nossas descobertas apenas torna mais difícil ver como o processo de descoberta pode ser feito.
ESTE VÍDEO
DE LULALADRÃO, será censurado nas eleições:
MetropólesMetrópoles
Últimas notícias
Brasil que cuida
É o bicho!
Pouca Vergonha.
Senadora faz compras em loja de luxo, nos EUA, com lobista enrolado. Vídeo
Senadora do Podemos foi vista fazendo compras em loja de luxo, nos EUA, ao lado de lobista acusado de extorquir empresários do setor de bets
Igor Gadelha
29/12/2025 05:30, atualizado 29/12/2025 09:56
Senadora faz compras em loja de luxo nos EUA com lobista investigado
ouvir notícia
Relatora da já finalizada CPI das Bets no Senado, a senadora Soraya Thronicke (Podemos-MS) foi vista fazendo compras ao lado do controverso lobista Silvio Assis em uma loja de luxo, nos Estados Unidos, onde ambos passam férias.
Nos últimos anos, o lobista esteve envolvido em uma série de escândalo – desde a suspeita de pedido de propina para facilitar compras de vacinas contra a Covid-19 até a acusação de extorquir empresários do setor de apostas on-line.
Senadora faz compras em loja de luxo nos EUA com lobista investigado
Na noite da última sexta-feira (26/12), Soraya e Silvio...
PDF - O gabinete do ódio do PT está funcionando antes das eleições oficial.
O link 🔗
https://podeespalhar.com.br/
Diretor da PF foi a evento em Londres patrocinado pelo Master Andrei Rodrigues participou de encontro em 2024 em que também estiveram Dias Toffoli e Alexandre de Moraes, entre outros integrantes do Judiciário...
Leia mais no texto original: (https://www.poder360.com.br/poder-justica/diretor-da-pf-foi-a-evento-em-londres-patrocinado-master/)
© 2026 Todos os direitos são reservados ao Poder360, conforme a Lei nº 9.610/98. A publicação, redistribuição, transmissão e reescrita sem autorização prévia são proibidas.