A Lição Amarga
Rico Sutton
13 De março de 2019
A maior lição que pode ser lida a partir de 70 anos de pesquisa em IA é que os métodos gerais que alavancam a computação são, em última análise, os mais eficaz e por uma grande margem. A razão final para isso é A lei de Moore, ou melhor, sua generalização continuou exponencialmente queda de custo por unidade de computação. A maioria das pesquisas sobre IA tem sido conduzido como se a computação disponível para o agente fosse constante (nesse caso, alavancar o conhecimento humano seria uma das únicas maneiras para melhorar o desempenho), mas, durante um tempo ligeiramente mais longo do que um típico projeto de pesquisa, massivamente mais computação inevitavelmente se torna disponível. Buscando uma melhoria que faça a diferença no a curto prazo, os pesquisadores procuram alavancar seu conhecimento humano do domínio, mas a única coisa que importa a longo prazo é o alavancagem da computação.Estes dois não precisam correr contra cada um outros, mas na prática eles tendem a. O tempo gasto em um é tempo não gasto no outro. Há compromissos psicológicos com o investimento em uma abordagem ou outra. E a abordagem do conhecimento humano tende a complique os métodos de maneiras que os tornam menos adequados para tomar vantagem de métodos gerais que alavancam a computação. Havia muitos exemplos de aprendizado tardio dos pesquisadores de IA desse amargo lição, e é instrutivo rever alguns dos mais proeminentes.E a abordagem do conhecimento humano tende a complique os métodos de maneiras que os tornam menos adequados para tomar vantagem de métodos gerais que alavancam a computação. Havia muitos exemplos de aprendizado tardio dos pesquisadores de IA desse amargo lição, e é instrutivo rever alguns dos mais proeminentes.E a abordagem do conhecimento humano tende a complicar métodos de maneira a torná-los menos adequados para tomar vantagem de métodos gerais que alavancam a computação. Havia muitos exemplos de aprendizado tardio dos pesquisadores de IA sobre esse amargo lição, e é instrutivo revisar alguns dos mais importantes.
No xadrez por computador, os métodos que derrotaram o campeão mundial, foram, Kasparov, em 1997, foi baseado em uma pesquisa massiva e profunda. Na época, isto foi encarado com consternação pela maioria dos computadores pesquisadores que buscaram métodos que alavancaram a compreensão humana da estrutura especial do xadrez. Quando um mais simples, baseado em pesquisa a abordagem com hardware e software especiais provou muito mais eficazes, esses pesquisadores de xadrez baseados no conhecimento humano não eram bons perdedores. Disseram que a busca pela força bruta" pode ter vencido desta vez, mas não era uma estratégia geral, e de qualquer maneira não era como as pessoas jogava xadrez. Esses pesquisadores queriam métodos baseados em contribuições humanas para venceram e ficaram desapontados quando não o fizeram.
Um padrão semelhante de progresso da pesquisa foi visto no computador Go, apenas adiado por mais 20 anos. Enormes esforços iniciais foram evitar a busca aproveitando o conhecimento humano, ou do características especiais do jogo, mas todos esses esforços se mostraram irrelevantes, ou pior, uma vez que a pesquisa foi aplicada efetivamente em escala. Também importante foi o uso da aprendizagem por auto-jogo para aprender uma função de valor (como ele foi em muitos outros jogos e até mesmo no xadrez, embora a aprendizagem não desempenhar um grande papel no programa de 1997 que bateu pela primeira vez um campeão mundial). Aprender por meio do jogo pessoal e aprender em geral é como procurar nisso ele permite que a computação maciça seja realizada. Pesquisa e aprendizagem são as duas classes mais importantes de técnicas para utilizar grandes quantidades de computação em pesquisa de IA. No computador Go, como em xadrez de computador,o esforço inicial dos pesquisadores foi direcionado para utilizando a compreensão humana (para que menos busca fosse necessária) e apenas muito mais tarde foi um sucesso muito maior ao abraçar a busca e aprendendo.
No reconhecimento de fala, houve uma competição inicial, patrocinada por DARPA, na década de 1970. Os participantes incluíram uma série de métodos especiais que levou vantagem do conhecimento-saber humano das palavras, dos fonemas, dos trato vocal humano, etc. Do outro lado, havia métodos mais recentes que eram mais estatístico na natureza e fez muito mais computação, com base em modelos ocultos de Markov (HMMs). Mais uma vez, os métodos estatísticos ganharam sobre os métodos baseados no conhecimento humano. Isso levou a uma grande mudança na todo o processamento de linguagem natural, gradualmente ao longo de décadas, onde estatística e computação passaram a dominar o campo. A recente ascensão o aprendizado profundo no reconhecimento de fala é o passo mais recente nesse processo direção consistente. Os métodos de aprendizagem profunda dependem ainda menos do humano conhecimento, e usar ainda mais computação, juntamente com a aprendizagem sobre conjuntos de treinamento enormes,para produzir um reconhecimento de fala dramaticamente melhor sistemas. Como nos jogos, os pesquisadores sempre tentaram fazer sistemas que funcionou da maneira como os pesquisadores pensavam que suas próprias mentes funcionavam tentou colocar esse conhecimento em seus sistemas - mas provou em última análise contraproducente, e um desperdício colossal do tempo do pesquisador, quando, através da lei de Moore, computação maciça tornou-se disponível e um meio foi encontrado para colocá-lo em bom uso.computação massiva tornou-se disponível e um meio foi encontrado para colocá-lo em bom uso.computação massiva tornou-se disponível e um meio foi encontrado para colocá-lo em bom uso.
Na visão computacional, houve um padrão semelhante. Métodos iniciais concebido de visão como a busca de bordas, ou cilindros generalizados, ou em termos de recursos SIFT. Mas hoje tudo isso é descartado. Moderno as redes neurais de aprendizagem profunda usam apenas as noções de convolução e certos tipos de invariâncias, e executar muito melhor.
Esta é uma grande lição. Como um campo, ainda não aprendemos completamente é como se continuássemos a cometer o mesmo tipo de erros. Ver isto, e para efetivamente resistir a isso, temos que entender o apelo de esses erros. Temos que aprender a amarga lição que construir em como pensamos que pensamos que não funciona a longo prazo. A amarga lição é com base nas observações históricas que 1) os pesquisadores de IA têm frequentemente tentou construir o conhecimento em seus agentes, 2) isso sempre ajuda no curto prazo, e é pessoalmente satisfatório para o pesquisador, mas 3) em a longo prazo ele platôs e até mesmo inibe o progresso adicional, e 4) o progresso revolucionário eventualmente chega por uma abordagem oposta baseada na escala de computação por pesquisa e aprendizagem. O sucesso final é tingido de amargura, e muitas vezes incompletamente digerido,porque é sucesso sobre uma abordagem favorecida e centrada no ser humano.
Uma coisa que deve ser aprendida com a amarga lição é a grande poder dos métodos de propósito geral, dos métodos que continuam a escala com o aumento da computação, mesmo quando a computação disponível se torna muito bom. Os dois métodos que parecem escalar arbitrariamente dessa maneira são pesquisar e aprendizagem.
O segundo ponto geral a ser aprendido com a amarga lição é que o conteúdo real das mentes é tremendamente, irremediavelmente complexo; nós deve parar de tentar encontrar maneiras simples de pensar sobre o conteúdo de mentes, como maneiras simples de pensar sobre espaço, objetos, múltiplos agentes ou simetrias. Tudo isso faz parte do arbitrário, do, mundo exterior intrinsecamente complexo. Não são o que devem ser construídos em, como sua complexidade é infinita; em vez disso, devemos construir apenas o meta-métodos que podem encontrar e capturar essa complexidade arbitrária. Essencial para estes métodos é que eles podem encontrar boas aproximações, e, mas a busca por eles deve ser pelos nossos métodos, não por nós. Queremos IA agentes que podem descobrir como nós podemos, não que contêm o que temos descoberto.Construir em nossas descobertas apenas torna mais difícil ver como o processo de descoberta pode ser feito.
Ir para:
1 conteúdo
2 menu
3 busca
4 rodapé
Para Melhor Usabilidade do Portal Recomendamos Usar os Leitores JAWS e NVDA
Acessibilidade
STF Educa
Gestão de Pessoas
Ouvidoria
Transparência e Prestação de Contas
Supremo Tribunal Federal
Informe um assunto sobre uma notícia...
Pesquisar
Mais notícias
Agenda 2030: hotsite reúne dados da atuação do STF relacionados aos objetivos de desenvolvimento sustentável da ONU
A identificação das controvérsias jurídicas associadas aos ODS possibilitará priorizar os julgamentos de ações capazes de impactar positivamente os objetivos e as metas da agenda
29/10/2020 19:15 - Atualizado há 6 meses atrás
Post Views: 7.993
O Supremo Tribunal Federal (STF) lançou, nesta semana, um hotsite para divulgar a interação da Corte com a Agenda 2030 da Organização das Nações Unidas (ONU). Na página, são apresentados eventos e estudos realizados, além dos dados indicativos de processos em que há correlação com os 17 objetivos de desenvolvimento sustentável (ODS) ...
Conta
INSCREVA-SE PARA $1/SEMANA
Chefe de Justiça do Brasil: Estamos Salvando a Democracia.
O chefe de justiça do Supremo Tribunal Federal, Luís Roberto Barroso, defendeu o tribunal diante do crescente debate sobre seu papel agressivo na política.
Novo
Ouça artigos
Toque no botão Reproduzir na parte superior de qualquer artigo para ouvi-lo ler em voz alta.
Ouça este artigo 5:35 minSaiba mais
Compartilhe o artigo completo
Luís Roberto Barroso, vestindo um terno, senta-se em uma cadeira em uma mesa de conferência.
O chefe de justiça do Supremo Tribunal Federal, Luís Roberto Barroso, defende a investigação do tribunal sobre ataques ao tribunal e a outras instituições governamentais.Crédito...Dado Galdieri para o The New York Times
Jack Nicolas
Por Jack Nicolas
Reportagem de Brasília
Oct. 16, 2024
Leer en español
Colocou presidentes na prisão. Assumiu o Elon Musk — e venceu. Tornou-se um dos policiais mais difíceis do mundo da internet. E parece pronto para fazer de Jair Bolsonaro o próximo ex-presidente brasileiro ...
Twitter hate speech up in large foreign markets after Musk takeover
With 75 percent of its audience outside the U.S. and Canada, the impact of Elon Musk’s moderation cuts has been great elsewhere
January 14, 2023
https://www.washingtonpost.com/technology/2023/01/14/twitter-moderation-cutbacks-impact/