Um algoritmo de aprendizagem universalmente consistente com um erro monótono
Vladimir Pestov (UFPB e uOttawa, Canadá)
Abstract: Vou apresentar uma solução, em afirmativo, de um problema em aberto desde 1996 sobre a existência de um algoritmo de aprendizagem estatística com as propriedades em título (veja arXiv:2108.09733 [cs.LG], a aparecer em JMLR).
Um algoritmo (ou regra) de aprendizagem supervisionada é uma aplicação associando um classificador a cada amostra rotulada, predizendo os rótulos desconhecidos de todos os pontos. O erro de classificação é a probabilidade de associar um rótulo errado. Um algoritmo é chamado universalmente consistente se, qualquer que seja a lei de distribuição de dados rotulados, o erro de classificação converge para o erro menor possível (o erro de Bayes) no limite quando o tamanho da amostra cresce. Intuitivamente, quanto mais dados, menos o erro de classificação, mas todos os algoritmos conhecidos admitem situações onde o erro cresce temporariamente para alguns valores do tamanho. Vou descrever um algoritmo que possui a monotonicidade.
Depois da pré-publicação do meu algoritmo, um grupo de pesquisadores (Bousquet, Daniely, Kaplan, Mansour, Moran, e Stemmer, arXiv:2202.05246 [cs.LG]) já estendeu o resultado mostrando que qualquer algoritmo consistente pode ser convertido em um algoritmo monótono. Vou discutir o resultado deles também.
Se tiver interesse em ler mais sobre as noções de base da aprendizagem de máquina (do ponto de vista matemático), sugiro folhear o meu livro: impa.br/wp-content/uploads/2022/03/32CBM07_eBook.pdf
Portuguesecommutative algebraalgebraic geometryanalysis of PDEsalgebraic topologydifferential geometryfunctional analysisgeneral topologygeometric topologyprobabilityrings and algebras
Audience: general audience
Seminários de Matemática da UFPB
Organizer: | Allan Freitas* |
*contact for this listing |