Um algoritmo de aprendizagem universalmente consistente com um erro monótono

Vladimir Pestov (UFPB e uOttawa, Canadá)

02-Jun-2022, 19:00-20:00 (23 months ago)

Abstract: Vou apresentar uma solução, em afirmativo, de um problema em aberto desde 1996 sobre a existência de um algoritmo de aprendizagem estatística com as propriedades em título (veja arXiv:2108.09733 [cs.LG], a aparecer em JMLR).

Um algoritmo (ou regra) de aprendizagem supervisionada é uma aplicação associando um classificador a cada amostra rotulada, predizendo os rótulos desconhecidos de todos os pontos. O erro de classificação é a probabilidade de associar um rótulo errado. Um algoritmo é chamado universalmente consistente se, qualquer que seja a lei de distribuição de dados rotulados, o erro de classificação converge para o erro menor possível (o erro de Bayes) no limite quando o tamanho da amostra cresce. Intuitivamente, quanto mais dados, menos o erro de classificação, mas todos os algoritmos conhecidos admitem situações onde o erro cresce temporariamente para alguns valores do tamanho. Vou descrever um algoritmo que possui a monotonicidade.

Depois da pré-publicação do meu algoritmo, um grupo de pesquisadores (Bousquet, Daniely, Kaplan, Mansour, Moran, e Stemmer, arXiv:2202.05246 [cs.LG]) já estendeu o resultado mostrando que qualquer algoritmo consistente pode ser convertido em um algoritmo monótono. Vou discutir o resultado deles também.

Se tiver interesse em ler mais sobre as noções de base da aprendizagem de máquina (do ponto de vista matemático), sugiro folhear o meu livro: impa.br/wp-content/uploads/2022/03/32CBM07_eBook.pdf

Portuguesecommutative algebraalgebraic geometryanalysis of PDEsalgebraic topologydifferential geometryfunctional analysisgeneral topologygeometric topologyprobabilityrings and algebras

Audience: general audience


Seminários de Matemática da UFPB

Organizer: Allan Freitas*
*contact for this listing

Export talk to