Análise Empírica de Desempenho de Quatro Métodos de Seleção de Características para Random Forests

Autores

  • Denise Gasques Bastos Universidade de São Paulo
  • Patricia Santos Nascimento Universidade Federal do Espírito Santo
  • Marcelo de Souza Lauretto Universidade de São Paulo

Resumo

Em aprendizado supervisionado, é comum a ocorrência de bases de dados contendo atributos irrelevantes. Sob tais circunstâncias, a adoção de critérios de seleção de características relevantes para a classificação é fundamental, principalmente nos problemas em que os custos de coleta de dados são proporcionais à quantidade de atributos. Neste artigo, são apresentados dois critérios de seleção de atributos voltados para Random Forests, denominados Fator de Incidência (FI) e Fator de Profundidade (FP), e é apresentada também uma análise empírica detalhada comparando o desempenho desses critérios com a Importância Baseada no Erro (IE) e a Importância de Gini (IG) - os dois principais critérios para Random Forests atualmente em uso. Os resultados indicam que o critério FP é um critério robusto, com desempenho superior aos critérios IE e IG.

Downloads

Não há dados estatísticos.

Downloads

Publicado

2014-11-15

Como Citar

Bastos, D. G., Nascimento, P. S., & Lauretto, M. de S. (2014). Análise Empírica de Desempenho de Quatro Métodos de Seleção de Características para Random Forests. ISys - Brazilian Journal of Information Systems, 7(2), 25–47. Recuperado de https://seer.unirio.br/isys/article/view/3309

Edição

Seção

ARTIGOS REGULARES