Precisa analisar uma decisão complexa? Experimente usar uma árvore de decisão. Leia mais para descobrir tudo sobre árvores de decisão, incluindo o que são, como são usadas e como criar uma.
Leitura de 7 minuto(s)
Quer criar sua própria árvore de decisão? Experimente o Lucidchart. É rápido, fácil e completamente gratuito.
Conceito de árvore de decisão
Uma árvore de decisão é um mapa dos possíveis resultados de uma série de escolhas relacionadas. Permite que um indivíduo ou organização compare possíveis ações com base em seus custos, probabilidades e benefícios. Podem pode ser usadas tanto para conduzir diálogos informais quanto para mapear um algoritmo que prevê a melhor escolha, matematicamente.
Uma árvore de decisão geralmente começa com um único nó, que se divide em possíveis resultados. Cada um desses resultados leva a nós adicionais, que se ramificam em outras possibilidades. Assim, cria-se uma forma de árvore.
Existem três tipos de nós: nós de probabilidade, nós de decisão e nós de término. O nó de probabilidade, representado por um circulo, mostra as probabilidades de certos resultados. Um nó de decisão, representado por um quadrado, mostra uma decisão a ser tomada, e um nó de término mostra o resultado final de um caminho de decisão.
Árvores de decisão também podem ser desenhadas com símbolos de fluxogramas – algumas pessoas acham mais fácil de ler e entender.
Símbolos de árvores de decisão
Forma | Nome | Significado |
---|---|---|
Nó de decisão | Indica uma decisão a ser tomada | |
Nó de probabilidade | Mostra vários resultados incertos | |
Ramificações alternativas | Cada ramificação indica um possível resultado ou ação | |
Alternativa rejeitada | Mostra uma escolha que não foi selecionada | |
Nó de desfecho | Indica um resultado final |
Como fazer uma árvore de decisão
Para desenhar uma árvore de decisão, primeiro escolha um meio. Você pode desenhá-la à mão em um papel ou quadro branco, ou você pode usar um software de árvores de decisão. Seja qual for o caso, veja os passos a seguir:
1.
Comece com uma decisão principal
. Desenhe uma pequena caixa para representar este ponto e, em seguida, desenhe uma linha à direita da caixa para cada solução ou ação possível. Rotule-as.2.
Adicione nós de probabilidade e de decisão
para expandir a árvore da seguinte forma:- Se outra decisão for necessária, desenhe outra caixa.
- Se o resultado for incerto, desenhe um círculo (círculos representam nós de probabilidade).
- Se o problema for resolvido, deixe em branco (por enquanto).
A partir de cada nó de decisão, desenhe soluções possíveis. A partir de cada nó de probabilidade, desenhe linhas que representam possíveis resultados. Se você pretende analisar suas opções numericamente, inclua a probabilidade de cada resultado e o custo de cada ação.
3.
Continue a expandir até que cada linha atinja um desfecho
, o que significa que não há mais escolhas a serem feitas ou resultados prováveis a considerar. Em seguida, atribua um valor a cada resultado possível. Pode ser uma pontuação abstrata ou um valor financeiro. Adicione triângulos para significar desfechos.Com uma árvore de decisão concluída, você está pronto para analisar a decisão diante de você.
Quer criar sua própria árvore de decisão? Experimente o Lucidchart. É rápido, fácil e completamente gratuito.
Crie uma árvore de decisãoExemplo de análise de árvore de decisão
Ao calcular a utilidade esperada ou o valor de cada escolha na árvore, você pode minimizar o risco e maximizar a probabilidade de alcançar um resultado desejável.
Para calcular a utilidade esperada de uma escolha, basta subtrair o custo dessa decisão dos benefícios esperados. Os benefícios esperados são iguais ao valor total de todos os resultados que poderiam existir a partir da escolha, onde cada valor é multiplicado pela probabilidade de que ocorrerá. Veja como calcularíamos esses valores para o exemplo que demos acima:
Ao identificar qual resultado é o mais desejável, é importante considerar as preferências de utilidade do responsável pela tomada de decisões. Por exemplo, alguns podem preferir opções de baixo risco, enquanto outros estão dispostos a assumir riscos para ter um benefício maior.
Quando você usar sua árvore de decisão com um modelo de probabilidade, você pode usá-la para calcular a probabilidade condicional de um evento, ou a probabilidade de que acontecerá, se outro evento acontecer. Para tal, comece com o evento inicial e siga o caminho daquele evento para o evento alvo, multiplicando a probabilidade de cada um dos eventos juntos.
Desta forma, uma árvore de decisão pode ser usada como um diagrama de árvore tradicional, que mapeia as probabilidades de determinados eventos, como o lançamento de uma moeda duas vezes.
Vantagens e desvantagens
Árvores de decisão continuam sendo usadas por motivos como estes:
- Facilidade de compreensão
- Podem ser úteis com ou sem dados concretos, e quaisquer dados requerem o mínimo de preparação
- Novas opções podem ser adicionadas às árvores existentes
- Seu valor em escolher o melhor dentre várias opções
- Como facilmente podem ser usadas com outras ferramentas de tomada de decisão
No entanto, árvores de decisão podem se tornar excessivamente complexas. Em tais casos, um diagrama de influência mais compacto pode ser uma boa alternativa. Diagramas de influência focam mais decisões críticas, entradas e objetivos.
Árvores de decisão e o aprendizado de máquina e pesquisa de dados
Uma árvore de decisão também pode ser usada para ajudar a criar modelos preditivos automatizados, que têm aplicações em aprendizado de máquina, pesquisa de dados e estatísticas. Conhecido como aprendizado de árvores de decisão, este método considera as observações sobre um item para prever o valor desse item.
Nestas árvores de decisão, nós representam dados, e não decisões. Este tipo de árvore é também conhecido como uma árvore de classificação. Cada ramificação contém um conjunto de atributos ou regras de classificação, associado a um determinado rótulo de classe, que pode ser encontrado na extremidade da ramificação.
Estas regras, também conhecidas como regras de decisão, podem ser expressas em uma cláusula ‘se-então’, onde cada decisão ou valor de dados forma uma cláusula, de tal forma que, por exemplo, “se as condições 1, 2 e 3 forem cumpridas, então o desfecho x será o resultado, com uma certeza de y”.
Cada pedaço de dados adicional ajuda o modelo a prever, com mais precisão, a qual conjunto finito de valores o sujeito em questão pertence. Esta informação pode então ser usada em um modelo maior de tomada de decisão.
Por vezes, a variável prevista será um número real, tal como um preço. Árvores de decisão com resultados infinitos e contínuos possíveis são chamadas de árvores de regressão.
Para maior precisão, às vezes várias árvores são usadas juntas por meio de métodos de conjunto:
Ensacamento
cria várias árvores ao remodelar os dados da fonte e, em seguida, as árvores votam para chegar a um consenso.- Um
classificador de floresta aleatória
é composto por várias árvores concebidas para aumentar a taxa de classificação Boosted trees
podem ser utilizadas para árvores de regressão e de classificação.- As árvores em uma
floresta de rotação
são todas treinadas usando PCA (análise de componentes principais) em uma parte aleatória dos dados
Uma árvore de decisão é considerada ideal quando representa o maior número de dados com o menor número de níveis ou perguntas. Algoritmos projetados para criar árvores de decisão otimizadas incluem CART, ASSISTANT, CLS e ID3/4/5. Uma árvore de decisão também pode ser criada por meio do desenvolvimento de regras de associação, colocando a variável de alvo à direita.
Cada método tem de determinar qual é a melhor maneira de dividir os dados em cada nível. Métodos comuns para tal incluem medição da impureza de Gini, ganho de informação e redução de variância.
Usar árvores de decisão no aprendizado de máquina tem muitas vantagens:
- O custo de utilização da árvore para prever dados diminui com cada ponto de dados adicional
- Funciona para dados categóricos ou numéricos
- Modela problemas com várias saídas
- Utiliza um modelo de caixa branca (facilitando a explicação dos resultados)
- A confiabilidade de uma árvore pode ser testada e quantificada
- Tende a ser preciso, independentemente da possibilidade de violar os pressupostos de dados de origem
Mas também tem algumas desvantagens:
- Ao lidar com dados categóricos com vários níveis, o ganho de informação é tendencioso em favor dos atributos com mais níveis.
- Cálculos podem tornar-se complexos quando se lida com a incerteza e com muito resultados vinculados.
- Conjunções entre nós estão limitadas a “E”, enquanto gráficos de decisão permitem nós ligados por “OU”.