的关键的区别分类与回归树之间是在分类中,依赖者变量在回归中因变量是连续的或有序的整值。
分类和回归是从收集到的数据中创建预测模型的学习技术。这两种技术都以图形化的方式呈现为分类和回归树,或者更确切地说,在每个步骤之后对数据进行划分的流程图,或者更确切地说,树中的“分支”。这个过程称为递归划分。等领域矿业使用这些分类和回归学习技术。本文重点介绍了分类树和回归树。
内容
1.概述及关键区别
2.什么是分类
3.什么是回归
4.并列比较-分类与回归表格形式
5.总结
分类是什么?
分类是一种用于绘制以前驱变量开始的数据组织示意图的技术。因变量是用来对数据进行分类的。
分类树从自变量开始,根据现有的因变量分支为两组。它旨在阐明因变量带来的分类形式的反应。
什么是回归
回归是一种基于假设或已知数值输出值的预测方法。这个输出值是一系列递归划分的结果,每一步都有一个数值和另一组因变量,这些因变量分支到另一个对,就像这样。
回归树以一个或多个前驱变量开始,以一个最终输出变量结束。因变量是连续或离散的数值变量。
分类和回归的区别是什么?
分类与回归 |
|
树模型,其中目标变量可以取一组离散的值。 | 树型模型,目标变量可以取连续值,通常是实数。 |
因变量 | |
对于分类树,因变量是分类的。 | 对于回归树,因变量是数值的。 |
值 | |
具有一定数量的无序值。 | 具有离散但有序的值或非离散的值。 |
建设的目的 | |
构建回归树的目的是将回归系统以期望输出值出现的方式拟合到每个行列式分支上。 | 分类树的分支由前一个节点派生的因变量决定。 |
摘要-分类vs回归
回归和分类树是一种很有帮助的技术,可以绘制出指向研究结果的过程,无论是分类还是单个数值。分类树和回归树的区别在于它们的因变量。分类树有分类的和无序的因变量。回归树的因变量为连续值或有序整值。
参考:
1.“决策树学习。”维基百科,维基媒体基金会,2018年5月13日。可以在这里
图片来源:
1.《数据挖掘》作者:Arbeck(CC BY 3.0) via下议院维基
留下一个回复