分类和回归的区别在于输出变量的类型。
定量输出称为回归,或者说是连续变量预测;定性输出称为分类,或者说是离散变量预测。
举个例子: 预测明天的气温是多少度,这是一个回归任务; 预测明天是阴、晴还是雨,就是一个分类任务。 回归分析是研究两种或两种以上变量之间相互依赖的定量关系的统计分析方法, 回归分析按照涉及的自变量的多少,可分为一元回归分析和多元回归分析;按照 自变量和因变量 之间的关系类型,可分为线性回归分析和非线性回归分析。如果在回归分析中,只包括一个自变量和一个因变量,且二者的关系可用一条直线近似表示,这种回归分析称为一元线性回归分析。如果回归分析中包括两个或两个以上的自变量,且因变量和自变量之间是线性关系,则称为多元线性回归分析。 通过这种方法可以确定,许多领域中各个因素(数据)之间的关系,从而可以通过其用来预测,分析数据。 回归分析的主要内容为: ①从一组数据出发确定某些变量之间的 定量关系式,即建立数学模型并估计其中的未知参数。估计参数的常用方法是 最小二乘法。 ②对这些关系式的 可信程度进行检验。 ③在许多自变量共同影响着一个因变量的关系中,判断哪个(或哪些)自变量的影响是 显著的,哪些自变量的影响是不显著的,将影响显著的自变量选入模型中,而剔除影响不显著的变量,通常用 逐步回归、 向前回归和 向后回归等方法。 ④利用所求的关系式对某一生产过程进行预测或控制。回归分析的应用是非常广泛的,统计软件包使各种回归方法计算十分方便。 方差(variance)是在概率论和统计方差衡量 随机变量或一组数据时离散程度的度量。概率论中方差用来度量 随机变量和其 数学期望(即 均值)之间的偏离程度。统计中的方差(样本方差)是各个数据分别与其平均数之差的平方的和的 平均数。 无偏估计是参数的样本 估计量的期望值等于参数的真实值。 估计量的数学期望等于被估计参数,则称此为无偏估计。 最小二乘法(又称最小平方法)是一种数学优化技术。它通过最小化误差的平方和寻找数据的最佳 函数匹配。利用最小二乘法可以简便地求得未知的数据,并使得这些求得的数据与实际数据之间 误差的平方和为最小。最小二乘法还可用于 曲线拟合。其他一些优化问题也可通过最小化能量或最大化熵用最小二乘法来表达。 普通最小二乘法的复杂性: 缺点:要求每个影响因素 相互独立,否则会出现 随机误差 回归用于解决预测值问题损失函数(loss function)是用来估量你模型的预测值f(x)与真实值Y的不一致程度,它是一个非负实值函数,通常使用L(Y, f(x))来表示,损失函数越小,模型的鲁棒性就越好。损失函数是经验风险函数的核心部分,也是结构风险函数重要组成部分。模型的结构风险函数包括了经验风险项和正则项,通常可以表示成如下式子:
其中,前面的均值函数表示的是经验风险函数,L代表的是损失函数,后面的Φ是正则化项(regularizer)或者叫惩罚项(penalty term),它可以是L1,也可以是L2,或者其他的正则函数。整个式子表示的意思是找到使目标函数最小时的θ值。下面主要列出几种常见的损失函数。 最近邻分类:计算待分类样本与训练样本中各个类的距离,求出距离最小的 K近邻 是求出 k 个最小的,然后计算分别属于某一类的个数,选个数最大的类,若相等则选择跟训练集中的序列有关 近邻分类:解决离散数据 近邻回归:解决连续数据 核函数 原理 根据模式识别理论,低维空间线性不可分的模式通过非线性映射到高维特征空间则可能实现线性可分,但是如果直接采用这种技术在高维空间进行分类或回归,则存在确定非线性映射函数的形式和参数、特征空间维数等问题,而最大的障碍则是在高维特征空间运算时存在的“维数灾难”。采用核函数技术可以有效地解决这样问题 似然函数 与 EM 极大似然估计,只是一种概率论在统计学的应用,它是参数估计的方法之一。说的是已知某个随机样本满足某种概率分布,但是其中具体的参数不清楚,参数估计就是通过若干次试验,观察其结果,利用结果推出参数的大概值。最大似然估计是建立在这样的思想上:已知某个参数能使这个样本出现的概率最大,我们当然不会再去选择其他小概率的样本,所以干脆就把这个参数作为估计的真实值。转载于:https://www.cnblogs.com/shizhenqiang/p/8393957.html
相关资源:JAVA上百实例源码以及开源项目