21、回归分析法有何优点?在使用该法时,应注意哪些问题? 答:优点:1、回归分析法在分析多因素模型时,更加简单和方便; 2、运用回归模型,只 要采用的模型和数据相同,通过标准的统计方法可以计算岀唯一的结果,但在图和表的形式中, 数据之间关系的解释往往因人而异,不同分析者画岀的拟合曲线很可能也是不一样的; 3、回归 分析可以准确地计量各个因素之间的相关程度与回归拟合程度的高低,提高预测方程式的效果; 在回归分析法时,由于实际一个变量仅受单个因素的影响的情况极少,要注意模式的适合范围, 所以一元回归分析法适用确实存在一个对因变量影响作用明显高于其他因素的变量是使用。多 元回归分析法比较适用于实际经济问题,受多因素综合影响时使用。 缺点: 有时候在回归分析中,选用何种因子和该因子采用何种表达 式只是一种推测,这影响了用电因子的多样性和某些因子的不可测性,使得回归分析在某些 情况下受到限制。 支持向量机作为一种在统计学习理论基础上发展起来的机器学习方 法是目前运用于数揺挖掘和模式识别的一个非常强大的工具"具有 以下优点』 「模型结构简单,参数较少: 匕建模所需耍的样本较少•专门针对小样本惜况; 3.KW好的泛化能丿人对新样本往往能界示肌较好的推广能力; 4•能够较好的处理井线性和髙维数的问题, 5•有多种核函数町供选抖 建立不同的分类曲廁,斛决水同类型数 据的问题曜 6•从理论上,算法㈱到的是全局最优’解决『神经网络方法无法避 免的局部第优问题乜1 / 2'. 支持向量机能非常成功地处理回归问题 (时间序列分析)和模式识别(分类问题、判别 分析)等诸多问题,并可推广于预测和综合评价等领域,因此可应用于理科、工科和管 理 等多种学科•目前国际上支持向量机在理论研究和实际应用两方面都正处于飞速发 展阶段 两个不足: (1) SVM算法对大规模训练样本难以实施 由于SVM是借助二次规划来求解支持向量,而求解二次规划将涉及 m阶矩阵的 计算(m为样本的个数),当m数目很大时该矩阵的存储和计算将耗费大量的 机器内存和运算时间。针对以上冋题的主要改进有有 J.PIatt的SMO算法、 T.Joachims 的 SVM、C.J.C.Burges 等的 PCGC、张学工的 CSVM 以及 O.L.Mangasarian 等的 SOR 算法 (2) 用SVM解决多分类问题存在困难 经典的支持向量机算法只给出了二类分类的算法,而在数据挖掘的实际应用中, 一般要解决多类的分类问题。可以通过多个二类支持向量机的组合来解决。 主要 有一对多组合模式、一对一组合模式和SVM决策树;再就是通过构造多个分类器 的组合来解决。主要原理是克服SVMS有的缺点,结合其他算法的优势,解决多 类问题的分类精度。女口:与粗集理论结合,形成一种优势互补的多类问题的组合 分类器。 2 / 2'. 本文来源:https://www.wddqw.com/doc/abc4bcd2bc1e650e52ea551810a6f524cdbfcb08.html