数据挖掘考试题库参考模板.doc

上传人:doc321 文档编号:15006160 上传时间:2022-03-03 格式:DOC 页数:6 大小:95KB
返回 下载 相关 举报
数据挖掘考试题库参考模板.doc_第1页
第1页 / 共6页
数据挖掘考试题库参考模板.doc_第2页
第2页 / 共6页
数据挖掘考试题库参考模板.doc_第3页
第3页 / 共6页
数据挖掘考试题库参考模板.doc_第4页
第4页 / 共6页
数据挖掘考试题库参考模板.doc_第5页
第5页 / 共6页
点击查看更多>>
资源描述

《数据挖掘考试题库参考模板.doc》由会员分享,可在线阅读,更多相关《数据挖掘考试题库参考模板.doc(6页珍藏版)》请在三一文库上搜索。

1、1. 何谓数据挖掘?它有哪些方面的功能?从大量的、不完全的、有噪声的、模糊的、随机的数据中,提取隐含在其中的、人们事先不知道的、但又是潜在有用的信息和知识的过程称为数据挖掘。相关的名称有知识发现、数据分析、数据融合、决策支持等。数据挖掘的功能包括:概念描述、关联分析、分类与预测、聚类分析、趋势分析、孤立点分析以及偏差分析等。2. 何谓粒度?它对数据仓库有什么影响?按粒度组织数据的方式有哪些?粒度是指数据仓库的数据单位中保存数据细化或综合程度的级别。粒度影响存放在数据仓库中的数据量的大小,同时影响数据仓库所能回答查询问题的细节程度。按粒度组织数据的方式主要有: 简单堆积结构 轮转综合结构 简单直

2、接结构 连续结构3. 简述数据仓库设计的三级模型及其基本内容。概念模型设计是在较高的抽象层次上的设计,其主要内容包括:界定系统边界和确定主要的主题域。逻辑模型设计的主要内容包括:分析主题域、确定粒度层次划分、确定数据分割策略、定义关系模式、定义记录系统。物理数据模型设计的主要内容包括:确定数据存储结构、确定数据存放位置、确定存储分配以及确定索引策略等。在物理数据模型设计时主要考虑的因素有: I/O存取时间、空间利用率和维护代价等。提高性能的主要措施有划分粒度、数据分割、合并表、建立数据序列、引入冗余、生成导出数据、建立广义索引等。4. 在数据挖掘之前为什么要对原始数据进行预处理?原始业务数据来

3、自多个数据库或数据仓库,它们的结构和规则可能是不同的,这将导致原始数据非常的杂乱、不可用,即使在同一个数据库中,也可能存在重复的和不完整的数据信息,为了使这些数据能够符合数据挖掘的要求,提高效率和得到清晰的结果,必须进行数据的预处理。为数据挖掘算法提供完整、干净、准确、有针对性的数据,减少算法的计算量,提高挖掘效率和准确程度。5. 简述数据预处理方法和内容。 数据清洗:包括填充空缺值,识别孤立点,去掉噪声和无关数据。 数据集成:将多个数据源中的数据结合起来存放在一个一致的数据存储中。需要注意不同数据源的数据匹配问题、数值冲突问题和冗余问题等。 数据变换:将原始数据转换成为适合数据挖掘的形式。包

4、括对数据的汇总、聚集、概化、规范化,还可能需要进行属性的重构。 数据归约:缩小数据的取值范围,使其更适合于数据挖掘算法的需要,并且能够得到和原始数据相同的分析结果。6. 简述数据清理的基本内容。 尽可能赋予属性名和属性值明确的含义; 统一多数据源的属性值编码; 去除无用的惟一属性或键值(如自动增长的id); 去除重复属性(在某些分析中,年龄和出生日期可能就是重复的属性,但在某些时候它们可能又是同时需要的) 去除可忽略字段(大部分为空值的属性一般是没有什么价值的,如果不去除可能造成错误的数据挖掘结果) 合理选择关联字段(对于多个关联性较强的属性,重复无益,只需选择其中的部分用于数据挖掘即可,如价

5、格、数据、金额) 去掉数据中的噪音、填充空值、丢失值和处理不一致数据。7. 简述处理空缺值的方法。 忽略该记录; 去掉属性; 手工填写空缺值; 使用默认值; 使用属性平均值; 使用同类样本平均值; 预测最可能的值。8. 常见的分箱方法有哪些?数据平滑处理的方法有哪些?分箱的方法主要有: 统一权重法(又称等深分箱法) 统一区间法(又称等宽分箱法) 1 / 6 最小熵法 自定义区间法数据平滑的方法主要有:平均值法、边界值法和中值法。9. 何谓数据规范化?规范化的方法有哪些?写出对应的变换公式。将数据按比例缩放(如更换大单位),使之落入一个特定的区域(如0.01.0),称为规范化。规范化的常用方法有

6、:(1) 最大最小规范化:(2) 零均值规范化:(3) 小数定标规范化:xx0/1010. 数据归约的方法有哪些?为什么要进行维归约? 数据立方体聚集 维归约 数据压缩 数值压缩 离散化和概念分层维归约可以去掉不重要的属性,减少数据立方体的维数,从而减少数据挖掘处理的数据量,提高挖掘效率。11. 何谓聚类?它与分类有什么异同?聚类是将物理或抽象对象的集合分组成为多个类或簇(cluster)的过程,使得在同一个簇中的对象之间具有较高的相似度,而不同簇中的对象差别较大。聚类与分类不同,聚类要划分的类是未知的,分类则可按已知规则进行;聚类是一种无指导学习,它不依赖预先定义的类和带类标号的训练实例,属

7、于观察式学习,分类则属于有指导的学习,是示例式学习。12. 举例说明聚类分析的典型应用。商业:帮助市场分析人员从客户基本库中发现不同的客户群,并且用不同的购买模式描述不同客户群的特征。生物学:推导植物或动物的分类,对基于进行分类,获得对种群中固有结构的认识。WEB文档分类其他:如地球观测数据库中相似地区的确定;各类保险投保人的分组;一个城市中不同类型、价值、地理位置房子的分组等。聚类分析还可作为其他数据挖掘算法的预处理:即先进行聚类,然后再进行分类等其他的数据挖掘。聚类分析是一种数据简化技术,它把基于相似数据特征的变量或个案组合在一起。13. 聚类分析中常见的数据类型有哪些?何谓相异度矩阵?它

8、有什么特点?常见数据类型有区间标度变量、比例标度型变量、二元变量、标称型、序数型以及混合类型等。相异度矩阵是用于存储所有对象两两之间相异度的矩阵,为一个nn维的单模矩阵。其特点是d(i,j)=d(j,i),d(i,i)=0,d(j,j)=0。如下所示:14. 分类知识的发现方法主要有哪些?分类过程通常包括哪两个步骤?分类规则的挖掘方法通常有:决策树法、贝叶斯法、人工神经网络法、粗糙集法和遗传算法。分类的过程包括2步:首先在已知训练数据集上,根据属性特征,为每一种类别找到一个合理的描述或模型,即分类规则;然后根据规则对新数据进行分类。15. 什么是决策树?如何用决策树进行分类?决策树是用样本的属

9、性作为结点,用属性的取值作为分支的树结构。它是利用信息论原理对大量样本的属性进行分析和归纳而产生的。决策树的根结点是所有样本中信息量最大的属性。树的中间结点是以该结点为根的子树所包含的样本子集中信息量最大的属性。决策树的叶结点是样本的类别值。决策树用于对新样本的分类,即通过决策树对新样本属性值的测试,从树的根结点开始,按照样本属性的取值,逐渐沿着决策树向下,直到树的叶结点,该叶结点表示的类别就是新样本的类别。决策树方法是数据挖掘中非常有效的分类方法。16. 简述ID3算法的基本思想及其主算法的基本步骤。首先找出最有判别力的因素,然后把数据分成多个子集,每个子集又选择最有判别力的因素进一步划分,

10、一直进行到所有子集仅包含同一类型的数据为止。最后得到一棵决策树,可以用它来对新的样例进行分类。主算法包括如下几步:从训练集中随机选择一个既含正例又含反例的子集(称为窗口);用“建树算法”对当前窗口形成一棵决策树;对训练集(窗口除外)中例子用所得决策树进行类别判定,找出错判的例子;若存在错判的例子,把它们插入窗口,重复步骤,否则结束。17. 简述ID3算法的基本思想及其建树算法的基本步骤。首先找出最有判别力的因素,然后把数据分成多个子集,每个子集又选择最有判别力的因素进一步划分,一直进行到所有子集仅包含同一类型的数据为止。最后得到一棵决策树,可以用它来对新的样例进行分类。建树算法的具体步骤如下:

11、对当前例子集合,计算各特征的互信息;选择互信息最大的特征Ak;把在Ak处取值相同的例子归于同一子集,Ak取几个值就得几个子集;对既含正例又含反例的子集,递归调用建树算法;若子集仅含正例或反例,对应分枝标上P或N,返回调用处。18. 设某事务项集构成如下表,填空完成其中支持度和置信度的计算。事务ID项集L2支持度%规则置信度%T1A, DA, B33.3AB50T2D, EA, C33.3CA60T3A, C, EA, D44.4AD66.7T4A, B, D, EB, D33.3BD75T5A, B, CC, D33.3CD60T6A, B, DD, E33.3DE43T7A, C, DT8C

12、, D, ET9B, C, D19. 从信息处理角度看,神经元具有哪些基本特征?写出描述神经元状态的M-P方程并说明其含义。基本特征:多输入、单输出;突触兼有兴奋和抑制两种性能;可时间加权和空间加权;可产生脉冲;脉冲可进行传递;非线性,有阈值。M-P方程:,Wij是神经元之间的连接强度,是阈值,f(x)是阶梯函数。20. 遗传算法与传统寻优算法相比有什么特点? 遗传算法为群体搜索,有利于寻找到全局最优解; 遗传算法采用高效有方向的随机搜索,搜索效率高; 遗传算法处理的对象是个体而不是参变量,具有广泛的应用领域; 遗传算法使用适应值信息评估个体,不需要导数或其他辅助信息,运算速度快,适应性好;

13、遗传算法具有隐含并行性,具有更高的运行效率。21. 写出非对称二元变量相异度计算公式(即jaccard系数),并计算下表中各对象间的相异度。测试项目对 象test-1test-2test-3test-4test-5test-6OBJ1YNPNNNOBJ2YNPNPNOBJ3NYNYNN22. 简述K-平均算法的输入、输出及聚类过程(流程)。输入:簇的数目k和包含n个对象的数据集。输出:k个簇,使平方误差准则最小。步骤: 任意选择k个对象作为初始的簇中心; 计算其它对象与这k个中心的距离,然后把每个对象归入离它“最近”的簇; 计算各簇中对象的平均值,然后重新选择簇中心(离平均值“最近”的对象值)

14、; 重复第2第3步直到簇中心不再变化为止。 23. 简述K-中心点算法的输入、输出及聚类过程(流程)。输入:结果簇的数目k,包含n个对象的数据集输出:k个簇,使得所有对象与其最近中心点的相异度总和最小。流程: 随机选择k个对象作为初始中心点; 计算其它对象与这k个中心的距离,然后把每个对象归入离它“最近”的簇; 随机地选择一个非中心点对象Orandom,并计算用Orandom代替Oj的总代价S; 如果S0,则用Orandom代替Oj,形成新的k个中心点集合; 重复迭代第3、4步,直到中心点不变为止。24. 何谓文本挖掘?它与信息检索有什么关系(异同)。文本挖掘是从大量文本数据中提取以前未知的、

15、有用的、可理解的、可操作的知识的过程。它与信息检索之间有以下几方面的区别: 方法论不同:信息检索是目标驱动的,用户需要明确提出查询要求;而文本挖掘结果独立于用户的信息需求,是用户无法预知的。 着眼点不同:信息检索着重于文档中字、词和链接;而文本挖掘在于理解文本的内容和结构。 目的不同:信息检索的目的在于帮助用户发现资源,即从大量的文本中找到满足其查询请求的文本子集;而文本挖掘是为了揭示文本中隐含的知识。 评价方法不同:信息检索用查准率和查全率来评价其性能。而文本挖掘采用收益、置信度、简洁性等来衡量所发现知识的有效性、可用性和可理解性。 使用场合不同:文本挖掘是比信息检索更高层次的技术,可用于信

16、息检索技术不能解决的许多场合。一方面,这两种技术各有所长,有各自适用的场合;另一方面,可以利用文本挖掘的研究成果来提高信息检索的精度和效率,改善检索结果的组织,使信息检索系统发展到一个新的水平。人工神经网络是用大量的简单处理单元广泛连接而成的网络,用以模拟生物神经网络的智能计算系统,神经网络是一组类似于神经元的处理单元,其中每个连接都与一个权重相关联.Apriori优缺点:优点:大大压缩了频繁集的大小,取得了很好的性能。缺点: (1 ) 产生大量的频繁集 (2 ) 重复扫描事务数据库 如何改进? 改进:在第一次数据库遍历后就不需要用到原始数据库,而使用在前一次过程中所用的候选项集的集合。Apr

17、ioriTid算法的优点是用逐渐减少的TID表代替原始数据库,但是在循环的初始阶段,候选项集的个数往往大于数据项个数,导致构造的TID表可能比原始事务数据库还要大.聚类分析:从数据集中找出相似的数据并组成不同的组数据挖掘步骤:问题定义,数据准备,预处理,数据挖掘,结果的解释和评估ID3优点:搜索空间是完全的假设空间,目标函数必在搜索空间中,不存在无解的危险;全盘使用训练数据,而不是像候选剪除算法一个个地考虑训练例;可以生成容易理解的IF-THEN分类规则,更容易倍用户理解;擅于处理非数值数据缺点:这种基于互信息的计算方法偏向于属性取值数目较多的特征,而可取较多值的属性不是最优;此算法对噪声比较敏感,不易去除噪声;当训练集增加时,该算法生成的决策树也会随之变化;数据集越大,算法的计算量也会越大;缺乏伸缩性;增大了分类算法的额外开销还降低了分类的准确性

展开阅读全文
相关资源
猜你喜欢
相关搜索

当前位置:首页 > 社会民生


经营许可证编号:宁ICP备18001539号-1