HOME 首页
SERVICE 服务产品
XINMEITI 新媒体代运营
CASE 服务案例
NEWS 热点资讯
ABOUT 关于我们
CONTACT 联系我们
创意岭
让品牌有温度、有情感
专注品牌策划15年

    灰狼算法特征选择(灰狼算法特征选择题及答案)

    发布时间:2023-04-18 22:45:07     稿源: 创意岭    阅读: 133        

    大家好!今天让创意岭的小编来大家介绍下关于灰狼算法特征选择的问题,以下是小编对此问题的归纳整理,让我们一起来看看吧。

    开始之前先推荐一个非常厉害的Ai人工智能工具,一键生成原创文章、方案、文案、工作计划、工作报告、论文、代码、作文、做题和对话答疑等等

    只需要输入关键词,就能返回你想要的内容,越精准,写出的就越详细,有微信小程序端、在线网页版、PC客户端

    官网:https://ai.de1919.com

    创意岭作为行业内优秀的企业,服务客户遍布全球各地,如需了解SEO相关业务请拨打电话175-8598-2043,或添加微信:1454722008

    本文目录:

    灰狼算法特征选择(灰狼算法特征选择题及答案)

    一、THC是什么意思?CFS费用是什么意思?

    THC即Terminal Handling Charges (码头处理费)的缩写,是指由船公司向交货人或收货人收取的费用,用以抵偿船公司在装货港或目的港需要支付给码头或者中间作业经营者的货柜码头装卸费用及其他有关处理货物的费用。THC可分成装货港的THC和目的港的THC。

    CFS是集装箱货运站(CONTAINER FREIGHT STATION)是处理拼箱货的场所,集装箱货运站的使用费用,它办理拼箱货的交接,配载积载后,将箱子送往CY(Container Yard, 集装箱(货柜)堆场),并接受CY交来的进口货箱,进行拆箱,理货,保管,最后拨给各收货人。同时也可以按承运人的委托进行铅封和签发场站收据等业务。CFS的费用,通常是以一个立方多少来计算的。

    灰狼算法特征选择(灰狼算法特征选择题及答案)

    扩展资料:

    THC按起运港和目的港不同可划分为OTHC(Origin Terminal Handling Charge,起运港码头操作费)和DTHC(Destination Terminal Handling Charge,目的港码头操作费)两种。出口到美国的货物没有DTHC。

    2010 1月1号开始,船公司会进一步增加THC 的收费,部分船公司收费已经发出通知,例如COSCO。

    THC费用、ORC费用法律提示:

    1. 无论FOB还是CFR情况下,装货港的THC/ORC费用均由卖方承担,中国供应商在报价时必须考虑该价格因素。

    2. 认为FOB情况下,买方承担运费就必然承担THC或者ORC的观点是失当的。该观点是对THC费用性质及FOB条款涵义的误解所造成的,中国供应商应予注意。

    3. 认为CFR情况下,卖方必然承担卸货港的驳运费、码头费用的观点也是失当的。卖方可以通过在运输合同中排除承担,以及在买卖合同中约定由买方承担,而实现自身的免责。所以,CFR条件下,卖家需要注意的问题是,运输合同由卖方签订,船公司往往在格式条款中要求卖家承担目的港的码头费用,若卖方不拟承担该费用,应在运输合同中排除;若船公司的格式合同不容更改,则应在买卖合同中约定由买方补偿该费用。

    4. 上述关于THC和ORC费用的承担适用于买卖双方仅约定FOB或CFR条件,且没有对THC和ORC作出特别约定的情形,事实上,对于THC和ORC的承担,买卖双方是可以通过买卖合同另行约定,且该另行之约定较FOB或CFR条件有优先效力。

    参考资料:百度百科-THC (集装箱码头装卸作业费的缩写)

    参考资料:百度百科-CFS (集装箱货运站)

    二、决策树算法-原理篇

    关于决策树算法,我打算分两篇来讲,一篇讲思想原理,另一篇直接撸码来分析算法。本篇为原理篇。

    通过阅读这篇文章,你可以学到:

    1、决策树的本质

    2、决策树的构造过程

    3、决策树的优化方向

    决策树根据使用目的分为:分类树和回归树,其本质上是一样的。本文只讲分类树。

    决策树,根据名字来解释就是,使用树型结构来模拟决策。

    用图形表示就是下面这样。

    其中椭圆形代表:特征或属性。长方形代表:类别结果。

    面对一堆数据(含有特征和类别),决策树就是根据这些特征(椭圆形)来给数据归类(长方形)

    例如,信用贷款问题,我根据《神奇动物在哪里》的剧情给银行造了个决策树模型,如下图:

    然而,决定是否贷款可以根据很多特征,然麻鸡银行选择了:(1)是否房产价值>100w;(2)是否有其他值钱的抵押物;(3)月收入>10k;(4)是否结婚;这四个特征,来决定是否给予贷款。

    先不管是否合理,但可以肯定的是,决策树做了特征选择工作,即选择出类别区分度高的特征。

    由此可见, 决策树其实是一种特征选择方法。 (特征选择有多种,决策树属于嵌入型特征选择,以后或许会讲到,先给个图)即选择区分度高的特征子集。

    那么, 从特征选择角度来看决策树,决策树就是嵌入型特征选择技术

    同时,决策树也是机器学习中经典分类器算法,通过决策路径,最终能确定实例属于哪一类别。

    那么, 从分类器角度来看决策树,决策树就是树型结构的分类模型

    从人工智能知识表示法角度来看,决策树类似于if-then的产生式表示法。

    那么, 从知识表示角度来看决策树,决策树就是if-then规则的集合

    由上面的例子可知,麻鸡银行通过决策树模型来决定给哪些人贷款,这样决定贷款的流程就是固定的,而不由人的主观情感来决定。

    那么, 从使用者角度来看决策树,决策树就是规范流程的方法

    最后我们再来看看决策树的本质是什么已经不重要了。

    决策树好像是一种思想,而通过应用在分类任务中从而成就了“决策树算法”。

    下面内容还是继续讲解用于分类的“决策树算法”。

    前面讲了决策树是一种 特征选择技术

    既然决策树就是一种特征选择的方法,那么经典决策树算法其实就是使用了不同的特征选择方案。

    如:

    (1)ID3:使用信息增益作为特征选择

    (2)C4.5:使用信息增益率作为特征选择

    (3)CART:使用GINI系数作为特征选择

    具体选择的方法网上一大把,在这里我提供几个链接,不细讲。

    但,不仅仅如此。

    决策树作为嵌入型特征选择技术结合了特征选择和分类算法,根据特征选择如何生成分类模型也是决策树的一部分。

    其生成过程基本如下:

    根据这三个步骤,可以确定决策树由:(1)特征选择;(2)生成方法;(3)剪枝,组成。

    决策树中学习算法与特征选择的关系如下图所示:

    原始特征集合T:就是包含收集到的原始数据所有的特征,例如:麻瓜银行收集到与是否具有偿还能力的所有特征,如:是否结婚、是否拥有100w的房产、是否拥有汽车、是否有小孩、月收入是否>10k等等。

    中间的虚线框就是特征选择过程,例如:ID3使用信息增益、C4.5使用信息增益率、CART使用GINI系数。

    其中评价指标(如:信息增益)就是对特征的要求,特征需要满足这种条件(一般是某个阈值),才能被选择,而这一选择过程嵌入在学习算法中,最终被选择的特征子集也归到学习算法中去。

    这就是抽象的决策树生成过程,不论哪种算法都是将这一抽象过程的具体化。

    其具体算法我将留在下一篇文章来讲解。

    而决策树的剪枝,其实用得不是很多,因为很多情况下随机森林能解决决策树带来的过拟合问题,因此在这里也不讲了。

    决策树的优化主要也是围绕决策树生成过程的三个步骤来进行优化的。

    树型结构,可想而知,算法效率决定于树的深度,优化这方面主要从特征选择方向上优化。

    提高分类性能是最重要的优化目标,其主要也是特征选择。

    面对过拟合问题,一般使用剪枝来优化,如:李国和基于决策树生成及剪枝的数据集优化及其应用。

    同时,决策树有很多不足,如:多值偏向、计算效率低下、对数据空缺较为敏感等,这方面的优化也有很多,大部分也是特征选择方向,如:陈沛玲使用粗糙集进行特征降维。

    由此,决策树的优化方向大多都是特征选择方向,像ID3、C4.5、CART都是基于特征选择进行优化。

    参考文献

    统计学习方法-李航

    特征选择方法综述-李郅琴

    决策树分类算法优化研究_陈沛玲

    基于决策树生成及剪枝的数据集优化及其应用-李国和

    三、比较特征选择和因子分析算法的异同

    因子分析 1输入数据。 2点Analyze 下拉菜单,选Data Reduction 下的Factor 。 3打开Factor Analysis后,将数据变量逐个选中进入Variables 对话框中。 4单击主对话框中的Descriptive按扭,打开Factor Analysis: Descriptives子对话框,在Statistics栏中选择Univariate Descriptives项要求输出个变量的均值与标准差,在Correlation Matrix 栏内选择Coefficients项,要求计算相关系数矩阵,单击Continue按钮返回Factor Analysis主对话框。 5单击主对话框中的Extraction 按钮,打开如下图所示的Factor Analysis: Extraction 子对话框。在Method列表中选择默认因子抽取方法——Principal Components,在Analyze 栏中选择默认的Correlation Matrix 项要求从相关系数矩阵出发求解主成分,在Exact 栏中选择Number of Factors;6, 要求显示所有主成分的得分和所能解释的方差。单击Continue按钮返回Factor Analysis主对话框。 6单击主对话框中的OK 按钮,输出结果。

    四、特征元素筛选的目的

    特征提取的目的是把样本集从高维特征空间映射到低维特征空间,并使映射后的样本集仍具有良好的可分性。特征提取算法的好坏会影响系统的最终识别效果,同时经过特征提取后的数据集由于维数的减少,会明显减少系统的计算时间。然而在很多问题中往往不容易提取出合适的特征,需要根据具体的分类问题选择特征选择算法。

    以上就是关于灰狼算法特征选择相关问题的回答。希望能帮到你,如有更多相关问题,您也可以联系我们的客服进行咨询,客服也会为您讲解更多精彩的知识和内容。


    推荐阅读:

    灰狼优化算法应用(灰狼优化算法应用)

    灰狼算法和遗传算法哪个好(灰狼算法和遗传算法哪个好用)

    多目标灰狼算法(多目标灰狼算法流程图)

    杭州市武林壹号(杭州武林壹号房价)

    手机k歌软件排行榜(手机k歌软件排行榜前十名)