当前位置: 首页 > news >正文

企业建设营销网站的基本步骤seo智能优化公司

企业建设营销网站的基本步骤,seo智能优化公司,安徽专业建网站,网站建设广告图一、(30分)设最小支持度阈值为0.2500, 最小置信度为0.6500。对于下面的规则模板和信息表找出R中的所有强关联规则: S∈R,P(S,x )∧ Q(S,y )> Gpa&#xf…

一、(30分)设最小支持度阈值为0.2500, 最小置信度为0.6500。对于下面的规则模板和信息表找出R中的所有强关联规则:

S∈R,P(S,x )∧ Q(S,y )==> Gpa(S,w ) [ s, c ]
其中,P,Q ∈{ Major, Status ,Age }.

MajorStatusAgeGpaCount
ArtsGraduateOldGood50
ArtsGraduateOldExcellent150
ArtsUndergraduateYoungGood150
Appl_scienceUndergraduateYoungExcellent
ScienceUndergraduateYoungGood100

解答:
样本总数为500,最小支持数为500*0.25 = 125。
在Gpa取不同值的情形下,分别讨论。
(1)Gpa = Good,

MajorStatusAgeCount
ArtsGraduateOld50
ArtsUndergraduateYoung150
ScienceUndergraduateYoung100

频繁1项集L1 = {Major= Arts:200; Status=Undergraduate: 250; Age = Young:250} -----10分
频繁2项集的待选集C2={Major= Arts,Status= Undergraduate:150; Major= Arts,Age=Young:150;Status=Undergraduate, Age=Young:250 }
频繁2项集L2=C2

(2) Gpa = Excellent

MajorStatusAgeCount
ArtsGraduateOld150
Appl_scienceUndergraduateYoung50

频繁1项集L1 = {Major= Arts:150; Status=Graduate: 150; Age = Old:250}
频繁2项集的待选集C2={Major= Arts,Status= Graduate:150; Major= Arts,Age=Old:150;Status=Graduate, Age=Old:150 }
频繁2项集L2=C2

考察置信度:
Major(S,Arts)^Status(S,Undergraduate)=>Gpa(S,Good) [s=150/500=0.3000, c=150/150=1.0000]
Major(S, Arts)^Age(S,Young)=>Gpa(S, Good)[s=150/500=0.3000, c=150/150=1.0000]
Status(S,Undergraduate)^Age(S,Young)=>Gpa(S,Good) [s=250/500=0.5000, c=250/300=0.8333]
Major(S, Arts)^Status(S,Graduate)=>Gpa(S, Excellent)[s=150/500=0.3000, c=150/200=0.7500]
Major(S, Arts)^Age(S,Old)=>Gpa(S, Excellent)[s=150/500=0.3000, c=150/200=0.7500]
Status(S,Graduate)^Age(S,Old)=>Gpa(S,Excellent) [s=150/500=0.3000, c=150/200=0.7500]

因此,所有强关联规则是:
Major(S,Arts)^Status(S,Undergraduate)=>Gpa(S,Good) [s=150/500=0.3000, c=150/150=1.0000]
Major(S, Arts)^Age(S,Young)=>Gpa(S, Good)[s=150/500=0.3000, c=150/150=1.0000]
Status(S,Undergraduate)^Age(S,Young)=>Gpa(S,Good) [s=250/500=0.5000, c=250/300=0.8333]
Major(S, Arts)^Status(S,Graduate)=>Gpa(S, Excellent)[s=150/500=0.3000, c=150/200=0.7500]
Major(S, Arts)^Age(S,Old)=>Gpa(S, Excellent)[s=150/500=0.3000, c=150/200=0.7500]
Status(S,Graduate)^Age(S,Old)=>Gpa(S,Excellent) [s=150/500=0.3000, c=150/200=0.7500]

二、(30分)设类标号属性 Gpa 有两个不同的值( 即{ Good, Excellent } ), 基于信息增益,利用判定树进行归纳分类。

解答:
定义P: Gpa = Good
N: Gpa = Excellent
任何分割进行前,样本集的熵为:

pnI(p,n)
3002000.97095

I(p,n)=-0.6log2(0.6) –0.4log2(0.4)
= 0.97095

考虑按属性Major分割后的样本的熵

MajorpiniI(pi,ni)
Arts2001500.98523
Appl_science0500
Science10000

E(Major) = 350/500*0.98523 = 0.68966

I(p,n)=-(4/7)log2(4/7) –(3/7)log2(3/7) =0.98523

考虑按属性Status分割后的样本的熵

StatuspiniI(pi,ni)
Graduate501500.81128
Undergraduate250500.65002

E(Status) = 200/5000.81128+300/5000.65002 = 0.71452

考虑按属性Age分割后的样本的熵

AgepiniI(pi,ni)
Old501500.81128
Young250500.65002

E(Age) = E(Status) = 0.71452

各属性的信息增益如下:
Gain(Major) =0.97095-0.68966 = 0.28129
Gain(Status) =Gain(Age) =0.97095-0.71452 = 0.25643

比较后,由于Gain(Major)的值最大,按照最大信息增益原则,按照属性Major的不同取值进行第一次分割.
分割后,按照Major的不同取值,得到下面的3个表:

(1)Major = Arts

StatusAgeGpaCount
GraduateOldGood50
GraduateOldExcellent150
UndergraduateYoungGood150

考虑按属性Status分割后的样本的熵

StatuspiniI(pi,ni)
Graduate501500.81128
Undergraduate15000

E(Status) = 200/350*0.81128= 0.46359

考虑按属性Age分割后的样本的熵

StatuspiniI(pi,ni)
Old501500.81128
Young15000

E(Age) = E(Status)= 0.46359

由于E(Age) = E(Status),可按照属性Status的不同取值进行第二次分割。分割后,按照Status的不同取值,得到下面的2个表:

(1.1) Status =Graduate

AgeGpaCount
OldGood50
OldExcellent150

由于表中属性Age的取值没有变化,停止分割。按照多数投票原则,该分支可被判定为Gpa=Excellent。
(1.2)Status = Undergraduate

StatusAgeGpaCount
UndergraduateYoungGood150

在这种情形下,所有样本的Gpa属性值都相同.停止分割.
(2)Major= Appl_Science

StatusAgeGpaCount
UndergraduateYoungExcellent50

在这种情形下,所有样本的Gpa属性值都相同.停止分割.
(3)Major=Science

StatusAgeGpaCount
UndergraduateYoungGood100

在这种情形下,所有样本的Gpa属性值都相同.停止分割.
综合以上分析,有以下的判定树:
Major--------- Arts ----------Status-------Graduate ------Excellent
\ ______Undergraduate______Good
_______Appl_Science_______________________Excellent

__________Science______________________Good

小 tricks

计算信息熵的代码

import mathdef entropy(probabilities):total = sum(probabilities)probabilities= [p / total for p in probabilities]entropy = 0for p in probabilities:if p > 0:entropy -= p * math.log2(p)return entropyprobabilities = [100,100,150]#计算100 100 150的信息熵result = entropy(probabilities)
print("信息熵:", result)
http://www.rdtb.cn/news/15156.html

相关文章:

  • 南宁大型网站设计公司seo运营学校
  • 专业网站开发价格百度指数明星人气榜
  • 怎么做网站优化推广北大青鸟培训机构靠谱吗
  • 事业单位备案网站爱站网关键词密度
  • 南坪网站建设哪里好微信推广怎么做
  • 单页的网站怎么做兰州网络推广与营销
  • 部队网站建设设计神马搜索seo优化排名
  • 专业开发网站的公司怎么策划一个营销方案
  • 网站seo置顶 乐云践新专家江西seo推广软件
  • 福田做网站报价长沙做网站的公司有哪些
  • 用vultr做网站口碑营销是什么
  • 合肥中小企业网站制作站内优化seo
  • 软件工程师怎么学杭州网站优化多少钱
  • 网络公司网站制作岗位职责搜索词和关键词
  • 专业的移动网站建设公司重庆广告公司
  • 网站建设入门基础小程序定制开发
  • 网站制作网站建设需要多少钱网络推广协议合同范本
  • 做微商海报的网站嵌入式培训机构哪家好
  • 怎么样建网站卖东西关键词在线优化
  • 网站 位置导航哈尔滨网络优化公司有哪些
  • 做网站需要的技术微信朋友圈推广
  • 开封市城乡建设局网站企业网站建设多少钱
  • 网站加入谷歌地图导航seo技巧课程
  • 做云图的网站seo信息是什么
  • 网站中做背景图片位置咋写二级分销小程序
  • 宁波网站推广方式注册城乡规划师
  • 中国网站排名 优帮云网络营销工具与方法
  • 重庆建站免费模板开发一个app平台大概需要多少钱?
  • 网站设计效果专业乐云seo销售的技巧与口才
  • 重生做网站的小说深圳网站seo外包公司哪家好