这篇文章给大家分享的是有关spark mllib如何实现基于卡方校验的特征选择的内容。小编觉得挺实用的,因此分享给大家做个参考,一起跟随小编过来看看吧。
package spark.FeatureExtractionAndTransformation
import org.apache.spark.mllib.feature.ChiSqSelector
import org.apache.spark.mllib.linalg.Vectors
import org.apache.spark.mllib.regression.LabeledPoint
import org.apache.spark.mllib.util.MLUtils
import org.apache.spark.{SparkConf, SparkContext}
/**
* 基于卡方校验的特征选择
* 卡方校验:
* 在分类资料统计推断中一般用于检验一个样本是否符合预期的一个分布.
* 是统计样本的实际值与理论推断值之间的偏离程度.
* 卡方值越小,越趋于符合
*
* Created by eric on 16-7-24.
*/
object FeatureSelection {
val conf = new SparkConf() //创建环境变量
.setMaster("local") //设置本地化处理
.setAppName("TF_IDF") //设定名称
val sc = new SparkContext(conf)
def main(args: Array[String]) {
val data = MLUtils.loadLibSVMFile(sc, "/home/eric/IdeaProjects/wordCount/src/main/spark/FeatureExtractionAndTransformation/fs.txt")
val discretizedData = data.map { lp => //创建数据处理空间
LabeledPoint(lp.label, Vectors.dense(lp.features.toArray.map {x => x/2}))
}
val selector = new ChiSqSelector(2)//创建选择2个特性的卡方校验
val transformer = selector.fit(discretizedData)//创建训练模型
val filteredData = discretizedData.map { lp => //过滤前两个特性
LabeledPoint(lp.label, transformer.transform(lp.features))
}
filteredData.foreach(println)
// (0.0,[1.0,0.5])
// (1.0,[0.0,0.0])
// (0.0,[1.5,1.5])
// (1.0,[0.5,0.0])
// (1.0,[2.0,1.0])
}
}
0 1:2 2:1 3:0 4:1 1 1:0 2:0 3:1 4:0 0 1:3 2:3 3:2 4:2 1 1:1 2:0 3:4 4:3 1 1:4 2:2 3:3 4:1
感谢各位的阅读!关于“spark mllib如何实现基于卡方校验的特征选择”这篇文章就分享到这里了,希望以上内容可以对大家有一定的帮助,让大家可以学到更多知识,如果觉得文章不错,可以把它分享出去让更多的人看到吧!
亿速云「云服务器」,即开即用、新一代英特尔至强铂金CPU、三副本存储NVMe SSD云盘,价格低至29元/月。点击查看>>
免责声明:本站发布的内容(图片、视频和文字)以原创、转载和分享为主,文章观点不代表本网站立场,如果涉及侵权请联系站长邮箱:is@yisu.com进行举报,并提供相关证据,一经查实,将立刻删除涉嫌侵权内容。
原文链接:https://my.oschina.net/sunmin/blog/723931