OneHotEncoder介绍单属性多属性scala实现

       因为项目的需要,将数据库中表的属性向量化,然后进行机器学习,所以去spark官网学习了一下OneHotEncoder,官网的相关介绍比较少,主要是针对单属性的处理,但是项目的要求是多属性的处理,网上找了很多的资料,研究了大半天终于将它集成到了自己的项目之中,下面分享一下自己的学习心得,说的不好的地方,还请各位大神多多指教。

      介绍:将类别映射为二进制向量,其中至多一个值为1(其余为零),这种编码可供期望连续特征的算法使用,比如逻辑回归,这些分类的算法。

     好处:1.解决分类器不好处理属性数据的问题(分类器往往默认数据是连续的,并且是有序的)

                2.在一定程度上也起到了扩充特征的作用

     原理:1.String字符串转换成索引IndexDouble

                2.索引转化成SparseVector

      总结:OneHotEncoder=String->IndexDouble->SparseVector

单属性的官网实现:

package com.iflytek.features import org.apache.spark.ml.feature.{OneHotEncoder, StringIndexer} import org.apache.spark.ml.feature.{IndexToString, StringIndexer} import org.apache.spark.sql.SparkSession import org.apache.spark.ml.linalg.SparseVector

object OneHotEncoder {   val spark=SparkSession.builder().appName("pca").master("local").getOrCreate()   def main(args: Array[String]): Unit = {   val df = spark.createDataFrame(Seq(   (0, "a"),   (1, "b"),   (2, "c"),   (3, "a"),   (4, "a"),   (5, "c")   )).toDF("id", "category")

  //可以把一个属性列里的值映射成数值类型   val indexer = new StringIndexer()     .setInputCol("category")     .setOutputCol("categoryIndex")     .fit(df)   val indexed = indexer.transform(df)

  indexed.select("category", "categoryIndex").show()

  val encoder = new OneHotEncoder()     .setInputCol("categoryIndex")     .setOutputCol("categoryVec")   val encoded = encoder.transform(indexed)   encoded.select("id","categoryIndex", "categoryVec").show()   encoded.select("categoryVec").foreach {     x => println(x.getAs[SparseVector]("categoryVec").toArray.foreach {       x => print(x+" ")       }     )     }     } }

输出结果如下:

+--------+-------------+ |category|categoryIndex| +--------+-------------+ |       a|          0.0| |       b|          2.0| |       c|          1.0| |       a|          0.0| |       a|          0.0| |       c|          1.0| +--------+-------------+

+---+-------------+-------------+ | id|categoryIndex|  categoryVec| +---+-------------+-------------+ |  0|          0.0|(2,[0],[1.0])| |  1|          2.0|    (2,[],[])| |  2|          1.0|(2,[1],[1.0])| |  3|          0.0|(2,[0],[1.0])| |  4|          0.0|(2,[0],[1.0])| |  5|          1.0|(2,[1],[1.0])| +---+-------------+-------------+

1.0 0.0 () 0.0 0.0 () 0.0 1.0 () 1.0 0.0 () 1.0 0.0 () 0.0 1.0 ()

多属性的找了很多资料,业务需求一般都是多属性的:

import  sc.implicits._     val vectorData = dataRDD       //将 枚举的值 转化为 Double      .map( x => (  enum2Double("是否已流失",x._1),   x._2(0) , x._2(1) ,x._2(2),x._2(3) ) )        //ml.feature.LabeledPoint      .toDF("loss","gender","age","grade","region")

     //indexing columns     val stringColumns = Array("gender","age","grade","region")     val index_transformers: Array[org.apache.spark.ml.PipelineStage] = stringColumns.map(     cname => new StringIndexer()         .setInputCol(cname)         .setOutputCol(s"${cname}_index")      )

    // Add the rest of your pipeline like VectorAssembler and algorithm     val index_pipeline = new Pipeline().setStages(index_transformers)     val index_model = index_pipeline.fit(vectorData)     val df_indexed = index_model.transform(vectorData)

    //encoding columns     val indexColumns  = df_indexed.columns.filter(x => x contains "index")     val one_hot_encoders: Array[org.apache.spark.ml.PipelineStage] = indexColumns.map(     cname => new OneHotEncoder()        .setInputCol(cname)        .setOutputCol(s"${cname}_vec")     )

    val pipeline = new Pipeline().setStages(index_transformers ++ one_hot_encoders)

    val model = pipeline.fit(vectorData)

model.transform(vectorData).select("loss","gender_index_vec","age_index_vec","grade_index_vec","region_index_vec")     .map (         x=>         ml.feature.LabeledPoint(x.apply(0).toString().toDouble ,ml.linalg.Vectors.dense(x.getAs[SparseVector]    ("gender_index_vec").toArray++x.getAs[SparseVector]("age_index_vec").toArray++x.getAs[SparseVector]("grade_index_vec").toArray++x.getAs[SparseVector]("region_index_vec").toArray))      )

本文参与腾讯云自媒体分享计划,欢迎正在阅读的你也加入,一起分享。

发表于

我来说两句

0 条评论
登录 后参与评论

相关文章

来自专栏https://www.cnblogs.com/L

【推荐系统篇】--推荐系统之训练模型

经过之前的训练数据的构建可以得到所有特征值为1的模型文件,本文将继续构建训练数据特征并构建模型。

861
来自专栏牛肉圆粉不加葱

Spark Task 的执行流程③ - 执行 task

创建、分发 Task一文中我们提到 TaskRunner(继承于 Runnable) 对象最终会被提交到 Executor 的线程池中去执行,本文就将对该执行过...

561
来自专栏Spark学习技巧

基于DF的Tokenizer分词

Tokenizer分词 进行文本分析前,对文本中句子进行分词我们处理的第一步。大家都是Spark的机器学习库分为基于RDD和基于DataFrame的库,由于基于...

2015
来自专栏数据结构与算法

P1156 垃圾陷阱

题目描述 卡门――农夫约翰极其珍视的一条Holsteins奶牛――已经落了到“垃圾井”中。“垃圾井”是农夫们扔垃圾的地方,它的深度为D(2<=D<=100)英尺...

2796
来自专栏流媒体

流媒体解码及H.264编码推流简介

这里我们使用了FFmpge的sdk和Opencv的sdk。为了方便测试,我们直接使用在线的rtsp网络流。rtmp://live.hkstv.hk.lxdns....

1444
来自专栏鸿的学习笔记

写给开发者的机器学习指南(八)

Ranking emails based on their content(Recommendation system)

822
来自专栏JetpropelledSnake

Web安全学习笔记之DES算法实例详解

转自http://www.hankcs.com/security/des-algorithm-illustrated.html

564
来自专栏ImportSource

读懂一行Full GC日志(回复JVM内存分配担保机制一文中 Mr/Mrs Xxx 在留言区提出的问题)

回复JVM内存分配担保机制一文中 Mr/Mrs Xxx 在留言区提出的问题: “请问分配3M的时候,怎么还发生了full gc?” 回复如下: 发生Full ...

8537
来自专栏SeanCheney的专栏

《利用Python进行数据分析·第2版》第14章 数据分析案例14.1 来自Bitly的USA.gov数据14.2 MovieLens 1M数据集14.3 1880-2010年间全美婴儿姓名14.4

本书正文的最后一章,我们来看一些真实世界的数据集。对于每个数据集,我们会用之前介绍的方法,从原始数据中提取有意义的内容。展示的方法适用于其它数据集,也包括你的。...

2915
来自专栏Java进阶之路

JVM参数配置

参考:https://docs.oracle.com/cd/E19900-01/819-4742/abeik/index.html

823

扫码关注云+社区