spark机器学习之KMeans算法实现

一、概念

KMeans基于划分的聚类方法

给定数据样本集Sample和应该划分的类书K,对样本数据Sample进行聚类,最终形成K个聚类,其相似的度量是某条数据与中心点的“距离”(距离可分为绝对距离、欧氏距离、闵可夫斯基距离。这里说的距离是欧式距离,欧氏距离也称欧几里得距离,它是在m维空间中两个点之间的真实距离)。

二、算法实现

从官网下载源码时在data文件夹下有mllib文件夹,里面有kmeans_data.txt,内容为:
0.0 0.0 0.0
0.1 0.1 0.1
0.2 0.2 0.2
9.0 9.0 9.0
9.1 9.1 9.1
9.2 9.2 9.2

完整代码:

 

package operator.operator
import org.apache.spark.mllib.clustering.KMeans
import org.apache.spark.mllib.linalg.{Vector, Vectors}
import org.apache.spark.{SparkConf, SparkContext}

import scala.io.Source
import scala.util.Random


object Kmean {
    def main(args: Array[String]): Unit = {
        val conf = new SparkConf().setMaster("local[2]").setAppName("Spark MLlib Exercise:K-Means Clustering").set("spark.testing.memory", "2147480000")
        val sc = new SparkContext(conf)
        //读取数据
        val testdata = sc.textFile("file:///C:\\Users\\Administrator\\Desktop\\data.txt")
        //统计数据 testdata.count()
        //查看数据 testdata.take(10)
        //数据预处理:
        //val parseTestdata = testdata.map(s => Vectors.dense(s.split(",").map(_.toDouble))).cache()
        //println(testdata.count())//统计数据的数量
        val parseTestdata = testdata.map { s => {
            val ar = s.split(" ")
            val tt = Vectors.dense((ar(0).toDouble) / 1000000, (ar(1).toDouble) / 1000000) //选取数组内第1和2列所有元素,并转换浮点型,再转为向量数组
            tt //必须写上返回值
        }
        }
        //上面已引入Kmeans的算法包,设置模型参数K,最大迭代次数和训练次数
        val numClusters = 5
        val numIterations = 10
        val numRuns = 3
        var clusterIndex: Int = 0
        val clusterModel = KMeans.train(parseTestdata, numClusters, numIterations, numRuns)

        // Evaluate clustering by computing Within Set Sum of Squared Errors(通过计算平方误差的总和来评估聚类结果)
        val clusterModelWssse = clusterModel.computeCost(parseTestdata)
        println("Wssse for model  = " + clusterModelWssse)

        //打印中心点
        println("Cluster centers: ")
//        clusterModel.clusterCenters.foreach(println)
        clusterModel.clusterCenters.foreach(x => {
            println("Center Point of Cluster " + clusterIndex + ":")
            println(x)
            clusterIndex += 1
        })


        //case class是一种样例类,用于模式匹配
        case class MatchData(vec: Vector, classs: Int)

        //打印原数据+类
        val kmeansTestResult = parseTestdata.map(vec => MatchData(vec, clusterModel.predict(vec)))
        //KMeansTestResult.take(10).foreach(println)


        //println(kmeansTestResult.filter(_.classs==0).count())//统计某类的数量,先filter:筛选集合元素,再进行统计

        //统计每类的数量(步骤:将kmeansTestResult中的classs进行映射成键值对(key/value)结构),再进行分组统计
        kmeansTestResult.map(line => (line.classs, 1)).reduceByKey(_ + _).foreach(println)
    }
}

 

  结果展示

 

 

、算法优化

K折交叉验证找出合理的K值,损失值

参考地址:

http://www.cnblogs.com/xiaoma0529/p/6937925.html

 

posted @ 2017-06-30 09:19  亢奋的小马哥  阅读(516)  评论(0编辑  收藏  举报