如何用Apache spark计算平均值?

 cjcstc@163.com 发布于 2023-01-03 16:45

我处理了一个Double存储列表,如下所示:

JavaRDD myDoubles

我想计算这个列表的平均值.根据文件,:

MLlib的所有方法都使用Java友好类型,因此您可以像在Scala中一样导入和调用它们.唯一需要注意的是,这些方法使用Scala RDD对象,而Spark Java API使用单独的JavaRDD类.您可以通过在JavaRDD对象上调用.rdd()将Java RDD转换为Scala.

在同一页面上,我看到以下代码:

val MSE = valuesAndPreds.map{case(v, p) => math.pow((v - p), 2)}.mean()

根据我的理解,这相当于(在类型方面)

Double MSE = RDD.mean()

结果,我试图计算我JavaRDD喜欢的平均值:

myDoubles.rdd().mean()

然而,它不起作用,并给我以下的错误:The method mean() is undefined for the type RDD.我也没有在RDD scala文档中找到这个函数的提及..这是因为我对自己的理解不好,还是这个呢?

撰写答案
今天,你开发时遇到什么问题呢?
立即提问
热门标签
PHP1.CN | 中国最专业的PHP中文社区 | PNG素材下载 | DevBox开发工具箱 | json解析格式化 |PHP资讯 | PHP教程 | 数据库技术 | 服务器技术 | 前端开发技术 | PHP框架 | 开发工具 | 在线工具
Copyright © 1998 - 2020 PHP1.CN. All Rights Reserved 京公网安备 11010802041100号 | 京ICP备19059560号-4 | PHP1.CN 第一PHP社区 版权所有