增加Spark的可用内存

 手机用户2502862657 发布于 2023-01-15 18:34

为了增加MAX可用内存,我使用:

export SPARK_MEM=1 g

或者我可以使用

val conf = new SparkConf()
             .setMaster("local")
             .setAppName("My application")
             .set("spark.executor.memory", "1g")
val sc = new SparkContext(conf)

我正在运行的过程需要超过1克.我想使用20g,但我只有8g的RAM可用.作为Spark工作的一部分,磁盘存储器是否可以使用RAM内存进行扩充,如果是这样,如何实现?

是否有Spark文档描述如何将作业分发到多个Spark安装?

对于spark配置,我使用所有默认值(在http://spark.apache.org/docs/0.9.0/configuration.html中指定),除了我上面指定的内容.我有一个以下的机器实例:

CPU : 4 cores
RAM : 8GB
HD : 40GB

更新:

我认为这是我正在寻找的文档:http://spark.apache.org/docs/0.9.1/spark-standalone.html

撰写答案
今天,你开发时遇到什么问题呢?
立即提问
热门标签
PHP1.CN | 中国最专业的PHP中文社区 | PNG素材下载 | DevBox开发工具箱 | json解析格式化 |PHP资讯 | PHP教程 | 数据库技术 | 服务器技术 | 前端开发技术 | PHP框架 | 开发工具 | 在线工具
Copyright © 1998 - 2020 PHP1.CN. All Rights Reserved 京公网安备 11010802041100号 | 京ICP备19059560号-4 | PHP1.CN 第一PHP社区 版权所有