您当前的位置: 首页 >  大数据

段智华

暂无认证

  • 4浏览

    0关注

    1232博文

    0收益

  • 0浏览

    0点赞

    0打赏

    0留言

私信
关注
热门博文

大数据Spark “蘑菇云”行动第77课:Spark Streaming性能调优思考和实践方法,发现磁盘空间没有了,怎么办

段智华 发布时间:2016-11-11 20:56:50 ,浏览量:4

大数据Spark “蘑菇云”行动第77课:Spark Streaming性能调优思考和实践方法

Spark使用一段时间后,发现磁盘空间没有了,尤其是运行SparkStreaming Spark streaming在不断的写日志,日志将磁盘撑满了。无论磁盘空间多大,都会撑破的。有时运行一个晚上,有时运行一个上午,磁盘写满了。 1、配置log最大的保存文件大小!!最多保存多少文件! 2、配置每一个文件的最大的大小! 3、executor roll的间隔时间interval按天、小时、分钟设置 4、按时间长短 或size大小设置rolling大小。spark.executor.logs.rolling.maxSize

http://blog.csdn.net/u011291159/article/details/50344517

下面三个日志rolling参数记得设置: spark.executor.logs.rolling.strategy size spark.executor.logs.rolling.maxSize 134217728 #default byte spark.executor.logs.rolling.maxRetainedFiles

 

http://geeks.aretotally.in/spark-streaming-kafka-direct-api-store-offsets-in-zk/

超时的时间一律调大!!更大的范围内跑通!!一律调大3到5倍!&

关注
打赏
1659361485
查看更多评论
立即登录/注册

微信扫码登录

0.1023s