HDFS异常(调优),Spark提交任务出现OOM:unable to create new native thread

blob.jpg
看到这个图片,很容易就联想到是内存溢出了,但是具体问题出现在哪里呢。

1、检查配置文件

hdfs-site.xml,core-site.xml,yarn-site.xml等配置文件,但是并未发现配置问题。

2、调整参数:

--num-executors 3 
--driver-memory 4g 
--executor-memory 2g 
--executor-cores 1 

做了多次调整,依旧有问题

3、请教

通过查资料和咨询
找到一个类似问题
blob.jpg

最终有人告诉我,当前的各种用户进程限制:

[root@hadoop001 ~]# ulimit -u
22883
1)设置文件数和进程数
echo "* soft nofile 196605" >> /etc/security/limits.conf 
echo "* hard nofile 196605" >> /etc/security/limits.conf
echo "* soft nproc 196605" >> /etc/security/limits.conf
echo "* hard nproc 196605" >> /etc/security/limits.conf

重新登录,检查是否生效

[root@yws87 lib]# ulimit -a
open files                      (-n) 196605
max user processes              (-u) 196605
2)网络、内核、进程能拥有的最多内存区域
echo net.core.somaxconn=32768 >> /etc/sysctl.conf
echo "kernel.threads-max=196605" >> /etc/sysctl.conf
echo "kernel.pid_max=196605" >> /etc/sysctl.conf
echo "vm.max_map_count=393210" >> /etc/sysctl.conf

#生效
sysctl -p

问题解决!

打赏 赞(0)

为您推荐

发表评论

电子邮件地址不会被公开。 必填项已用*标注