最近迁移集群,在hadoop-2.8.4 的yarn上跑 spark 程序 报了以下错误 java.lang.OutOfMemoryError: unable to create new native thread 开始以为yarn 资源争抢问题,后来发现是系统限制用户进程数问题. # 使用命令查看当前用户最大进程数 ulimit -u # centos7 在这里修改 ullimit -u 的值 sudo vi /etc/security/limits.d/20-nproc.conf * sof…