[Unit]
Description=Datanode
After=syslog.target network.target auditd.service sshd.service datanode_precheck.service
Requires=datanode_precheck.service [Service]
User=hdfs
Group=hdfs
Type=forking
Slice=hadoop.slice
LimitNOFILE=524288
Environment=CLASSPATH=/app/jdk/jdk1.8.0_92/lib/dt.jar:/app/jdk/jdk1.8.0_92/lib/tools.jar:.:/app/jdk/jdk1.8.0_92/lib/dt.jar:/app/jdk/jdk1.8.0_92/lib/tools.jar:
Environment=HADOOP_COMMON_HOME=/app/hadoop
Environment=HADOOP_CONF_DIR=/app/hadoop-conf
Environment=HADOOP_HDFS_HOME=/app/hadoop
Environment=HADOOP_HOME=/app/hadoop
Environment=HADOOP_LOG_DIR=/log/hadoop
Environment=HADOOP_MAPRED_HOME=/app/hadoop
Environment=HADOOP_MAPRED_LOG_DIR=/log/yarn
Environment=HADOOP_MAPRED_PID_DIR=/app/hadoop/tmp
Environment=HADOOP_PID_DIR=/app/hadoop/tmp
Environment=HADOOP_YARN_HOME=/app/hadoop
Environment=HIVE_HOME=/app/hive
Environment=JAVA_HOME=/app/jdk/jdk1.8.0_92
Environment=LANG=en_US.UTF-8
Environment=PATH=/app/anaconda2/bin:/app/hive/bin:/app/hadoop/sbin:/app/hadoop/bin:/app/jdk/jdk1.8.0_92/bin:/app/jdk/jdk1.8.0_92/bin:/usr/local/bin:/bin:/usr/bin:/usr/local/sbin:/usr/sbin:/home/yarn/.local/bin:/home/yarn/bin
Environment=USER_PROFILE=/app/pylibs/user-profile/install/lib/python2.7/site-packages
Environment=YARN_CONF_DIR=/app/hadoop-conf
Environment=YARN_LOG_DIR=/log/yarn
Environment=YARN_PID_DIR=/app/hadoop/tmp ExecStart=/bin/sh -c "exec hadoop-daemon.sh start datanode"
ExecStop=/bin/sh -c "exec hadoop-daemon.sh stop datanode" [Install]
WantedBy=default.target
[Unit]
Description=Nodemanager
After=syslog.target network.target auditd.service sshd.service datanode.service datanode_precheck.service
Requires=datanode_precheck.service [Service]
User=yarn
Group=yarn
Type=forking
Slice=hadoop.slice
LimitNOFILE=524288
Environment=CLASSPATH=/app/jdk/jdk1.8.0_92/lib/dt.jar:/app/jdk/jdk1.8.0_92/lib/tools.jar:.:/app/jdk/jdk1.8.0_92/lib/dt.jar:/app/jdk/jdk1.8.0_92/lib/tools.jar:
Environment=HADOOP_COMMON_HOME=/app/hadoop
Environment=HADOOP_CONF_DIR=/app/hadoop-conf
Environment=HADOOP_HDFS_HOME=/app/hadoop
Environment=HADOOP_HOME=/app/hadoop
Environment=HADOOP_LOG_DIR=/log/hadoop
Environment=HADOOP_MAPRED_HOME=/app/hadoop
Environment=HADOOP_MAPRED_LOG_DIR=/log/yarn
Environment=HADOOP_MAPRED_PID_DIR=/app/hadoop/tmp
Environment=HADOOP_PID_DIR=/app/hadoop/tmp
Environment=HADOOP_YARN_HOME=/app/hadoop
Environment=HIVE_HOME=/app/hive
Environment=JAVA_HOME=/app/jdk/jdk1.8.0_92
Environment=LANG=en_US.UTF-8
Environment=PATH=/app/anaconda2/bin:/app/hive/bin:/app/hadoop/sbin:/app/hadoop/bin:/app/jdk/jdk1.8.0_92/bin:/app/jdk/jdk1.8.0_92/bin:/usr/local/bin:/bin:/usr/bin:/usr/local/sbin:/usr/sbin:/home/yarn/.local/bin:/home/yarn/bin
Environment=USER_PROFILE=/app/pylibs/user-profile/install/lib/python2.7/site-packages
Environment=YARN_CONF_DIR=/app/hadoop-conf
Environment=YARN_LOG_DIR=/log/yarn
Environment=YARN_PID_DIR=/app/hadoop/tmp ExecStart=/bin/sh -c "exec yarn-daemon.sh start nodemanager"
ExecStop=/bin/sh -c "exec yarn-daemon.sh stop nodemanager" [Install]
WantedBy=default.target

Hadoop记录-Linux Service的更多相关文章

  1. 记录Linux下安装elasticSearch时遇到的一些错误

    记录Linux下安装elasticSearch时遇到的一些错误 http://blog.sina.com.cn/s/blog_c90ce4e001032f7w.html (2016-11-02 22: ...

  2. 通过登入IP记录Linux所有用户登录所操作的日志

    通过登入IP记录Linux所有用户登录所操作的日志 对于Linux用户操作记录一般通过命令history来查看历史记录,但是如果在由于误操作而删除了重要的数据的情况下,history命令就不会有什么作 ...

  3. 记录linux tty的一次软锁排查2

    在复现tty的死锁问题的时候,文洋兄使用了如下的方式: #include <fcntl.h> #include <unistd.h> #include <stdio.h& ...

  4. hadoop的Linux操作

    初学hadoop之linux系统操作的hdfs的常用命令 Hadoop之HDFS文件操作 Hadoop fs命令详解 官网doc sudo su - hdfs:免密,以hdfs账户登陆.可操作hdfs ...

  5. 如何记录linux终端下的操作日志

    如何记录linux终端下的操作日志 在linux终端下,为方便检查操作中可能出现的错误,以及避免屏幕滚屏的限制,我们可以把操作日志记录下来.常用的工具有 screen,script,以及tee等,通过 ...

  6. hadoop记录-Hadoop参数汇总

    Hadoop参数汇总 linux参数 以下参数最好优化一下: 文件描述符ulimit -n 用户最大进程 nproc (hbase需要 hbse book) 关闭swap分区 设置合理的预读取缓冲区 ...

  7. Hadoop记录-hdfs转载

    Hadoop 存档 每个文件均按块存储,每个块的元数据存储在namenode的内存中,因此hadoop存储小文件会非常低效.因为大量的小文件会耗尽namenode中的大部分内存.但注意,存储小文件所需 ...

  8. Hadoop记录-日常运维操作

    1.Active NameNode hang死,未自动切换 #登录当前hang死 Active namenode主机,停止Namenode,触发自动切换.hadoop-daemon.sh stop n ...

  9. Hadoop记录-变更

    1.安装salt-minion sed -i 's/^#//g' /etc/yum.repos.d/centos7.4.repo sed -i 's/enabled=0/enabled=1/g' /e ...

随机推荐

  1. Codeforces 719A 月亮

    参考自:https://www.cnblogs.com/ECJTUACM-873284962/p/6395221.html A. Vitya in the Countryside time limit ...

  2. 【BZOJ3142】[HNOI2013]数列(组合计数)

    [BZOJ3142][HNOI2013]数列(组合计数) 题面 BZOJ 洛谷 题解 唯一考虑的就是把一段值给分配给\(k-1\)天,假设这\(k-1\)天分配好了,第\(i\)天是\(a_i\),假 ...

  3. Redhat 用代理连外网

    设置 /etc/yum.conf 添加proxy=http://web-proxy.corp.xx.com:8080 /etc/yum.repos.d/rhel-source.repo 里面改成ena ...

  4. neutron相关知识

    Neutron 对虚拟三层网络的实现是通过其 L3 Agent (neutron-l3-agent).该 Agent 利用 Linux IP 栈.route 和 iptables 来实现内网内不同网络 ...

  5. Java复习总结——详细理解Java反射机制

    反射是什么 反射的作用用一句简单的话来讲就是可以对代码进行操作的代码,这个特性经常在被用于创建JavaBean中,通常造轮子的人会用到这个特性,而应用程序员用到这个特性的场景则较少. 能够分析类能力的 ...

  6. php记录

    PHP反射API 反向代理使用https协议,后台Tomcat使用http,redirect时使用错误协议的解决办法 多记几个导出公式,手中有粮,心中不慌 哈哈哈 PhpExcel中文帮助手册 Php ...

  7. 牛客练习赛28 E迎风舞 (三分查找)

    链接:https://www.nowcoder.com/acm/contest/200/E来源:牛客网 时间限制:C/C++ 1秒,其他语言2秒 空间限制:C/C++ 262144K,其他语言5242 ...

  8. multimap多重映照容器

    //multimap的基本用法 #include<map> #include<iostream> #include<string> using namespace ...

  9. Jupyter-Notebook 删除指定 kernel

    原来是Python3+C# 查看列表jupyter kernelspec list 删除指定kernel:jupyter kernelspec remove icsharpkernel 删除成功:(刷 ...

  10. Linux脚本点滴

    1.当硬盘空间不足15%时,循环删除最早的日志文件(ELK): #!/bin/bash for((i=20;i>=5;i-=1)) do code=`df /dev/mapper/ElkGrou ...