Spark优化配置

  1. 添加外包路径

    1.1 vim $SPARK_HOME/conf/spark-defaults.conf

    spark.executor.extraClassPath    file:///opt/bigdata/spark/jars/*
    spark.driver.extraClassPath file:///opt/bigdata/spark/jars/*

    1.2 spark-submit时配置参数

     spark-submit \
    --conf spark.executor.extraClassPath=/opt/bigdata/spark/jars/* \
    --conf spark.driver.extraClassPath=/opt/bigdata/spark/jars/* \
  2. spark-submit时的参数配置

    spark-submit \
    --master spark://120.77.95.81:7077 \
    --driver-memory 1g \
    --executor-memory 800M \
    --num-executors 1 \
    --executor-cores 1 \
    --total-executor-cores 1 \
    --class com.xx.test

Kafka+Scala的参数配置

  1. auto.offset.reset值含义解释

    earliest

    当各分区下有已提交的offset时,从提交的offset开始消费;无提交的offset时,从头开始消费

    latest

    当各分区下有已提交的offset时,从提交的offset开始消费;无提交的offset时,消费新产生的该分区下的数据

    none

    topic各分区都存在已提交的offset时,从offset后开始消费;只要有一个分区不存在已提交的offset,则抛出异常

  2. spark.streaming.kafka.maxRatePerPartition

每分区每秒拉取数据量

val sparkConf = new SparkConf().setAppName("TIA_ACCESS_LOG_KAFKA")
.set("spark.streaming.kafka.maxRatePerPartition", cntPut)
.set("spark.serializer", "org.apache.spark.serializer.KryoSerializer")

Java脚本配置

  1. 内存配置

    -Xms800m -Xmx800m -XX:PermSize=256m -XX:MaxPermSize=512m -XX:MaxNewSize=512m

  2. 外部包配置

    -Djava.ext.dirs=/opt/bigdata/spark/jars/

  3. 指定main类

    -cp QunkePro.jar com.xng.qunkepro.mongotohbase.userinfo.UserInfo

  4. 将脚本绑定在某一个CPU上

    taskset -c 0 java -Xms1024m -Xmx1024m -XX:MaxNewSize=512m -cp Test.jar com.xx.test

Mongo命令

  1. 使用config文件启动

    mongod --port 27010 --config /etc/mongodb_xng.conf --replSet rs 1>/dev/null 2>&1 &

Kafka命令

  1. 后台启动kafka-server

    nohup kafka-server-start.sh /opt/bigdata/kafka/config/server.properties 1>/dev/null 2>&1 &
  2. 查看kafka的所有topic

    kafka-topics.sh --list --zookeeper dev01:2181,dev02:2181,dev03:2181
  3. 删除kafka的topic

    kafka-topics.sh --delete --zookeeper dev01:2181,dev02:2181,dev03:2181 --topic test
  4. 创建topic

    kafka-topics.sh --create --zookeeper dev01:2181,dev02:2181,dev03:2181 --replication-factor 2 --partitions 3 --topic testjmx
  5. 开启console-producer

    kafka-console-producer.sh --broker-list dev01:9092,dev02:9092,dev03:9092 --topic testjmx
  6. 开启console-consumer

    kafka-console-consumer.sh --bootstrap-server dev01:9092,dev02:9092,dev03:9092 --from-beginning --topic testjmx

Linux下不同组件运行命令的更多相关文章

  1. 【Linux下进程机制】从一道面试题谈linux下fork的运行机制

    今天一位朋友去一个不错的外企面试linux开发职位,面试官出了一个如下的题目: 给出如下C程序,在linux下使用gcc编译: #include "stdio.h" #includ ...

  2. (转)linux下fork的运行机制

    转载http://www.cnblogs.com/leoo2sk/archive/2009/12/11/talk-about-fork-in-linux.html 给出如下C程序,在linux下使用g ...

  3. linux下,一个运行中的程序,究竟占用了多少内存

    linux下,一个运行中的程序,究竟占用了多少内存 1. 在linux下,查看一个运行中的程序, 占用了多少内存, 一般的命令有 (1). ps aux: 其中  VSZ(或VSS)列 表示,程序占用 ...

  4. 在linux下的使用复制命令cp,不让出现“overwrite”(文件覆盖)提示的方法。(转)

    在linux下的使用复制命令cp,不让出现“overwrite”(文件覆盖)提示的方法. 一般我们在使用cp命令时加上-f选项,希望不让出现“overwrite”的提示(文件覆盖的提示).如:# cp ...

  5. Linux下查看进程的命令输出的内容解释

    Linux下查看进程的命令输出的内容解释 ps (process status) ps -e 或者ps -A (-e和-A完全一样) PID           TTY         TIME   ...

  6. 20145239 Linux下常用的ls命令总结

    20145239 Linux下常用的ls命令总结 通过学习本周的教学视频和要求掌握的内容,发现ls命令被使用的次数非常多,但作为一个初学者,可能我只会ls或者顶多ls -l两种用法.但其实ls是一个非 ...

  7. Linux下vi替换字符命令操作实例

    在Linux下的开发中,经常涉及到对文件里的字符进行处理,当中,对字符的替换操作也是非常的频繁. 本文以一个实际的文件为例,具体介绍了Linux下经常使用的vi替换字符命令,为相关的开发工作提供给了參 ...

  8. 终端的乐趣--Linux下有趣的终端命令或者工具【转】

    转自:https://blog.csdn.net/gatieme/article/details/52144603 版权声明:本文为博主原创文章,遵循 CC 4.0 BY-SA 版权协议,转载请附上原 ...

  9. linux下如何使用sftp命令【转】

    linux下如何使用sftp命令 from:   http://www.cnblogs.com/chen1987lei/archive/2010/11/26/1888391.html sftp 是一个 ...

随机推荐

  1. Codeforces 1190D. Tokitsukaze and Strange Rectangle

    传送门 注意到矩形往上是无限的,考虑把点按 $y$ 从大到小考虑 对于枚举到高度为 $h$ 的点,设当前高度大于等于 $h$ 的点的所有点的不同的 $x$ 坐标数量为 $cnt$ 那么对于这一层高度 ...

  2. Dubbo架构

    原文链接http://dubbo.apache.org 架构图 节点角色说明 节点 角色说明 Provider 暴露服务的服务提供方 Consumer 调用远程服务的服务消费方 Registry 服务 ...

  3. shiro配置学习

    一.shiro的配置 1.shiro的web过滤 实例化ShiroFilterFactoryBean 设置securityManager.loginUrl.unauthorizedUrl.sucess ...

  4. Spark在美团是怎么实现的

    目录 1. 美团离线计算平台架构都有哪些框架? 2. 为什么要使用Spark架构? 3. spark推广过程中需要注意哪些方面? 前言 美团是数据驱动的互联网服务,用户每天在美团上的点击.浏览.下单支 ...

  5. PL/SQL Developer13安装教程

    参考: https://blog.csdn.net/qs17809259715/article/details/88855617

  6. isAssignable

    import java.util.HashMap; import java.util.Map; public class MapTest { public static void main(Strin ...

  7. 配置Linux静态IP地址

  8. Linux fing cd 查找文件/文件夹并进入目录命令

    查找文件|文件夹并进入目录命令:cd $() [root@localhost /]# cd $(dirname "`find / -name 'ifcfg-ens33'`") // ...

  9. Jmeter Beanshell 编程简介

    简介 Jmeter除了提供丰富的组件以外,还提供脚本支持,可通过编写脚本来丰富Jmeter,实现普通组件无法完成的功能.Beanshell是一种轻量级的Java脚本语言,完全符合Java规范,并且内置 ...

  10. 14Filter&Listener

    1.Filter:过滤器 1.1 概念 生活中的过滤器:净水器,空气净化器,土匪. web中的过滤器:当访问服务器的资源时,过滤器可以将请求拦截下来,完成一些特殊的功能. 过滤器的作用: 一般用于完成 ...