在linux系统上安装solrCloud
  
  1.依赖:
  
  JRE solr7.3 需要 java1.8
  
  独立的zookeeper服务 ,zookeeper安装请参考:
  
  http://zookeeper.apache.org/doc/current/zookeeperStarted.html
  
  2.上传solr安装包
  
  3.从安装包中解出安装脚本
  
  tar xzf solr-7.3.0.tgz solr-7.3.0/bin/install_solr_service.sh --strip-components=2
  
  安装脚本可用于:CentOS, Debian, Red Hat, SUSE and Ubuntu Linux distributions
  
  4.安装脚本参数说明:
  
  ./install_solr_service.sh -help
  
  -i 指定软件安装目录。默认 /opt
  
  -d 指定数据目录(solr主目录):内核存储目录 。默认 /var/solr
  
  -u 指定要创建的拥有solr的用户名,出于安全考虑,不应以root来运行。默认 solr
  
  -s 指定系统服务名。默认 solr
  
  -p 指定端口。默认 8983
  
  5.目录规划
  
  6.以root身份运行安装脚本进行安装
  
  ./install_solr_service.sh solr-7.3.0.tgz
  
  等同:
  
  ./install_solr_service.sh solr-7.3.0.tgz -i /opt -d /var/solr -u solr -s solr -p 8983
  
  配置solr服务实例
  
  1.认识solr服务的配置文件
  
  问:如何启动一个solr服务实例?
  
  1,系统服务脚本: /etc/init.d/solr 请查看该脚本内容,看系统启动时是如何启动solr服务实例的。 可看到使用了如下三个变量:
  
  2.环境参数配置文件(官方叫法:include file)。它将覆盖 bin/solr启停控制脚本中的配置参数。我们通过该文件来配置修改solr服务实例的运行配置。
  
  请查看 /etc/default/solr.in.sh ,看我们可以在该文件中进行哪些配置。
  
  在 /etc/default/solr.in.sh 中可看到它配置了如下参数:
  
  map将RDD的元素一个个传入call方法,经过call方法的计算之后,逐个返回,生成新的RDD,计算之后,记录数不会缩减。示例代码,将每个数字加10之后再打印出来, 代码如下
  
  import java.util.Arrays;
  
  import org.apache.spark.SparkConf;
  
  import org.apache.spark.api.java.JavaRDD;
  
  import org.apache.spark.api.java.JavaSparkContext;
  
  import org.apache.spark.api.java.function.Function;
  
  import org.apache.spark.api.java.function.VoidFunction;
  
  public class Map {
  
  public static void main(String[] args) {
  
  SparkConf conf = new SparkConf(www.yongshiyule178.com/).setAppName( www.dfgjpt.com"spark map").setMaster("local[*]");
  
  JavaSparkContext javaSparkContext www.michenggw.com new JavaSparkContext(conf);
  
  JavaRDD<Integer> listRDD = javaSparkContext.parallelize(Arrays.asList(1, 2, 3, 4));
  
  JavaRDD<Integer> numRDD www.yongshi123.cn =www.tiaotiaoylzc.com listRDD.map(new Function<Integer, Integer>() {
  
  @Override
  
  public Integer call(Integer num) throws Exception {
  
  return num + 10;
  
  numRDD.foreach(new VoidFunction<Integer>(www.cmeidi.cn) {
  
  @Override
  
  public void call(Integer num) throws Exception {
  
  System.out.println(num);
  
  执行结果:
  
  2、flatMap
  
  flatMap和map的处理方式一样,都是把原RDD的元素逐个传入进行计算,但是与之不同的是,flatMap返回值是一个Iterator,也就是会一生多,超生
  
  import java.util.Arrays;
  
  import java.util.Iterator;
  
  import org.apache.spark.SparkConf;
  
  import org.apache.spark.api.java.JavaRDD;
  
  import org.apache.spark.api.java.JavaSparkContext;
  
  import org.apache.spark.api.java.function.FlatMapFunction;
  
  import org.apache.spark.api.java.function.VoidFunction;
  
  public class FlatMap {
  
  public static void main(String[] args) {
  
  SparkConf conf = new SparkConf().setAppName(www.mhylpt.com"spark map"www.ycjszpgs.com).setMaster("local[*]");
  
  JavaSparkContext javaSparkContext = new JavaSparkContext(conf);
  
  JavaRDD<String> listRDD = javaSparkContext
  
  .parallelize(Arrays.asList("hello wold", "hello java", "hello spark"));
  
  JavaRDD<String> rdd = listRDD.flatMap(new FlatMapFunction<String, String>() {
  
  private static final long serialVersionUID = 1L;
  
  @Override
  
  public Iterator<String>www.myzx1.com call(String input) throws Exception {
  
  return Arrays.asList(input.split()).iterator();
  
  rdd.foreach(new VoidFunction<String>() {
  
  private static final long serialVersionUID = 1L;
  
  @Override
  
  public void call(String num) throws Exception {
  
  System.out.println(num);

Spark RDD操作之Map系算子的更多相关文章

  1. Spark RDD操作(1)

    https://www.zybuluo.com/jewes/note/35032 RDD是什么? RDD是Spark中的抽象数据结构类型,任何数据在Spark中都被表示为RDD.从编程的角度来看,RD ...

  2. Spark RDD 操作

    1. Spark RDD 创建操作 1.1 数据集合   parallelize 可以创建一个能够并行操作的RDD.其函数定义如下: ) scala> sc.defaultParallelism ...

  3. spark RDD操作的底层实现原理

    RDD操作闭包外部变量原则 RDD相关操作都需要传入自定义闭包函数(closure),如果这个函数需要访问外部变量,那么需要遵循一定的规则,否则会抛出运行时异常.闭包函数传入到节点时,需要经过下面的步 ...

  4. Spark RDD API详解(一) Map和Reduce

    RDD是什么? RDD是Spark中的抽象数据结构类型,任何数据在Spark中都被表示为RDD.从编程的角度来看,RDD可以简单看成是一个数组.和普通数组的区别是,RDD中的数据是分区存储的,这样不同 ...

  5. Spark RDD API具体解释(一) Map和Reduce

    本文由cmd markdown编辑.原始链接:https://www.zybuluo.com/jewes/note/35032 RDD是什么? RDD是Spark中的抽象数据结构类型,不论什么数据在S ...

  6. Spark RDD API详解之:Map和Reduce

    RDD是什么? RDD是Spark中的抽象数据结构类型,任何数据在Spark中都被表示为RDD.从编程的角度来看, RDD可以简单看成是一个数组.和普通数组的区别是,RDD中的数据是分区存储的,这样不 ...

  7. Spark RDD Operations(1)

    以上是对应的RDD的各中操作,相对于MaoReduce只有map.reduce两种操作,Spark针对RDD的操作则比较多 ************************************** ...

  8. Apache Spark 2.2.0 中文文档 - Spark RDD(Resilient Distributed Datasets)论文 | ApacheCN

    Spark RDD(Resilient Distributed Datasets)论文 概要 1: 介绍 2: Resilient Distributed Datasets(RDDs) 2.1 RDD ...

  9. Apache Spark RDD(Resilient Distributed Datasets)论文

    Spark RDD(Resilient Distributed Datasets)论文 概要 1: 介绍 2: Resilient Distributed Datasets(RDDs) 2.1 RDD ...

随机推荐

  1. Dubbo与Zookeeper在Window上的安装与简单使用

    一:Dubbo是什么?有什么用途?? 使用Dubbo可以将应用分布到多个服务器上,当有访问时,Dubbo有帮你管理自动将请求分配给合适得到服务器去执行,即建立多个生产者,建立多个消费者,自动匹配生产者 ...

  2. NOIP2002-2017普及组题解

    虽然普及组一般都是暴力省一,但是有一些题目还是挺难的qwq个人觉得能进TG的题目会在前面打上'*' NOIP2002(clear) #include<bits/stdc++.h> usin ...

  3. 解决 在Android开发上使用KSOAP2上传大图片到服务器经常报错的问题

    原文首发我的主力博客 http://anforen.com/wp/2017/04/android_ksoap2_unexpected_type_position_end_document_null_j ...

  4. (转)PostgreSQL pg_dump&psql 数据的备份与恢复

    转自:https://www.cnblogs.com/chjbbs/p/6480687.html Usage:   pg_dump [OPTION]... [DBNAME] 数据库名放最后,不指定默认 ...

  5. 解决微软surface pro在某些情况下wifi转输速度过慢的问题 - z

    我是新款i7 surface.昨天到的货,狗东. 在公司使用的时候网络很正常,但回到家里之后就特别卡.5G频段也特别卡,基本处于无法观看视频的地步.台式电脑(我台式用的无线网卡)和手机都没问题. 于是 ...

  6. iOS开发简记(3):tips提示

    我有一个需求:在点击或长按某个按钮时,需要显示提示,包括简单的文字提示,还有复杂一点的图片甚至是动态图的提示(可能还要加上文字). (1)文字tips 使用之前介绍的qmuikit里面的QMUITip ...

  7. [UWP 自定义控件]了解模板化控件(5):VisualState

    1. 功能需求 使用TemplatePart实现上篇文章的两个需求(Header为空时隐藏HeaderContentPresenter,鼠标没有放在控件上时HeaderContentPresent半透 ...

  8. [译]Kubernetes 分布式应用部署和人脸识别 app 实例

    原文地址:KUBERNETES DISTRIBUTED APPLICATION DEPLOYMENT WITH SAMPLE FACE RECOGNITION APP 原文作者:skarlso 译文出 ...

  9. Git push 时如何避免出现 "Merge branch 'master' of ..."

    在使用 Git 的进行代码版本控制的时候,往往会发现在 log 中出现 "Merge branch 'master' of ..." 这句话,如下图所示.日志中记录的一般为开发过程 ...

  10. ansible环境部署及常用模块总结 - 运维笔记

    一.  Ansible 介绍Ansible是一个配置管理系统configuration management system, python 语言是运维人员必须会的语言, ansible 是一个基于py ...