I----

1---jdk and scala install

****zyp@ubuntu:~/Desktop/software$ tar xvf jdk-7u67-linux-i586.tar.gz



****vim ~/.bashrc (vim /etc/profile false)

# # JAVA_HOME 2015.12.18 binary x64 or i386(uname -a)

112 export JAVA_HOME=/usr/lib/jvm/jdk1.7_586

113 export JRE_HOME=$JAVA_HOME/jre

114 export PATH=$JAVA_HOME/bin:$PATH

115 #export CLASSPATH=.:$JAVA_HOME/lib:$JRE_HOME/lib

116 

117 # SCALA_HOME 2015.12.18

118 export SCALA_HOME=/usr/lib/jvm/scala-2.10.4

119 export PATH=$PATH:$SCALA_HOME/bin



****source /etc/profile

****java -version

****scals -version



--tar tgz  http://www.scala-lang.org/files/archive/    or  http://www.scala-lang.org/files/archive/scala-2.10.4.tgz



2---spark install



using spark-1.1.0-bin-hadoop1.tgz

https://spark.apache.org/downloads.html

https://spark.apache.org/examples.html





****/usr/lib/jvm/spark-1.1.0-bin-hadoop1$ ./bin/spark-shell   --start the spark and http://localhost:4040

****Welcome to

      ____              __

           / __/__  ___ _____/ /__

               _\ \/ _ \/ _ `/ __/  '_/

                  /___/ .__/\_,_/_/ /_/\_\   version 1.1.0

                        /_/



16/01/07 01:20:08 INFO Utils: Successfully started service 'HTTP file server' on port 38690.

16/01/07 01:20:14 INFO Utils: Successfully started service 'SparkUI' on port 4040.

16/01/07 01:20:14 INFO SparkUI: Started SparkUI at http://ubuntu.local:4040 or http://192.168.174.129:4040/stages/

16/01/07 01:20:14 INFO Executor: Using REPL class URI: http://192.168.174.129:43766

16/01/07 01:20:14 INFO AkkaUtils: Connecting to HeartbeatReceiver: akka.tcp://sparkDriver@ubuntu.local:59425/user/HeartbeatReceiver

16/01/07 01:20:14 INFO SparkILoop: Created spark context..

Spark context available as sc

****scala> sc

res0: org.apache.spark.SparkContext = org.apache.spark.SparkContext@118c6de

****scala> val inFile = sc.textFile("README.md")

16/01/07 01:42:25 WARN SizeEstimator: Failed to check whether UseCompressedOops is set; assuming yes

16/01/07 01:42:25 INFO MemoryStore: ensureFreeSpace(31447) called with curMem=0, maxMem=280248975

16/01/07 01:42:25 INFO MemoryStore: Block broadcast_0 stored as values in memory (estimated size 30.7 KB, free 267.2 MB)

inFile: org.apache.spark.rdd.RDD[String] = README.md MappedRDD[1] at textFile at <console>:12

****scala> val sparks = inFile.filter(line=>line.contains("Spark"))

sparks: org.apache.spark.rdd.RDD[String] = FilteredRDD[2] at filter at <console>:14

****scala> sparks.count

****scala> exit(1)

end 

****awk '{if(match($0,"SPARK"))} {print}' README.md | wc -l

****cat README.md | grep -rn "spark"

3---- run error***  zyp@ubuntu:/usr/lib/jvm/scala-2.10.4/bin$ scalac

/usr/lib/jvm/scala-2.10.4/bin/scalac: line 23: java: command not found

---HelloWorld for scala

****$  scalac Demo.scala

zyp@ubuntu:/usr/lib/jvm/code/demo_scala$ scalac -encoding gbk Demo.scala

****$  scalac SampleDemo.scala

zyp@ubuntu:/usr/lib/jvm/code/demo_scala$ scalac -encoding gbk SampleDemo.scala

****$  scala SampleDemo

zyp@ubuntu:/usr/lib/jvm/code/demo_scala$ scala SampleDemo



4---demo_ssc

import org.apache.spark._

import org.apache.spark.streaming._

import org.apache.spark.streaming.StreamingContext._

// //这里指在本地执行。2个线程。一个监听,一个处理数据

val conf = new SparkConf().setAppName("NetworkWordCount").setMaster("local[2]")

//// Create the context

val ssc = new StreamingContext(conf, Seconds(20))

val lines = ssc.textFileStream("README.md")

val words = lines.flatMap(_.split(" "))

val wordCounts = words.map(x => (x, 1)).reduceByKey(_ + _)

wordCounts.print()

wordCounts.saveAsTextFile("zyp.txt")

words.count

println("****Hello Scala! Welcome to my Zoon")

ssc.start()

ssc.awaitTermination()

II---- linux 下更改文件胡权限肯用户以及用户组

使用chown命令能够改动文件或文件夹所属的用户:

命令:chown 用户 文件夹或文件名称

比如:chown qq /home/qq  (把home文件夹下的qq文件夹的拥有者改为qq用户) 



使用chgrp命令能够改动文件或文件夹所属的组:

 命令:chgrp 组 文件夹或文件名称

 比如:chgrp qq /home/qq  (把home文件夹下的qq文件夹的所属组改为qq组)



III---- python 读取zip压缩文件



#!/usr/bin/python

#coding=utf-8



import zipfile

z = zipfile.ZipFile("test.zip", "r") ##tarfile.TarFile()

#打印zip文件里的文件列表

for filename in z.namelist():

    print 'File:', filename



#读取zip文件里的第一个文件

first_file_name = z.namelist()[1]

content = z.read(first_file_name)

print first_file_name

print content

IV 相关链接

1-- https://spark.apache.org/examples.html

2-- http://spark.apache.org/docs/latest/  --- Spark API ****http://spark.apache.org/docs/latest/streaming-programming-guide.html#initializing-streamingcontext

3-- http://www.scala-lang.org/  ---- Scala API ***

4-- SparkStream 使用

5-- http://www.sxt.cn/info-2730-u-756.html

6-- Spark 执行与配置

7-- Spark RDD API具体解释(一)
Map和Reduce
 ****

8-- Spark入门实战系列--7.Spark
Streaming(下)--实时流计算Spark Streaming实战
 **

10-- http://maven.apache.org/guides/getting-started/  Maven
Getting Started Guide
http://maven.apache.org/plugins/    ./plugins/maven-compiler-plugin/  ./plugins/maven-deploy-plugin/


spark安装与调试的更多相关文章

  1. 01、Spark安装与配置

    01.Spark安装与配置 1.hadoop回顾 Hadoop是分布式计算引擎,含有四大模块,common.hdfs.mapreduce和yarn. 2.并发和并行 并发通常指针对单个节点的应对多个请 ...

  2. Spark应用远程调试

    本来想用Eclipse的.然而在网上找了一圈,发现大家都在说IntelliJ怎样怎样好.我也受到了鼓励,遂决定在这台破机器上鼓捣一次IntelliJ吧. Spark程序远程调试,就是将本地IDE连接到 ...

  3. Spark 安装部署与快速上手

    Spark 介绍 核心概念 Spark 是 UC Berkeley AMP lab 开发的一个集群计算的框架,类似于 Hadoop,但有很多的区别. 最大的优化是让计算任务的中间结果可以存储在内存中, ...

  4. Hive on Spark安装配置详解(都是坑啊)

    个人主页:http://www.linbingdong.com 简书地址:http://www.jianshu.com/p/a7f75b868568 简介 本文主要记录如何安装配置Hive on Sp ...

  5. Spark学习(一) -- Spark安装及简介

    标签(空格分隔): Spark 学习中的知识点:函数式编程.泛型编程.面向对象.并行编程. 任何工具的产生都会涉及这几个问题: 现实问题是什么? 理论模型的提出. 工程实现. 思考: 数据规模达到一台 ...

  6. Windows Service 开发,安装与调试

    Visual Studio.net 2010 Windows Service 开发,安装与调试 本示例完成一个每隔一分钟向C:\log.txt文件写入一条记录为例,讲述一个Windows Servic ...

  7. ubuntu14.04下nodejs + npm + bower的安装、调试和部署

      1. 简介 本文介绍ubuntu14.04下nodejs+npm+bower的安装.调试和部署 参考文档 https://docs.npmjs.com/getting-started https: ...

  8. Windows环境中Openfire与Spark安装与配置指南

    安装软件: openfire3.9.3 spark2.6.3 安装环境: WindowsXP JDK1.6.0_21 Oracle 一.openfire安装 1.安装openfire3.9.3,下载地 ...

  9. postgresql编译安装与调试(二)

    接前文postgresql编译安装与调试(一),继续说说postgresql的编译安装与调试. 上一篇已经详细说明了如何在Linux系统上编译安装postgresql,这次我们在此基础上简单讲讲如何在 ...

随机推荐

  1. chsh---更换登录系统时使用的shell

    chsh命令   chsh命令用来更换登录系统时使用的shell.若不指定任何参数与用户名称,则chsh会以应答的方式进行设置. 语法 chsh(选项)(参数) 选项 -s<shell 名称&g ...

  2. CMDB学习之四 ——DEBUG模式

    定义一个debug,进行解析调试,到测试文件 配置文件,配置debug模式,定义环境变量, #!/usr/bin/env python # -*- coding:utf-8 -*- import os ...

  3. HDU——T 3336 Count the string

    http://acm.hdu.edu.cn/showproblem.php?pid=3336 Time Limit: 2000/1000 MS (Java/Others)    Memory Limi ...

  4. Linux搭建aspx.net环境之:CentOs 7 安装 Mono 和 Jexus 步骤记录

    1 因为163没有CentOs7的镜像.所以没有加这个 wget  http://mirrors.163.com/.help/CentOS6-Base-163.repo cd /etc/yum.rep ...

  5. 编程精粹--编写高质量C语言代码(4):为子系统设防(一)

    通常,子系统都要对事实上现细节进行隐藏,在进行细节隐藏的同一时候.子系统为用户提供了一些关键入口点. 程序猿通过调用这些关键的入口点来实现与子系统的通信.因此假设在程序中使用这种子系统而且在其调用点加 ...

  6. Hadoop作业性能指标及參数调优实例 (二)Hadoop作业性能调优7个建议

    作者:Shu, Alison Hadoop作业性能调优的两种场景: 一.用户观察到作业性能差,主动寻求帮助. (一)eBayEagle作业性能分析器 1. Hadoop作业性能异常指标 2. Hado ...

  7. Android 阅读器架构图,网上收集,留做存货

    这个结构图是网上收集的图片.基结构明晰简洁.易于后期维护.本文会继续收集很多其他其他优秀的结构图,望有图的朋友推荐~

  8. java三元表达式编程规范问题

    package day01; public class Program { public static void main(String[] args) {        // TODO Auto-g ...

  9. 2.1 Producer API官网剖析(博主推荐)

    不多说,直接上干货! 一切来源于官网 http://kafka.apache.org/documentation/ 2.1 Producer API 2.1.生产者API 我们鼓励所有新开发的程序使用 ...

  10. js面向对象3-继承

    一.了解继承  首先我们一起了解下js中继承,其实继承就是后辈继承前辈的属性和方法. 二.继承的方法 从父类继承属性和方法 这是对象冒充的方法,模仿java的继承方法.实现的原理是,通过改变父类的执行 ...