linux环境不使用hadoop安装单机版spark的方法

作者:stpeace 时间:2023-08-06 06:00:28 

大数据持续升温, 不熟悉几个大数据组件, 连装逼的口头禅都没有。 最起码, 你要会说个hadoop, hdfs, mapreduce, yarn, kafka, spark, zookeeper, neo4j吧, 这些都是装逼的必备技能。

关于spark的详细介绍, 网上一大堆, 搜搜便是, 下面, 我们来说单机版的spark的安装和简要使用。

0.  安装jdk,  由于我的机器上之前已经有了jdk, 所以这一步我可以省掉。 jdk已经是很俗气的老生常谈了, 不多说, 用java/scala的时候可少不了。


ubuntu@VM-0-15-ubuntu:~$ java -version
openjdk version "1.8.0_151"
OpenJDK Runtime Environment (build 1.8.0_151-8u151-b12-0ubuntu0.16.04.2-b12)
OpenJDK 64-Bit Server VM (build 25.151-b12, mixed mode)
ubuntu@VM-0-15-ubuntu:~$

1.  你并不一定需要安装hadoop, 只需要选择特定的spark版本即可。你并不需要下载scala, 因为spark会默认带上scala shell. 去spark官网下载, 在没有hadoop的环境下, 可以选择:spark-2.2.1-bin-hadoop2.7, 然后解压, 如下:


ubuntu@VM-0-15-ubuntu:~/taoge/spark_calc$ ll
total 196436
drwxrwxr-x 3 ubuntu ubuntu   4096 Feb 2 19:57 ./
drwxrwxr-x 9 ubuntu ubuntu   4096 Feb 2 19:54 ../
drwxrwxr-x 13 ubuntu ubuntu   4096 Feb 2 19:58 spark-2.2.1-bin-hadoop2.7/
-rw-r--r-- 1 ubuntu ubuntu 200934340 Feb 2 19:53 spark-2.2.1-bin-hadoop2.7.tgz

2.  spark中有python和scala版本的, 下面, 我来用scala版本的shell, 如下:


ubuntu@VM-0-15-ubuntu:~/taoge/spark_calc/spark-2.2.1-bin-hadoop2.7$ bin/spark-shell
Using Spark's default log4j profile: org/apache/spark/log4j-defaults.properties
Setting default log level to "WARN".
To adjust logging level use sc.setLogLevel(newLevel). For SparkR, use setLogLevel(newLevel).
18/02/02 20:12:16 WARN NativeCodeLoader: Unable to load native-hadoop library for your platform... using builtin-java classes where applicable
18/02/02 20:12:16 WARN Utils: Your hostname, localhost resolves to a loopback address: 127.0.0.1; using 172.17.0.15 instead (on interface eth0)
18/02/02 20:12:16 WARN Utils: Set SPARK_LOCAL_IP if you need to bind to another address
Spark context Web UI available at http://172.17.0.15:4040
Spark context available as 'sc' (master = local[*], app id = local-1517573538209).
Spark session available as 'spark'.
Welcome to
  ____       __
  / __/__ ___ _____/ /__
 _\ \/ _ \/ _ `/ __/ '_/
 /___/ .__/\_,_/_/ /_/\_\  version 2.2.1
  /_/
Using Scala version 2.11.8 (OpenJDK 64-Bit Server VM, Java 1.8.0_151)
Type in expressions to have them evaluated.
Type :help for more information.
scala>

来进行简单操作:


scala> val lines = sc.textFile("README.md")
lines: org.apache.spark.rdd.RDD[String] = README.md MapPartitionsRDD[1] at textFile at <console>:24
scala> lines.count()
res0: Long = 103
scala> lines.first()
res1: String = # Apache Spark
scala> :quit
ubuntu@VM-0-15-ubuntu:~/taoge/spark_calc/spark-2.2.1-bin-hadoop2.7$
ubuntu@VM-0-15-ubuntu:~/taoge/spark_calc/spark-2.2.1-bin-hadoop2.7$
ubuntu@VM-0-15-ubuntu:~/taoge/spark_calc/spark-2.2.1-bin-hadoop2.7$  
ubuntu@VM-0-15-ubuntu:~/taoge/spark_calc/spark-2.2.1-bin-hadoop2.7$ wc -l README.md
103 README.md
ubuntu@VM-0-15-ubuntu:~/taoge/spark_calc/spark-2.2.1-bin-hadoop2.7$ head -n 1 README.md
# Apache Spark
ubuntu@VM-0-15-ubuntu:~/taoge/spark_calc/spark-2.2.1-bin-hadoop2.7$

来看看可视化的web页面, 在Windows上输入:  http://ip:4040

linux环境不使用hadoop安装单机版spark的方法

OK,  本文仅仅是简单的安装, 后面我们会继续深入介绍spark.

来源:https://blog.csdn.net/stpeace/article/details/79242999

标签:linux,hadoop,spark,安装
0
投稿

猜你喜欢

  • Kafka使用入门教程

    2023-08-07 06:03:17
  • 什么是垂直搜索?

    2008-01-15 08:49:00
  • 使用vmware测试PXE批量安装服务器的详细过程

    2021-12-18 22:47:31
  • centos7下安装并配置supervisor守护程序的操作方法

    2023-11-03 18:10:54
  • VMware Workstation Pro 无法在Windows上运行的解决方法

    2023-11-03 17:47:30
  • 关键词选择攻略 处理好冷热门及专业关系

    2009-02-18 12:21:00
  • 我在谷歌面试回答“谷歌如何打败百度”

    2008-01-27 16:16:00
  • 博客SEO指南

    2008-03-18 12:11:00
  • 2007十大网络新名词

    2007-12-13 12:25:00
  • Serv-U FTP Server远程/本地提升权限缺陷

    2007-08-13 14:08:00
  • DockerHub 镜像仓库的使用详解

    2023-10-02 05:11:57
  • 而立之年老站长的十大网络创业忠告

    2009-03-11 17:45:00
  • 改进电子商务类网站易用性的十个有效方法

    2008-11-20 14:06:00
  • 浅谈新手想月赚几W 必需要有的资源

    2008-07-06 23:04:00
  • 一个“老牌”站长的辛酸

    2008-01-31 13:54:00
  • 火狐炮轰微软浏览器选择框方案 称不公正

    2009-10-16 11:26:00
  • 与Google竞争 微软推在线编辑工具WorkSpace

    2007-10-02 17:01:00
  • 查看IIS里每个站点的资源使用情况

    2010-05-04 18:00:00
  • 教你打造不一样的美图秀秀欢迎首页

    2009-10-10 16:24:00
  • 巧用UCenter Home管理相册 还原纯净绿色SNS

    2009-02-16 10:22:00
  • asp之家 网站运营 m.aspxhome.com