linux環(huán)境不使用hadoop安裝單機(jī)版spark的方法
大數(shù)據(jù)持續(xù)升溫, 不熟悉幾個大數(shù)據(jù)組件, 連裝逼的口頭禪都沒有。 最起碼, 你要會說個hadoop, hdfs, mapreduce, yarn, kafka, spark, zookeeper, neo4j吧, 這些都是裝逼的必備技能。
關(guān)于spark的詳細(xì)介紹, 網(wǎng)上一大堆, 搜搜便是, 下面, 我們來說單機(jī)版的spark的安裝和簡要使用。
0. 安裝jdk, 由于我的機(jī)器上之前已經(jīng)有了jdk, 所以這一步我可以省掉。 jdk已經(jīng)是很俗氣的老生常談了, 不多說, 用java/scala的時候可少不了。
ubuntu@VM-0-15-ubuntu:~$ java -version openjdk version "1.8.0_151" OpenJDK Runtime Environment (build 1.8.0_151-8u151-b12-0ubuntu0.16.04.2-b12) OpenJDK 64-Bit Server VM (build 25.151-b12, mixed mode) ubuntu@VM-0-15-ubuntu:~$
1. 你并不一定需要安裝hadoop, 只需要選擇特定的spark版本即可。你并不需要下載scala, 因?yàn)閟park會默認(rèn)帶上scala shell. 去spark官網(wǎng)下載, 在沒有hadoop的環(huán)境下, 可以選擇:spark-2.2.1-bin-hadoop2.7, 然后解壓, 如下:
ubuntu@VM-0-15-ubuntu:~/taoge/spark_calc$ ll total 196436 drwxrwxr-x 3 ubuntu ubuntu 4096 Feb 2 19:57 ./ drwxrwxr-x 9 ubuntu ubuntu 4096 Feb 2 19:54 ../ drwxrwxr-x 13 ubuntu ubuntu 4096 Feb 2 19:58 spark-2.2.1-bin-hadoop2.7/ -rw-r--r-- 1 ubuntu ubuntu 200934340 Feb 2 19:53 spark-2.2.1-bin-hadoop2.7.tgz
2. spark中有python和scala版本的, 下面, 我來用scala版本的shell, 如下:
ubuntu@VM-0-15-ubuntu:~/taoge/spark_calc/spark-2.2.1-bin-hadoop2.7$ bin/spark-shell Using Spark's default log4j profile: org/apache/spark/log4j-defaults.properties Setting default log level to "WARN". To adjust logging level use sc.setLogLevel(newLevel). For SparkR, use setLogLevel(newLevel). 18/02/02 20:12:16 WARN NativeCodeLoader: Unable to load native-hadoop library for your platform... using builtin-java classes where applicable 18/02/02 20:12:16 WARN Utils: Your hostname, localhost resolves to a loopback address: 127.0.0.1; using 172.17.0.15 instead (on interface eth0) 18/02/02 20:12:16 WARN Utils: Set SPARK_LOCAL_IP if you need to bind to another address Spark context Web UI available at http://172.17.0.15:4040 Spark context available as 'sc' (master = local[*], app id = local-1517573538209). Spark session available as 'spark'. Welcome to ____ __ / __/__ ___ _____/ /__ _\ \/ _ \/ _ `/ __/ '_/ /___/ .__/\_,_/_/ /_/\_\ version 2.2.1 /_/ Using Scala version 2.11.8 (OpenJDK 64-Bit Server VM, Java 1.8.0_151) Type in expressions to have them evaluated. Type :help for more information. scala>
來進(jìn)行簡單操作:
scala> val lines = sc.textFile("README.md")
lines: org.apache.spark.rdd.RDD[String] = README.md MapPartitionsRDD[1] at textFile at <console>:24
scala> lines.count()
res0: Long = 103
scala> lines.first()
res1: String = # Apache Spark
scala> :quit
ubuntu@VM-0-15-ubuntu:~/taoge/spark_calc/spark-2.2.1-bin-hadoop2.7$
ubuntu@VM-0-15-ubuntu:~/taoge/spark_calc/spark-2.2.1-bin-hadoop2.7$
ubuntu@VM-0-15-ubuntu:~/taoge/spark_calc/spark-2.2.1-bin-hadoop2.7$
ubuntu@VM-0-15-ubuntu:~/taoge/spark_calc/spark-2.2.1-bin-hadoop2.7$ wc -l README.md
103 README.md
ubuntu@VM-0-15-ubuntu:~/taoge/spark_calc/spark-2.2.1-bin-hadoop2.7$ head -n 1 README.md
# Apache Spark
ubuntu@VM-0-15-ubuntu:~/taoge/spark_calc/spark-2.2.1-bin-hadoop2.7$
來看看可視化的web頁面, 在Windows上輸入: http://ip:4040

OK, 本文僅僅是簡單的安裝, 后面我們會繼續(xù)深入介紹spark.
總結(jié)
以上就是這篇文章的全部內(nèi)容了,希望本文的內(nèi)容對大家的學(xué)習(xí)或者工作具有一定的參考學(xué)習(xí)價值,謝謝大家對腳本之家的支持。如果你想了解更多相關(guān)內(nèi)容請查看下面相關(guān)鏈接
相關(guān)文章
linux系統(tǒng)虛擬主機(jī)開啟支持Swoole Loader擴(kuò)展的方法
這篇文章主要介紹了linux系統(tǒng)虛擬主機(jī)開啟支持Swoole Loader擴(kuò)展的方法,需要的朋友可以參考下2020-12-12
centos 7系統(tǒng)下安裝Jenkins的步驟詳解
Jenkins是一個開源軟件項(xiàng)目,是基于Java開發(fā)的一種持續(xù)集成工具,下面這篇文章主要給大家介紹了關(guān)于在centos 7系統(tǒng)下安裝Jenkins的步驟,文中通過示例代碼介紹的非常詳細(xì),需要的朋友可以參考借鑒,下面來一起看看吧。2017-08-08
linux如何通過crontab命令定時執(zhí)行shell腳本
為保障網(wǎng)安測試活動的順利進(jìn)行,需要設(shè)置Linux服務(wù)器上服務(wù)的定時啟停,本文介紹了通過crontab實(shí)現(xiàn)服務(wù)定時啟停的方法,包括檢查crontab安裝、編寫啟停腳本、創(chuàng)建定時任務(wù)、日志記錄,以及問題解決方案,通過crontab-e命令編輯定時任務(wù)2024-10-10
centos下yum搭建安裝linux+apache+mysql+php環(huán)境的方法
這篇文章主要介紹了centos下yum搭建安裝linux+apache+mysql+php環(huán)境的方法,本文分步驟給大家介紹的非常詳細(xì),具有參考借鑒價值,需要的朋友可以參考下2016-10-10
Linux系統(tǒng)查看當(dāng)前網(wǎng)絡(luò)連接數(shù)的方法小結(jié)
在日常的運(yùn)維和開發(fā)中,網(wǎng)絡(luò)連接數(shù)的監(jiān)控是一個非常重要的指標(biāo),當(dāng)你需要排查網(wǎng)絡(luò)問題或優(yōu)化系統(tǒng)性能時,查看連接數(shù)是關(guān)鍵的一步,不同的 Linux 環(huán)境和發(fā)行版可能需要使用不同的方法來獲取連接信息,本文給大家介紹了Linux系統(tǒng)查看當(dāng)前網(wǎng)絡(luò)連接數(shù)的方法2024-12-12

