安装spark详细步骤

安装spark详细步骤

Spark具有从存储在HDFS或者HadAPI(Hive、HBase等)中的任何文件创造分布式弹性数据集的能力。

Spark的调度方式有:

  • yarn-cluster 适合生产场景
  • yarn-client 有互动需求
  • local 小规模本地运算

Spark+Hadoop 的结合能够提供内存级性能的企业级应用的威力。

安装前准备
名称 版本
JDK 1.8.0
Hadoop 2.7.2
scala 2.11.6 www.scala-lang.org/download/2.…
spark 2.2.2 https://mirrors.cnnic.cn/apache/spark/spark-2.2.2/

spark 的运行要借助Scala JDK所以首先要配置Scala环境,并且 在yarn-cluster模式下,Spark是借助YARN做为其资源协商器,用来分配计算任务和使用各节点上的资源。

第一步:

将 spark-2.2.2-bin-hadoop2.7.tgz 上传到 /home 下
复制代码

第二步:

解压 tar -xvf spark-2.2.2-bin-hadoop2.7.tgz 
重命名: mv spark-2.2.2-bin-hadoop2.7.tgz  spark
复制代码

第三步:
配置环境变量 vim /etc/profile

export SPARK_HOME=/home/spark
export PATH=$PATH:$SPARK_HOME/bin
复制代码

执行变化:

source /etc/profile
复制代码

第四步:编辑 conf/spark-env.sh


export JAVA_HOME=/usr/local/jdk1.8
export SCALA_HOME=/usr/scala
export HADOOP_HOME=/opt/hadoop/hadoop2.7.5
export HADOOP_CONF_DIR=/opt/hadoop/hadoop2.7.5/etc/hadoop
export SPARK_MASTER_IP=7master
export SPARK_WORKER_MEMORY=8g
export SPARK_WORKER_CORES=2
export SPARK_WORKER_INSTANCES=1
export SPARK_HOME=/home/spark
export SPARK_DAEMON_JAVA_OPTS="-Dspark.deploy.recoveryMode=ZOOKEEPER -Dspark.deploy.zookeeper.url=7master:2181,node1:2181,node2:2181 -Dspark.deploy.zookeeper.dir=/spark"
复制代码

这里写图片描述

第五步: 修改 slaves :

7master
node1
node2
复制代码

第六步:将spark 分发到各节点相应位置:

 scp -r spark root@node1:/home/
 scp -r spark root@node2:/home/
复制代码

第七步启动集群:

start-all.sh
复制代码

第八步 用测试集群
项目参考:blog.csdn.net/weixin_4099…

/bin spark-sumbit --master yarn-cluster com.csu.Credit Bank.jar
复制代码

这里写图片描述

© 版权声明
THE END
喜欢就支持一下吧
点赞0 分享