安装SCALA SPARK

阅读: 评论:0

安装SCALA SPARK

安装SCALA SPARK

解压缩

tar -xvf -C /etc/hadoop

修改文件名

mv sacla~ sacla

配置环境变量

vim /etc/profile

export SCALA_HOME=/etc/hadoop/scala

export PATH=$PATH:$PATH:SACLA_HOME/bin

刷新

source /etc/profile

检测版本

sacla -version

 

解压缩spark

tar -xvf -C /etc/hadoop

修改文件名

mv spark~ spark

配置环境变量

vim /etc/profile

export SACLA_HOME=/etc/hadoop/spark

export PATH=$PATH:$PATH:SPARK_HOME/bin

刷新

在$SPARK_HOME/conf/目录下复制plate成spark-env.sh

cp plate spark-env.sh

修改$SPARK_HOME/conf/spark-env.sh,添加如下内容:

vim ~

export SCALA_HOME=/etc/hadoop/scala

export JAVA_HOME=/etc/hadoop/java

export HADOOP_HOME=/etc/hadoop/hadoop

export SPARK_WORKER_MEMORY=1g

export HADOOP_CONF_DIR=/etc/hadoop/hadoop/etc/hadoop

export SPARK_MASTER_IP=192.168.3.120

export SPARK_HOME=/etc/hadoop/spark

 

plate slaves

vim slaves

hadoop01 

hadoop02  

hadoop03

将配置好的环境拷贝到Slaver1和Slaver2节点。

scp -r /etc/hadoop/scala hadoop02:/etc/hadoop

scp -r /etc/hadoop/scala hadoop03:/etc/hadoop

scp -r /etc/hadoop/spark hadoop02:/etc/hadoop

scp -r /etc/hadoop/spark hadoop03:/etc/hadoop

scp -r /etc/profile hadoop02:/etc/profile

scp -r /etc/profile hadoop03:/etc/profile

 

在每个节点上刷新环境配置: source /etc/profile。

先启动hadoop

在hadoop01上启动spark

cd /etc/hadoop/spark

ls

cd sbin

./start-all.sh

bin

./spark-shell

 

 

 

 

本文发布于:2024-02-02 18:57:34,感谢您对本站的认可!

本文链接:https://www.4u4v.net/it/170687145445783.html

版权声明:本站内容均来自互联网,仅供演示用,请勿用于商业和其他非法用途。如果侵犯了您的权益请与我们联系,我们将在24小时内删除。

上一篇:mysql 解析正则
标签:SCALA   SPARK
留言与评论(共有 0 条评论)
   
验证码:

Copyright ©2019-2022 Comsenz Inc.Powered by ©

网站地图1 网站地图2 网站地图3 网站地图4 网站地图5 网站地图6 网站地图7 网站地图8 网站地图9 网站地图10 网站地图11 网站地图12 网站地图13 网站地图14 网站地图15 网站地图16 网站地图17 网站地图18 网站地图19 网站地图20 网站地图21 网站地图22/a> 网站地图23