解压缩
tar -xvf -C /etc/hadoop
修改文件名
mv sacla~ sacla
配置环境变量
vim /etc/profile
export SCALA_HOME=/etc/hadoop/scala
export PATH=$PATH:$PATH:SACLA_HOME/bin
刷新
source /etc/profile
检测版本
sacla -version
解压缩spark
tar -xvf -C /etc/hadoop
修改文件名
mv spark~ spark
配置环境变量
vim /etc/profile
export SACLA_HOME=/etc/hadoop/spark
export PATH=$PATH:$PATH:SPARK_HOME/bin
刷新
在$SPARK_HOME/conf/目录下复制plate成spark-env.sh
cp plate spark-env.sh
修改$SPARK_HOME/conf/spark-env.sh,添加如下内容:
vim ~
export SCALA_HOME=/etc/hadoop/scala
export JAVA_HOME=/etc/hadoop/java
export HADOOP_HOME=/etc/hadoop/hadoop
export SPARK_WORKER_MEMORY=1g
export HADOOP_CONF_DIR=/etc/hadoop/hadoop/etc/hadoop
export SPARK_MASTER_IP=192.168.3.120
export SPARK_HOME=/etc/hadoop/spark
plate slaves
vim slaves
hadoop01
hadoop02
hadoop03
将配置好的环境拷贝到Slaver1和Slaver2节点。
scp -r /etc/hadoop/scala hadoop02:/etc/hadoop
scp -r /etc/hadoop/scala hadoop03:/etc/hadoop
scp -r /etc/hadoop/spark hadoop02:/etc/hadoop
scp -r /etc/hadoop/spark hadoop03:/etc/hadoop
scp -r /etc/profile hadoop02:/etc/profile
scp -r /etc/profile hadoop03:/etc/profile
在每个节点上刷新环境配置: source /etc/profile。
先启动hadoop
在hadoop01上启动spark
cd /etc/hadoop/spark
ls
cd sbin
./start-all.sh
bin
./spark-shell
本文发布于:2024-02-02 18:57:34,感谢您对本站的认可!
本文链接:https://www.4u4v.net/it/170687145445783.html
版权声明:本站内容均来自互联网,仅供演示用,请勿用于商业和其他非法用途。如果侵犯了您的权益请与我们联系,我们将在24小时内删除。
留言与评论(共有 0 条评论) |