查看“Spark install”的源代码
←
Spark install
跳到导航
跳到搜索
因为以下原因,您没有权限编辑本页:
您请求的操作仅限属于该用户组的用户执行:
用户
您可以查看和复制此页面的源代码。
Apache Spark是一个开源集群运算框架,于 2009 年诞生于加州大学伯克利分校 AMPLab,2013 年被捐赠给 Apache 软件基金会,2014 年 2 月成为 Apache 的顶级项目。相对于 MapReduce 的批处理计算,Spark 可以带来上百倍的性能提升,因此它成为继 MapReduce 之后,最为广泛使用的分布式计算框架。 ===安装包=== wget <nowiki>https://dlcdn.apache.org/spark/spark-3.3.2/spark-3.3.2-bin-hadoop3-scala2.13.tgz</nowiki> tar -xzvf spark-3.3.2-bin-hadoop3-scala2.13.tgz mv spark-3.3.2-bin-hadoop3-scala2.13 /opt/ ln -s /opt/spark-3.3.2-bin-hadoop3-scala2.13 /opt/spark chown -R hdfs:hadoop /opt/spark* ===profile=== export SPARK_HOME=/opt/spark export PATH=$SPARK_HOME/bin:$SPARK_HOME/sbin:$PATH ===Configure=== ====spark-env.sh==== export JAVA_HOME='''/usr/java/jdk1.8.0_361''' export SPARK_MASTER_WEBUI_PORT='''8070''' export SPARK_WORKER_WEBUI_PORT='''8071''' <nowiki>#</nowiki> export SPARK_DAEMON_JAVA_OPTS="-Dspark.deploy.recoveryMode=ZOOKEEPER -Dspark.deploy.zookeeper.url='''zk1:2181,zk2:2181,zk3:2181''' -Dspark.deploy.zookeeper.dir=/spark" ====workers==== 加入 Worker 节点 g2-hdfs-01 g2-hdfs-02 .. ===Start=== *在某节点启动 spark 集群,执行 start-all.sh 命令后,在该节点上启动 Maser 服务,在 works 配置文件中配置的所有节点上启动 Worker 服务 一般来说,如果节点上只有 Spark 服务的话,上述命令也没什么问题。但碰巧 hadoop(hdfs) 也是同样的命令。所以最好是执行如下命令分别启动服务: # start-master.sh # start-workers.sh *在其它 standby 节点执行 start-master.sh 命令,启动备用的 Master 服务(master-standby) # 如果 spark-env.sh 中配置了 zookeeper === SYNC === HN=esxi-mc1 ssh ${HN} 'cd /tmp; tar -xzvf spark_332.tar.gz; mv spark-3.3.2-bin-hadoop3-scala2.13 /opt/; ln -s /opt/spark-3.3.2-bin-hadoop3-scala2.13 /opt/spark; chown -R hdfs:hadoop /opt/spark*' === Error === * WARN NativeCodeLoader: Unable to load native-hadoop library for your platform... using builtin-java classes where applicable * HiveContext is deprecated in Spark 2.0.0. Please use SparkSession.builder.enableHiveSupport().getOrCreate() instead [[分类:Develop]] [[分类:Hadoop]]
返回
Spark install
。
导航菜单
个人工具
登录
命名空间
页面
讨论
大陆简体
查看
阅读
查看源代码
查看历史
更多
搜索
导航
首页
最近更改
随机页面
目录
文章分类
侧边栏
帮助
工具
链入页面
相关更改
特殊页面
页面信息