在数字化转型的浪潮下,小程序游戏如何成为企业吸引年轻用户的重要工具?
576
2022-10-19
集群模式执行Spark程序(第七弹)
#添加打包插件
在pom.xml文件中添加所需插件
插入内容如下:
等待加载
步骤1 将鼠标点在WordCount ,ctrl+c后ctrl+v复制,重新命名为WordCount_Online
步骤2 修改代码
3. 读取数据文件,RDD可以简单的理解为是一个集合,集合中存放的元素是String类型
val data : RDD[String] = sparkContext.textFile(args(0))
7. 把结果数据保存到HDFS上
result.saveAsTextFile(args(1))
修改以上这2行代码
[图片上传失败...(image-d48c38-1660375399984
打包成功标志: 显示BUILD SUCCESS,可以看到target目录下的2个jar包
步骤4 启动Hadoop集群才能访问web页面
$ start-all.sh
步骤7 将words.txt删除
$ hadoop fs -rm /spark/test/words.txt
步骤8 刷新下页面。可以看到/spark/test路径下没有words.txt
步骤9 Alt+p,切到/opt/software,把含有第3方jar的spark_chapter02-1.0-SNAPSHOT.jar包拉进
先将解压的两个jar包复制出来
步骤10 也把F盘/word/words.txt直接拉进/opt/software
步骤11 查看有没有words.txt和spark_chapter02-1.0-SNAPSHOT.jar
步骤12 执行提交命令
$ *bin/spark-submit *
--master spark:// master:7077 \
--executor-memory 1g \
--total-executor-cores 1 \
/opt/software/spark_chapter02-1.0-SNAPSHOT.jar \
/spark/test/words.txt \
/spark/test/out
版权声明:本文内容由网络用户投稿,版权归原作者所有,本站不拥有其著作权,亦不承担相应法律责任。如果您发现本站中有涉嫌抄袭或描述失实的内容,请联系我们jiasou666@gmail.com 处理,核实后本网站将在24小时内删除侵权内容。
发表评论
暂时没有评论,来抢沙发吧~