微前端架构如何改变企业的开发模式与效率提升
447
2023-12-05
这篇文章主要介绍“TextFile分区问题怎么理解”,在日常操作中,相信很多人在TextFile分区问题怎么理解问题上存在疑惑,小编查阅了各式资料,整理出简单好用的操作方法,希望对大家解答”TextFile分区问题怎么理解”的疑惑有所帮助!接下来,请跟着小编一起来学习吧!
val
rdd1 = sc.parallelize(List(2,3,4,1,7,5,6,9,8))
获取分区的个数:rdd1.partitions.length,在spark-shell中没有指定分区的个数获取的是默认分区数,除了这个外parallelize方法可以使用,指定几个分区就会有几个分区出现
valrdd1 = sc.textFile("hdfs://hadoop02:8020/word.txt",3).flatMap _.split()).map((_,1)).reduceByKey(_+_)
textFile这个方法是有默认值就是2 除非改变loacl中的即默认值这个只要这个默认值小于2的话会使用小于默认的值这个默认属性是有值的defaultMinPartitions
如果在textfile中传入了分区数,那么这个分区数可能相同也可能不同需要看底层计算!
到此,关于“TextFile分区问题怎么理解”的学习就结束了,希望能够解决大家的疑惑。理论与实践的搭配能更好的帮助大家学习,快去试试吧!若想继续学习更多相关知识,请继续关注网站,小编会继续努力为大家带来更多实用的文章!
版权声明:本文内容由网络用户投稿,版权归原作者所有,本站不拥有其著作权,亦不承担相应法律责任。如果您发现本站中有涉嫌抄袭或描述失实的内容,请联系我们jiasou666@gmail.com 处理,核实后本网站将在24小时内删除侵权内容。
发表评论
暂时没有评论,来抢沙发吧~