天下事有难易乎?为之,则难者亦易矣;不为,则易者亦难矣。

pyspark学习之map算子操作

往事如烟 3927次浏览 0个评论

map算子对每个元素进行操作处理

测试代码

  1. #!/usr/bin/env python
  2. # -*- coding: utf-8 -*-
  3. # @Time : 2018/4/8 10:41
  4. # @Author : itzoo、
  5. # @Site :
  6. # @File : T_Spark_Map_Base.py
  7. # @Software: PyCharm
  8.  
  9. from pyspark import SparkConf, SparkContext
  10.  
  11. # 创建spark入口sc
  12. conf = SparkConf().setAppName("T_Spark_Map_Base").setMaster("local")
  13. sc = SparkContext(conf=conf)
  14.  
  15. # 定义列表
  16. array = [1, 2, 3, 4, 5]
  17. # 转化为rdd
  18. rdd = sc.parallelize(array)
  19. result = rdd.map(lambda x: x+10).collect()
  20. for i in result:
  21. print(i)
  22.  
  23. print("列表中元素个数为:%s\n最大元素为:%s\n最小元素为%s\n元素的总和为%s" % (rdd.count(),
  24. rdd.max(), rdd.min(), rdd.sum()))
  25. # 结束
  26. sc.stop()

ITZOO版权所有丨如未注明 , 均为原创丨转载请注明来自IT乐园 ->pyspark学习之map算子操作
发表我的评论
取消评论
表情 贴图 加粗 删除线 居中 斜体 签到

Hi,您需要填写昵称和邮箱!

  • 昵称 (必填)
  • 邮箱 (必填)
  • 网址