map算子对每个元素进行操作处理
测试代码
#!/usr/bin/env python
# -*- coding: utf-8 -*-
# @Time : 2018/4/8 10:41
# @Author : itzoo、
# @Site :
# @File : T_Spark_Map_Base.py
# @Software: PyCharm
from pyspark import SparkConf, SparkContext
# 创建spark入口sc
conf = SparkConf().setAppName("T_Spark_Map_Base").setMaster("local")
sc = SparkContext(conf=conf)
# 定义列表
array = [1, 2, 3, 4, 5]
# 转化为rdd
rdd = sc.parallelize(array)
result = rdd.map(lambda x: x+10).collect()
for i in result:
print(i)
print("列表中元素个数为:%s\n最大元素为:%s\n最小元素为%s\n元素的总和为%s" % (rdd.count(),
rdd.max(), rdd.min(), rdd.sum()))
# 结束
sc.stop()

