摘要: # 定义一个列表 list1 = [1,2,3,4,5,6,7,8,9,10] # 将列表通过SparkContext将数据转换为一个分布式集合RDD inputRdd = sc.parallelize(list1)#如果有n个结点 那么数据就会分成n分 存在各个结点 # 将RDD中每个分区的数据进 阅读全文
posted @ 2022-07-21 21:22 Dsad123FFFG6645 阅读(81) 评论(0) 推荐(0)
摘要: >>> list1 = [1,2,3,4,5,6,7,8,9,10] >>> print(*list1) 1 2 3 4 5 6 7 8 9 10 >>> list2 = map(lambda x : x**2,list1) >>> print(*list2) 1 4 9 16 25 36 49 6 阅读全文
posted @ 2022-07-21 20:29 Dsad123FFFG6645 阅读(36) 评论(0) 推荐(0)