2.18

今天学习了如何将Spark与MongoDB集成,用于处理和分析MongoDB中的数据。

代码示例:

python
复制
from pyspark.sql import SparkSession

# 创建SparkSession
spark = SparkSession.builder \
.appName("MongoDBIntegration") \
.config("spark.mongodb.input.uri", "mongodb://localhost/test.my_collection") \
.config("spark.mongodb.output.uri", "mongodb://localhost/test.my_collection_output") \
.getOrCreate()

# 从MongoDB读取数据
df = spark.read.format("mongo").load()

# 显示数据
df.show()

# 将数据写入MongoDB
df.write.format("mongo").mode("overwrite").save()

spark.stop()

posted @ 2025-02-18 22:32  混沌武士丞  阅读(7)  评论(0)    收藏  举报