最近在本地装了一个pyspark,在运行的过程中,总会遇到这样的报错。这是jupter notebook的cmd窗口。
以下是我运行的一段代码
stringJSONRDD = sc.parallelize(("""
{ "id": "123",
"name": "Katie",
"age": 19,
"eyeColor": "brown"
}""",
"""{
"id": "234",
"name": "Michael",
"age": 22,
"eyeColor": "green"
}""",
"""{
"id": "345",
"name": "Simone",
"age": 23,
"eyeColor": "blue"
}""")
)
swimmersJSON = spark.read.json(stringJSONRDD)
我就开始好奇哪里bug了,原来发现在我这个版本的spark中确实是引用了resource
在Stack Overflow上,我找到了答案
pyspark版本太高,其中的resource模块在windows上是不可用的,退回到2.3.2就可以了。