
我的spark-1.6.0-bin-hadoop2.6安装在一个docker容器中,系统是centos
我该如何解决这个问题?这个问题困扰了我很长一段时间
解决方法 你不能使用它,因为它不存在,你使用的Spark版本是1.6,而SparkSession是在2.0.0中引入的.你可以在这里看到:https://databricks.com/blog/2016/08/15/how-to-use-sparksession-in-apache-spark-2-0.html
您可以从这里下载Spark 2.0.0:http://spark.apache.org/downloads.html
总结以上是内存溢出为你收集整理的python – “无法导入名称SparkSession”全部内容,希望文章能够帮你解决python – “无法导入名称SparkSession”所遇到的程序开发问题。
如果觉得内存溢出网站内容还不错,欢迎将内存溢出网站推荐给程序员好友。
欢迎分享,转载请注明来源:内存溢出
微信扫一扫
支付宝扫一扫
评论列表(0条)