解决zeppelin spark 读取文件 报hadoop连接错误

想直接读取本地文件,比如
val raw= sc.textFile("//Users/muller/Desktop/people.json")
对不起 ,是要报错的,如果本地没有安装hadoop的话,报连接被拒绝

image.png

这个 由于本机已经安装了Hadoop,使用的是伪分布式模式,所以Spark会读取Hadoop的配置信息.
我们这里先不启动Hadoop,使用本地模式,要手动添加file:///并使用绝对路径读取文本文件
所以使用这种方式的话,就可以了


image.png

参考文献
http://www.voidcn.com/article/p-xkklnlob-b.html

http://blog.csdn.net/slade_sha/article/details/53152642

©著作权归作者所有,转载或内容合作请联系作者
平台声明:文章内容(如有图片或视频亦包括在内)由作者上传并发布,文章内容仅代表作者本人观点,简书系信息发布平台,仅提供信息存储服务。

推荐阅读更多精彩内容