我使用的是spark2.1 官方的Scala依赖是2.11, spark2.2 的依赖也是2.11 所以如果你的Scala版本是2.22或者较老版本,还是换到这个版本比较好,不然可能会报错或者出现context不能初始化的问题,
比如报:
Exception in thread "main" java.lang.NoSuchMethodError: scala.Predef$.refArrayOps([Ljava/lang/Object;)Lscala/collection/mutable/ArrayOps;
这就是版本不对导致的。
然后就是安装idea,再安装Scala插件,也很简单,
然后导入依赖,
点左下角的那个➕号选择下载的spark包中的jars目录
然后就可以编写代码了。
并且能够在idea中运行。