1.执行scala文件的命令
./spark-submit --master spark://master:7077 --class WordCount1 ../lib/scala-spark.jar
2.spark客户端执行流程
3.在客户端启动spark-shell 命令
./spark-shell --master spark://master:7077
4.在资源层面我们分为master-worker-excutor(ThreadPool线程池中运行多个task)
在应用程序层面application-job(由action算子决定)-stage(根据RDD的依赖关系进行切割成一组组任务或者叫task)-task