大数据的本质还是为了用机器处理海量的数据
在大数据的生态中有各种工具来方便对数据的操作
其中hadoop算是一个核心
spark可以运行在hadoop中的yarn上,就是集群,也可以单机运行,还可以运行在mos上
hive我的理解就是一个客户端工具,写好sql来对数据查询分析
如果你学过py的pandas,那么其中datafrmae你应该已经理解了,可以把spark读出来的数据类比于此
本质就是对这个datafrmae进行各种操作,查询,过滤,聚合,
spark带的机器学习库就是,你把处理好的数据(或者叫筛选好的),调用spark的mlib库就可以实现模型的训练,再将测试数据加载就可以训练
机器学习的算法有逻辑回归,线性回归,决策树,聚类(kmeans)等