Pyspark独立程序编程,不像scala,需要特定嵌套文件结构,也不需要sbt打包。
PySpark是整合在spark安装包中,不需要单独安装。
Repost
- 如何通俗地讲解对偶问题?尤其是拉格朗日对偶lagrangian duality? - 覃含章的回答 - 知乎
https://www.zhihu.com/question/58584814/answer/166737708 - 【优化】对偶上升法(Dual Ascent)超简说明
- 【优化】共轭函数(Conjugate Function)超简说明
Repost-Linux
转自:以最简单方式学习Linux - 伟哥-Wayne的文章 - 知乎
https://zhuanlan.zhihu.com/p/64109667
spark Configuration
spark参数配置有三种方法。
find out CPU utilization in Linux
简要介绍了3种查看CPU使用率的方法,以及查看CPU核数的方法。
deploy Spark on a cluster/cloud
- 云中部署Spark
use Docker to deploy Hadoop on a cluster/cloud
Docker 是一个轻量级的镜像,对于Hadoop,Spark在集群上的维护有比较重要的意义。
deploy Hadoop on a cluster/cloud
- 云中部署服务器
- hadoop2.7.6集群环境搭建
- 异常分析
Introduction of Spark
高性能计算与云计算是什么关系?spark能否用于高性能计算?