[Spark] Spark 3.0 Accelerator Aware Scheduling - GPU

Ref: Spark3.0 preview预览版尝试GPU调用(本地模式不支持GPU)

预览版本:https://archive.apache.org/dist/spark/spark-3.0.0-preview/

 

 

Ref: Apache Spark3.0什么样?一文读懂Apache Spark最新技术发展与展望

2. Accelerator Aware Scheduling

Spark依赖Accelerator Aware Scheduling来感知GPU计算资源,从而调度深度学习任务。实际上,Spark本身并不直接管理GPU资源,而是通过YARN等资源管理框架在Application Level来申请并获得计算所需的GPU资源。用户可以在Context中获取GPU信息,从而实现GPU计算,完成深度学习任务。需要注意的是,Spark支持的计算加速器并不限于GPU,可以很容易扩展到FPGA等其他加速器类型。

 

 

Ref: Apache Spark 3.0 将内置支持 GPU 调度,文末有福利

 

 

/* implement */

 

posted @ 2019-11-14 08:48  郝壹贰叁  阅读(436)  评论(0)    收藏  举报