spark-submit 是提交Spark作业的标准方法,可以用来在各种环境中部署应用程序,包括Kubernetes。
安装 Operator spark-on-k8s-operator 应用后,通过Spark Operator,用户可以使用更加符合k8s理念的方式来管理spark应用的生命周期。
将以下内容保存到文件 sparkApp.yaml
apiVersion: sparkoperator.k8s.io/v1beta2
kind: SparkApplication
metadata:
name: spark-pi
namespace: default
spec:
type: Scala
mode: cluster
image: od-registry.linktimecloud.com/ltc-spark:3.3.0-1.11
mainClass: org.apache.spark.examples.SparkPi
mainApplicationFile: local:///opt/spark/examples/jars/spark-examples_2.12-3.3.0.jar
然后执行 kubectl apply -f sparkApp.yaml
更多信息详见 Spark on k8s operator 用户指南。
进入 Spark History Server WebUI页面,查看 Spark 任务执行情况。例如执行一个简单的数据处理任务后,查看执行情况: