首页 / 科技数码 / 正文

启动spark命令 

启动Spark命令有以下几种方式:

1. 启动Spark shell(对于Scala):在终端中转到Spark安装目录,输入命令:./bin/spark-shell。如果想启动PySpark(Python版本的Spark),可以输入命令:./bin/pyspark。

2. 启动分布式模式下的Spark:首先,启动master节点:./sbin/start-master.sh。然后,根据输出的URL(例如:spark://HOST:PORT)启动worker节点:./sbin/start-worker.sh 。

3. 使用standalone的client方式启动命令:./spark-submit --master spark://hive01:7077 --deploy-mode client --class org.apache.spark.examples.SparkPi ../examples/jars/spark-examples_2.11-2.2.0.jar300。

4. 使用standalone的cluster方式启动命令:./spark-submit --master spark://hive01:7077 --deploy-mode cluster --class org.apache.spark.examples.SparkPi ../examples/jars/spark-examples_2.11--2.2.0.jar300。

5. 使用yarn的client方式启动命令:./spark-submit --master yarn --deploy-mode client --class org.apache.spark.examples.SparkPi ../examples/jars/spark-examples_2.11--2.2.0.jar300。

6. 使用yarn的cluster方式启动命令:./spark-submit --master yarn --deploy-mode cluster --class org.apache.spark.examples.SparkPi ../examples/jars/spark-examples_2.11--2.2.0.jar300。

如有侵权请及时联系我们处理,转载请注明出处来自