启动spark命令
启动Spark命令有以下几种方式:
1. 启动Spark shell(对于Scala):在终端中转到Spark安装目录,输入命令:./bin/spark-shell。如果想启动PySpark(Python版本的Spark),可以输入命令:./bin/pyspark。
2. 启动分布式模式下的Spark:首先,启动master节点:./sbin/start-master.sh。然后,根据输出的URL(例如:spark://HOST:PORT)启动worker节点:./sbin/start-worker.sh 。
3. 使用standalone的client方式启动命令:./spark-submit --master spark://hive01:7077 --deploy-mode client --class org.apache.spark.examples.SparkPi ../examples/jars/spark-examples_2.11-2.2.0.jar300。
4. 使用standalone的cluster方式启动命令:./spark-submit --master spark://hive01:7077 --deploy-mode cluster --class org.apache.spark.examples.SparkPi ../examples/jars/spark-examples_2.11--2.2.0.jar300。
5. 使用yarn的client方式启动命令:./spark-submit --master yarn --deploy-mode client --class org.apache.spark.examples.SparkPi ../examples/jars/spark-examples_2.11--2.2.0.jar300。
6. 使用yarn的cluster方式启动命令:./spark-submit --master yarn --deploy-mode cluster --class org.apache.spark.examples.SparkPi ../examples/jars/spark-examples_2.11--2.2.0.jar300。
如有侵权请及时联系我们处理,转载请注明出处来自
推荐文章
科技快看 网站地图广州壹创集信息科技有限公司 版权所有 粤ICP备2021122624号