BlogBlog
首页
  • Vue
  • TypeScript
  • React
  • Angular
  • Node.js
  • 小程序
  • Flutter
  • 数据产品
  • 大数据

    • Hadoop
    • Hive
    • Spark
  • MySQL
  • Redis
  • Java
  • Python
  • Golang
GitHub
首页
  • Vue
  • TypeScript
  • React
  • Angular
  • Node.js
  • 小程序
  • Flutter
  • 数据产品
  • 大数据

    • Hadoop
    • Hive
    • Spark
  • MySQL
  • Redis
  • Java
  • Python
  • Golang
GitHub
  • 大数据技术
    • Hadoop
      • HDFS
      • YARN
      • Hadoop 安装(Windows)
    • Hive
      • Hive 入门
      • Hive 常用 DDL 操作
      • Hive 分区表和分桶表
      • Hive 视图和索引
      • Hive 常用 DML 操作
      • Hive Partition 分区
      • Hive 数据查询详解
      • Hive Install
      • Hive 面试题

Spark Shell Quick Start

启动 Local Spark Shell

tar -zxvf spark-3.5.1-bin-hadoop3.2.tgz -C /opt/
cd /opt/spark-3.5.1-bin-hadoop3.2
./bin/spark-shell

启动成功之后可以查看 Web UI 的监控页面

http://localhost:4040/

启动 Remote Spark Shell

./bin/spark-shell --master spark://<master-ip>:7077

执行

data/word.txt 文件内容如下:

hello world
scala spark
hadoop mapreduce
scala> sc.textFile("data/word.txt").flatMap(_.split("")).map((_,1)).reduceByKey(_+_).collect

输出结果:

(hello,1)
(world,1)
(scala,1)
(spark,1)
(hadoop,1)
(mapreduce,1)

查看 Web UI 的监控页面可以看到任务执行情况。 https://localhost:4040/

停止 Spark Shell

:quit
最近更新:: 2025/4/17 11:16
Contributors: alice