Spark编程: Spark SQL基本操作 2020.11.01

阅读: 评论:0

Spark编程:  Spark SQL基本操作 2020.11.01

Spark编程: Spark SQL基本操作 2020.11.01

文章目录

    • 为employee.json 创建DataFrame, 并写出Scala语句完成下列操作:
      • (1)查询所有数据;
      • (2)查询所有数据,并去除重复的数据;
      • (3)查询所有数据, 打印时去除id字段;
      • (4)筛选出age>30 的记录;
      • (5)将数据按age分组
      • (6)将数据按neme升序排列
      • (7)取出前3行数据
      • (8)打印时修改name 的列名 为 username
      • (9)age 的平均值(agg是聚合操作)
      • (10)age 的最小值

建下列JSON格式的数据复制到Linux系统中,并保存命名为employee.json

{ "id":1 , "name":" Ella" , "age":36 } 
{ "id":2, "name":"Bob","age":29 } 
{ "id":3 , "name":"Jack","age":29 } 
{ "id":4 , "name":"Jim","age":28 }
{ "id":4 , "name":"Jim","age":28 } 
{ "id":5 , "name":"Damon" } 
{ "id":5 , "name":"Damon" }

为employee.json 创建DataFrame, 并写出Scala语句完成下列操作:


(1)查询所有数据;

import spark.implicits._
val df&#ad.json("file:///home/beyond-dhl/Desktop/sparkSQL/employee.json")
df.show()

(2)查询所有数据,并去除重复的数据;

df.distinct().show()

(3)查询所有数据, 打印时去除id字段;

df.drop(df("id")).show()

(4)筛选出age>30 的记录;

df.filter(df("age")>30).show()

(5)将数据按age分组

df.groupBy(df("age")).count.show()

(6)将数据按neme升序排列

df.sort(df("name").asc).show()

(7)取出前3行数据

df.show(3)

(8)打印时修改name 的列名 为 username

df.select(df("name").as("username")).show()

(9)age 的平均值(agg是聚合操作)

df.agg("age"->"avg").show()

(10)age 的最小值

df.agg("age"->"min").show()

本文发布于:2024-01-28 03:48:28,感谢您对本站的认可!

本文链接:https://www.4u4v.net/it/17063849124560.html

版权声明:本站内容均来自互联网,仅供演示用,请勿用于商业和其他非法用途。如果侵犯了您的权益请与我们联系,我们将在24小时内删除。

标签:操作   SQL   Spark
留言与评论(共有 0 条评论)
   
验证码:

Copyright ©2019-2022 Comsenz Inc.Powered by ©

网站地图1 网站地图2 网站地图3 网站地图4 网站地图5 网站地图6 网站地图7 网站地图8 网站地图9 网站地图10 网站地图11 网站地图12 网站地图13 网站地图14 网站地图15 网站地图16 网站地图17 网站地图18 网站地图19 网站地图20 网站地图21 网站地图22/a> 网站地图23