DataFrame 상용 조작
spark.sql("show functions").show(1000)
예 를 들 어 SUBSTR(columnName,0,1)='B'
df.show(30,false)df.take(10)
df.first()
df.head(3)
df.select("column").show(30,false)
df.filter("name='' OR name='NULL'").show
df.sort(df("name").desc).show
df.sort(df("name").asc, df("id").desc).show
df.select(df("name").as("student_name")).show
df1.join(df2, df1.col("id") === df2.col("id")).show
import org.apache.spark.sql.SparkSession
object DataFrameCase {
def main(args: Array[String]): Unit = {
val spark = SparkSession.builder()
.appName("DataFrameCase")
.master("local[2]")
.getOrCreate()
val rdd = spark.sparkContext.textFile("C:\\Users\\Administrator\\IdeaProjects\\SparkSQLProject\\spark-warehouse\\student.data");
import spark.implicits._
val studentDF = rdd.map(_.split("\\|"))
.map(line => Student(line(0).toInt,line(1),line(2),line(3)))
.toDF()
studentDF.show
studentDF.show(30,false)
studentDF.take(10)
studentDF.first()
studentDF.head(3)
studentDF.select("email").show(30,false)
studentDF.filter("name='' OR name='NULL'").show
//name B
studentDF.filter("SUBSTR(name,0,1)='B'").show
//sort
studentDF.sort(studentDF("name")).show
studentDF.sort(studentDF("name").desc).show
studentDF.sort("name","id").show
studentDF.sort(studentDF("name").asc, studentDF("id").desc).show
//as alias
studentDF.select(studentDF("name").as("student_name")).show
val studentDF2 = rdd.map(_.split("\\|")).map(line => Student(line(0).toInt, line(1), line(2), line(3))).toDF()
//inner join ===
studentDF.join(studentDF2, studentDF.col("id") === studentDF2.col("id")).show
spark.stop()
}
case class Student(id: Int, name: String, phone: String, email: String)
}
이 내용에 흥미가 있습니까?
현재 기사가 여러분의 문제를 해결하지 못하는 경우 AI 엔진은 머신러닝 분석(스마트 모델이 방금 만들어져 부정확한 경우가 있을 수 있음)을 통해 가장 유사한 기사를 추천합니다:
다양한 언어의 JSONJSON은 Javascript 표기법을 사용하여 데이터 구조를 레이아웃하는 데이터 형식입니다. 그러나 Javascript가 코드에서 이러한 구조를 나타낼 수 있는 유일한 언어는 아닙니다. 저는 일반적으로 '객체'{}...
텍스트를 자유롭게 공유하거나 복사할 수 있습니다.하지만 이 문서의 URL은 참조 URL로 남겨 두십시오.
CC BY-SA 2.5, CC BY-SA 3.0 및 CC BY-SA 4.0에 따라 라이센스가 부여됩니다.