DataSet은 Spark 1.6 버전에서 처음 소개되었으며, Spark SQL에서
사용하는 분산 데이터 모델이다.
DataFrame은 relational code만 작성할 수 있는 반면, DataSet은 relational code와 functional code 모두
사용할 수 있다는 장점이 있다.
물론, UDF(User Define Function)을 이용하여 DataFrame도 함수형으로 작성할 수 있지만, 매번 직접 작성하여 등록해줘야 하는 불편함이 있다.
DataFrame에서 설명한 것처럼
Spark 엔진은 functional code를 파싱하지 않기 때문에 catalyst optimizer가 최적화 하지 않는다.
하지만, RDD를 이용하여 코드를 작성하는 것보다는 빠른 성능을 보장 받을 수 있다.
DataSet은 자바와 스칼라 언어에서만 사용 가능하며, 파이썬과 R을 사용하는 경우는 DataFrame 만을 사용할 수 있다.
물론, 자바와 스칼라는 DataSet, DataFrame 모두 사용 가능하다.
Spark 1.6 버전에서는 DataFrame과 DataSet이 별도로 존재했다.
하지만, Spark 2.0부터는 데이터 프레임 클래스가 데이터 셋 클래스로 통합
되면서
변화가 생겼다.
Spark 2.0부터 DataSet 과 DataFrame은 동일한 데이터를 서로 다른 방식으로 표현하기 위한 모델이지 서로 다른 것이 아니다.
즉 RDD와 DataFrame 의 장점들을 모두 DataSet에 적용된다.
그럼에도 불구하고 DataFrame, DataSet 타입은 분명하게 구분된다.
DataFrame이 DataSet이 될 수는 없지만, Encoder를 지정하면 DataSet이 될 수 있다.
Spark SQL은 이미 기본적인 Encoder는 제공하고 있기 때문에 따로 지정할 필요가 없지만, 커스텀한 타입 같은 경우는 아래와 같이 직접 만들 수 있다.
스칼라의 case class를 만들면 스키마 정보들을 암묵적으로 Encoder로 지정한다.
// DataFrame to DataSet
val ds: Dataset[Ticket] = df.as[Ticket]
// def as[U](implicit arg0: Encoder[U]): Dataset[U]
아래와 같이 RDD 안에 들어있는 element가 case class라면, Dataset으로 바로 변경 가능하다.
// rdd: RDD[Ticket]
rdd.toDS
또한, 아래와 같이 List를 데이터셋으로 생성할 수 있다.
이를 조회할 때 show()를 이용 할 수 있으며, 출력을 위한 println() 메서드를
사용하지 않았는데도 데이터의 내용을 보기 좋게 표시해준다.
val ds = List(1, 2, 3).toDS
ds.show()
Output
+-----+
|value|
+-----+
| 1|
| 2|
| 3|
+-----+
또한, printSchema라는 명령어를 사용하면 아래와 같이 스키마 정보도 볼 수 있다.
데이터 셋은 이처럼 값 뿐만 아니라 스키마 정보까지 함께 포함하기 때문에
스키마 기반으로 한 데이터 처리와 내부적인 성능 최적화를 함께 제공할 수 있다는
장점이 있다.
ds.printSchema
Output
root
|-- value: integer (nullable = false)
데이터프레임 또는 데이터 셋을 다루기 위해 가장 먼저 알아야 할 것은
SparkSession이다. RDD를 생성하기 위해 SparkContext가 필요했던 것처럼
데이터 프레임 또는 데이터 셋을 다루기 위해서는 SparkSession이 필요하다.
가장 먼저 SparkSQL 모듈에 대한 의존성 정보를 아래와 같이 설정 후 SparkSession을 생성 할 수 있다.
implementation group: 'org.apache.spark', name: 'spark-sql_2.11', version: '2.3.0'
val ss = SparkSession
.builder()
.appName("RDDTest")
.master("local[*]")
.getOrCreate()
// builder() 메서드는 스파크 세션을 생성할 수 있는 빌더 인스턴스를 생성한다.
// 추가적인 설정이 더 필요하다면 빌더가 제공하는 config() 메서드를 이용하면 된다.
// ex) .config("spark.driver.host","127.0.0.1")
의존성 설정이 끝나면 코드를 작성하는데 아래와 같은 단계로 SparkSQL 코드를 작성한다.
위를 보면서 RDD를 사용할 때와 거의 비슷하다는 것을 확인 할 수 있다.
RDD를 생성하는 부분을 DataFrame 또는 DataSet으로 변경한 것이다.
아래 코드를 살펴보면, DataFrame 생성할 때와 비슷하지만, 데이터 셋을
생성할 때는 데이터셋에서 사용할 인코더(org.apache.spark.sql.Encoder) 정보를
반드시 설정해야 한다는 점에서 차이가 있다.
// 기존 객체를 이용한 데이터 셋 생성 (자바)
Person row1 = new Person("hayoon", 7, "student");
Person row2 = new Person("sunwoo", 13, "student");
Person row3 = new Person("hajoo", 5, "student");
Person row4 = new Person("jinwoo", 13, "student");
List<Person> data = Arrays.asList(row1, row2, row3, row4);
Dataset<Person> df2 = spark.createDataset(data, Encoders.bean(Person.class));
인코더는 자바 객체와 스파크 내부 바이너리 포맷 간의 변환을 처리하기 위한
것으로 스파크 1.6에서 데이터셋과 함께 처음 소개되었다.
인코더가 하는 역할은 기존 자바 직렬화 프레임워크나 Kyro와 같은
자바 객체를 바이너리 포맷으로 변환하는 것이다.
기존 직렬화 프레임워크처럼 단순히 네트워크 전송 최적화를 위한 바이너리 포맷을 만드는 것에 그치는 것이 아니라 데이터의 타입과 그 데이터를 대상으로 수행하고자 하는 연산, 데이터를 처리하고 있는 하드웨어 환경까지 고려한 최적화된 바이너리를 생성하고 다룬다는 점에서 그 차이를 찾아볼 수 있다.
자바의 경우 반드시 인코더를 지정해야 하는데, 스칼라의 경우는
import spark.implicits._
형태로 임포트하면 기본 데이터 타입에
대해서는 별도의 인코더를 지정하지 않고도 사용할 수 있다.
하지만 스칼라를 사용하더라도 위 방식으로 처리할 수 있는 기본 타입이 아니거나 자바 언어를 사용하는 경우에는 org.apache.spark.sql.Encoders 객체가 제공하는 인코더 생성 메서드를 이용해 직접 인코더를 생성 및 지정해야 한다.
case class Person(name: String, age: Int, job: String)
import spark.implicits._
val row1 = Person("hayoon", 7, "student")
val row2 = Person("sunwoo", 8, "student")
val row3 = Person("sunwoo", 9, "police")
val row4 = Person("sunwoo", 10, "teacher")
val data = List(row1, row2, row3, row4)
val df2: Dataset[Person] = spark.createDataset(data)
val df2_1: Dataset[Person] = data.toDS
데이터 셋은 자바 객체 또는 기존 RDD, 데이터프레임으로부터 생성될 수 있다.
또한, DataFrame으로 부터 DataSet을 생성하려면 아래와 같이
as() 메서드를 사용하면 된다.
val ds = List(1,2,3).toDF().as[Int]
ds.show()
데이터셋에서 중복되는 요소를 제외한 데이터셋을 돌려준다. distinct() 메서드와
다른 점은 중복 여부를 판단할 때 사용할 컬럼을 지정해 줄 수 있다는 점이다.
즉, 아래 예제에서 age 컬럼을 중복 여부 판단 기준으로 지정할 경우 해당 컬럼
값이 똑같은 데이터의 경우 한 건만 포함된 것을 확인 할 수 있다.
만약 아무 컬럼도 지정하지 않을 경우 모든 컬럼 값을 비교한다.
// 원래 값
scala> ds.show
+------+---+-------+
| name|age| job|
+------+---+-------+
|hayoon| 7|student|
|sunwoo| 7|student|
|sunwoo| 9| police|
|sunwoo| 10|teacher|
+------+---+-------+
// 중복을 제외한 후
scala> ds.dropDuplicates("job").show
+------+---+-------+
| name|age| job|
+------+---+-------+
|sunwoo| 10|teacher|
|hayoon| 7|student|
+------+---+-------+
groupByKey() 메서드는 RDD의 groupBy() 메서드와 동일한 동작을 수행하는 메서드이다.
다음은 Person 객체로 구성된 데이터셋을 대상으로 groupByKey() 메서드를
실행해 각 Person 객체를 직업별 그룹으로 분류하는 예제이다.
scala> ds.groupByKey(_.job).count().show()
+-------+--------+
| value|count(1)|
+-------+--------+
|teacher| 1|
|student| 3|
+-------+--------+
Spark Dataset API에 reduceByKey가 없는 이유는 RDD와 달리 Dataset API부터는
groupBy나 groupByKey를 호출한 이후에 어떤 연산을 수행하냐에 따라 Spark에서
자동으로 최적화를 진행해 준다.
대신 groupBy.reduceGroups 형태로 존재한다.
즉, groupBy.recueGroups 의 경우에는 맨 처음에 groupBy를 적용하는 것처럼 보이지만, 실제로는 reduceByKey 처럼 동작한다. 그래도 아직 reduceByKey 보다는 1.x배 느리다는 벤치마크 결과가 있다.
자세한 내용은 링크를 참고하자.
rdd의 groupByKey와 달리 데이터 셋은 groupby로 리듀스를 할 수 있는데, agg()메서드를 이용해서 집계연산이 가능하다.
// 원래 값
+------+---+-------+----+
| name|age| job|type|
+------+---+-------+----+
|hayoon| 7|student| a|
|sunwoo| 7|student| b|
| kaven| 9|student| c|
| mike| 10|teacher| d|
| mark| 11|teacher| e|
| herry| 10|teacher| f|
+------+---+-------+----+
// 집계 연산 후
import spark.implicits._
import org.apache.spark.sql.functions._
scala> ds.groupByKey(_.job).agg(sum("age").as[Int], first("name").as[String], first("type").as[String]).show()
+-------+--------+------------------+------------------+
| value|sum(age)|first(name, false)|first(type, false)|
+-------+--------+------------------+------------------+
|teacher| 31| mike| d|
|student| 23| hayoon| a|
+-------+--------+------------------+------------------+
나중에 나온 기술이 이전 기술을 보완하고 있기 때문에 더 좋을 것이다.
개인적인 의견은 RDD의 경우 데이터를 직접적으로 핸들링 해야 하는 경우라면
낮은 수준의 API를 제공하므로 RDD를 고수할 수 있겠지만 추상화된 API를 사용하여
간결하게 코드를 작성하고 Catalyst Optimizer를 통해 성능 향상을 꾀하고자 한다면
DataFrame, DataSet을 고려해 볼 수 있다.
데이터 엔지니어냐 데이터 분석가냐에 따라 사용하기 편한 언어와 환경은
다를 수 있다.
Reference
https://databricks.com/blog/2015/04/13/deep-dive-into-spark-sqls-catalyst-optimizer.html
https://www.popit.kr/spark2-0-new-features1-dataset/