Data/Big Data

[W12D4] Spark MLlib

makeitworth 2021. 7. 29. 00:05

Spark MLlib 소개: Spark이 제공해주는 머신러닝에 대해 배워보자

Spark MLlib

  • 머신러닝 관련 다양한 알고리즘, 유틸리티로 구성된 라이브러리
    • Classification, Regression, Clustering, Collaborative Filtering, Dimensionality Reduction 등
    • 아직 딥러닝 지원은 미약
  • 여기에는 RDD 기반과 데이터 프레임 기반의 두 버전이 존재
    • spark.mllib vs. spark.ml
      • spark.mllib가 RDD 기반이고 spark.ml은 데이터 프레임 기반
      • spark.mllib는 RDD 위에서 동작하는 이전 라이브러리로 더 이상 업데이트가 안됨
    • 항상 spark.ml을 사용할 것!
      • import pyspark.ml

Spark MLlib의 장점

  • 원스톱 ML 프레임웍(가장 큰 장점)
    • 데이터프레임과 SparkSQL 등을 이용해 전처리
    • Spark MLlib를 이용해 모델 빌딩
    • ML Pipeline을 통해 모델 빌딩 자동화
    • MLflow로 모델 관리하고 서빙
  • 대용량 데이터도 처리 가능!
  • 데이터가 작을 경우 굳이 Spark를 쓸 필요는 없다. 데이터가 작으면 판다스나 사이킷런, 파이토치, 텐서플로를 써라.

Spark MLlib 소개: MLflow

  • 모델의 관리와 서빙을 위한 Ops 관련 기능도 제공(오퍼레이션 관련 부분이 훨씬 깔끔해짐)
  • MLflow
    • 모델 개발과 테스트와 관리와 서빙까지 제공해주는 End-to-End 프레임웍
    • MLflow는 파이썬, 자바, R, API를 지원
    • MLflow는 트래킹(Tracking), 모델(Model), 프로젝트(Projects)를 지원

Spark MLlib에서 제공하는 알고리즘

  • Classification:
    • Logistic regression, Decision tree, Random forest, Gradient-boosted tree, …
  • Regression:
    • Logistic regression, Decision tree, Random forest, Gradient-boosted tree, …
  • Clustering:
    • K-means, LDA(Latent Dirichlet Allocation), GMM(Gaussian Mixture Model)
  • Collaborative Filtering
    • 명시적인 피드백과 암묵적인 피드백 기반
    • 명시적인 피드백의 예) 리뷰 평점
    • 암묵적인 피드백의 예) 클릭, 구매 등등
    • 가능하면 명시적인 피드백을 가지고 Collaborative Filtering모델을 만드는게 좋지만, 명시적인 피드백이 잘 주어지지 않기 때문에 암묵적인 피드백을 사용하는 경우가 많다.

실습: 머신러닝 모델 만들기

  • 보스턴 주택가격 예측 모델 만들기: Regression
  • 타이타닉 승객 생존 예측 모델 만들기: Classification

SparkMLlib 기반 모델 빌딩의 기본 구조

  • 여느 라이브러리를 사용한 모델 빌딩과 크게 다르지 않음
    • 트레이닝 셋 전처리(결측치 처라, 스케일링 등)
    • 모델 빌딩
    • 모델 검증(confusion matrix)
  • Scikit-Learn과 비교했을 때 장점
    • 차이점은 결국 데이터의 크기
      • Scikit-Learn은 하나의 컴퓨터에서 돌아가는 모델 빌딩. 병렬 처리가 안됨.
      • Spark MLlib는 여러 서버 위에서 모델 빌딩. 큰 데이터 처리 가능하고 병렬 처리 가능함.
    • 트레이닝 셋의 크기가 크면 전처리와 모델 빌딩에 있어 Spark이 큰 장점을 가짐
    • Spark은 ML 파이프라인을 통해 모델 개발의 반복을 쉽게 해 줌.

보스턴 주택가격 예측

  • 개별 주택가격의 예측이 아니라 지역별 중간 주택 가격 예측
  • Regression 알고리즘 사용
  • 연속적인 주택가격을 예측하기 때문에 Classification 알고리즘은 사용불가
  • 총 506개의 레코드로 구성되며 13개의 피쳐와 레이블 필드(주택 가격)로 구성
    • 206개 동네의 주택 중간값 데이터임(개별 주택이 아님)
    • 14번째 필드 MEDV가 예측해야 하는 중간 주택 가격(천 불 단위)

타이타닉 승객 생존 예측

  • 머신러닝의 헬로월드라 할수 있는 데이터셋
  • Binary Classification 알고리즘 사용
    • 생존 혹은 비생존을 예측하기 때문에 이진 분류
      • 정확히는 Binomial Logistic Regression을 사용(2개 클래스 분류기)
    • AUC(Area Under the Curve)의 값이 중요한 성능 지표가 됨
      • True Positive Rate와 False Positive Rate
        • True Positive Rate: 생존한 경우를 얼마나 맞게 예측했나? Recall이라고 부르기도 함
        • False Positive Rate: 생존하지 못한 경우를 생존한다고 얼마나 예측했나?
  • 총 892개의 레코드로 구성, 11개의 feature와 레이블 필드(생존 여부)로 구성
    • 2번째 필드(칼럼) Survived가 바로 예측해야 하는 승객 생존 여부

Spark MLlib 피쳐 변환: Spark MLlib가 제공해주는 피쳐 변환에 대해 배워보자

피쳐 추출과 변환

  • 피쳐 값들을 모델 훈련에 적합한 형태로 바꾸는 것
  • 크게 Feature Extractor와 Feature Transformer가 있음
  • Feature Transformer
    • 피쳐 값들은 숫자이어야 함
      • 텍스트 필드(카테고리 값들)를 숫자 필드로 변환해야 함
    • 숫자 필드 값의 범위 표준화
      • 숫자 필드라고 해도 가능한 값의 범위를 특정 범위(0부터 1)로 변환해야 함
    • 비어있는 필드들의 값을 어떻게 채울 것인가?
      • Imputer. 앞서 타이타닉 승객 생존 분류기에 써봤음
  • Feature Extractor가 하는 일
    • 기존 피쳐에서 새로운 피쳐를 추출
    • 피쳐가 텍스트일 경우 많이 사용
    • TF-IDF, Word2Vec, …
      • 많은 경우 텍스트 데이터를 숫자 등 어떤 형태로 인코딩하는 것

피쳐 변환 StringIndexer: 텍스트 카테고리를 숫자로 변환

  • Red, Blue와 같은 텍스트 값을 갖는 Color라는 이름의 피쳐가 존재한다면 이를 1,2,3과 같이 숫자로 변환해주는 것이 피쳐 변환의 목적
  • Scikit-Learn은 sklearn.preprocessing 모듈 아래 여러 인코더가 존재
    • OneHotEncoder, LabelEncoder, OrdinalEncoder
  • Spark MLlib의 경우, pyspark.ml.feature 모듈 밑에 두 개의 인코더 존재
    • StringIndexer, OneHotEncoder
    • 사용법은 Indexer 모델을 만들고(fit), Indexer 모델로 데이터 프레임을 transform

피쳐 변환 Scaler: 숫자 필드 값의 범위 표준화

  • 숫자 필드 값의 범위를 특정 범위(예를 들어 0부터 1)로 변환하는 것
  • 피쳐 스케일링(Feature Scaling) 혹은 정규화(Normalization)라 부름
  • 정규분포를 따르면 standard스케일러를 사용하고 정규분포를 따르지 않으면 minmax스케일러를 사용한다. 잘 모르겠으면 min max 스케일러를 사용해라.
  • Scikit-Learn은 sklearn.preprocessing 모듈 아래 두 개의 스케일러 존재
    • StandardScaler, MinMaxScaler
    • 사용법은 Scaler 모델을 만들고(fit), Scaler 모델로 데이터 프레임을 transform
  • StandardScaler
    • 각 값에서 평균을 빼고 이를 표준편차로 나눔. 값의 분포가 정규분포를 따르는 경우 사용
  • MinMaxScaler
    • 모든 값을 0과 1 사이로 스케일. 각 값에서 최솟값을 빼고(최댓값-최솟값)으로 나눔

피쳐 변환 Imputer: 값이 없는 필드 채우기

  • 값이 존재하지 않는 레코드(행)들이 존재하는 필드(열)들의 경우 기본값을 정해서 채우는 것. Impute 한다고 부름.
  • Scikit-Learn은 sklearn.preprocessing 모듈 아래 존재
    • Imputer
  • Spark MLlib의 경우 pyspark.ml.feature 모듈 밑에 존재
    • Imputer
    • 사용법은 모델을 만들고(fit), Imputer 모델로 데이터 프레임을 transform

SparkMLlib ML Pipeline 살펴보기: 모델 빌딩과 테스트 과정을 자동화하자!

모델 빌딩과 관련된 흔한 문제들

  • 트레이닝 셋의 관리가 안됨
  • 모델 훈련 방법이 기록이 안됨
    • 어떤 트레이닝 셋을 사용했는지?
    • 어떤 피쳐들을 사용했는지?
    • 하이퍼 파라미터는 무엇을 사용했는지?
  • 모델 훈련에 많은 시간 소요
    • 모델 훈련이 자동화가 안된 경우 매번 각 스텝들을 노트북 등에서 일일이 수행
    • 에러가 발생할 여지가 많음(특정 스텝을 까먹거나 조금 다른 방식 적용)

ML Pipeline의 등장

  • 앞서 언급한 문제들 중 “모델 훈련 방법이 기록이 안됨”와 “모델 훈련에 많은 시간 소요”를 해결!
  • 자동화를 통해 에러 소지를 줄이고 반복을 빠르게 가능하게 해 줌
  • Load data -> Extract features -> Train model -> Evaluate

Spark MLlib 관련 개념 정리

  • ML 파이프라인이란?
    • 데이터 과학자가 머신러닝 개발과 테스트를 쉽게 해주는 기능(데이터 프레임 기반)
    • 머신러닝 알고리즘에 관계없이 일관된 형태의 API를 사용하여 모델링이 가능
    • ML 모델 개발과 테스트를 반복 가능해줌
      • 뒤에 설명할 Transformer와 Estimator로 구성됨
  • 4개의 요소로 구성
    • 데이터 프레임
    • Transformer
    • Estimator
    • Parameter
  • ML 파이프라인의 구성요소: 데이터 프레임
    • ML 파이프라인에서는 데이터 프레임이 기본 데이터 포맷
    • 기본적으로 CSV, JSON, Parquet, JDBC(관계형 데이터베이스)를 지원
    • ML 파이프라인에서 다음 2가지의 새로운 데이터 소스를 지원
      • 이미지 데이터소스
        • jpeg, png 등의 이미지들을 지정된 디렉터리에서 로드
      • LIBSVM 데이터 소스
        • label과 features 두 개의 컬럼으로 구성되는 머신러닝 트레이닝 셋 포맷
        • features 컬럼은 벡터 형해의 구조를 가짐
  • ML 파이프라인의 구성요소: Trnasformer
    • 입력 데이터 프레임을 다른 데이터 프레임으로 변환
      • 하나 이상의 새로운 컬럼을 추가
    • 2종류의 Transformer가 존재하면 trnasform이 메인 함수
      • Feature Transformer(Imputer, StringIndexer)와 Learning Model(모델 자체)
    • Feature Transformer
      • 입력 데이터 프레임의 칼럼으로부터 새로운 컬럼을 만들어내 이를 추가한 새로운 데이터 프레임을 출력으로 내줌. 보통 피처 엔지니어링을 하는데 사용
      • 예) Imputer, StringIndexer, Vector Assembler
        • Imputer: 기본값 지정에 사용
        • StringIndexer: categorical 정보를 숫자 정보로 변환
        • VectorAssembler: 주어진 칼럼들을 통합하여 하나의 벡터 컬럼으로 변환
    • Learning Model
      • 머신러닝 모델에 해당
      • 피쳐 데이터프레임을 입력으로 받아 예측값이 새로운 컬럼으로 포함된 데이터프레임을 출력으로 내줌: prediction, probability
  • ML 파이프라인의 구성요소: Feature Transformer
    • 입력 데이터 프레임에 새로운 데이터 프레임 컬럼을 추가.
    • 입력 데이터프레임에 prediction 컬럼을 붙이는 경우.
  • ML 파이프라인의 구성요소: Estimator
    • 머신러닝 알고리즘에 해당. fit이 메인 함수
      • 트레이닝 셋 데이터 프레임을 입력으로 받아서 머신러닝 모델(Transformer)을 만들어냄
        • 입력: 데이터 프레임(트레이닝 셋)
        • 출력: 머신러닝 모델
      • 예를 들어 LogisticRegression은 Estimator이고 LogisticRegression.fit()를 호출하면 머신 러닝 모델(Transformer)을 만들어냄
    • ML파이프라인도 Estimator라고 할 수 있다. 보통 머신러닝 알고리즘처럼, 인풋 데이터 프레임을 주면 최종 아웃풋으로 머신러닝 모델을 준다.
    • ML Pipeline도 Estimator!
    • Estimator는 저장과 읽기 함수 제공
      • 즉 모델과 ML Pipeline을 저장했다가 나중에 다시 읽을 수 있음
        • save와 load
  • ML 파이프라인의 구성요소: Parameter
    • Transformer와 Estimator의 공통 API로 다양한 인자를 적용해줌
    • 두 종류의 파라미터가 존재:
      • Param(하나의 이름과 값)
      • ParamMap(Param 리스트)
    • 파라미터의 예)
      • 훈련 반복수(iteration) 지정을 위해 setMaxIter()를 사용
      • ParamMap(lr.maxIter -> 10)
    • 파라미터는 fit(Estimator) 혹은 transform(Transfer)에 인자로 지정 가능
  • ML Pipeline
    • 하나 이상의 Transformer와 Estimator가 연결된 모델링 웍플로우
      • 입력은 데이터프레임
      • 출력은 머신러닝 모델
    • ML Pipeline 그 자체도 Estimator
      • 따라서 ML Pipeline의 실행은 fit 함수의 호출로 시작
      • 저장했다가 나중에 다시 로딩하는 것이 가능(Persistence)
    • 한번 파이프라인을 만들면 반복 모델 빌딩이 쉬워짐

요약

  • Spark MLlib와 제공 기능에 대해 배움
  • pyspark.ml을 이용해 실제 머신러닝 모델을 만들어봄
  • ML Pipeline을 비롯한 다양한 Spark MLlib 기능에 대해 배움

'Data > Big Data' 카테고리의 다른 글

[W13D1] Spark ML Pipeline 과 Tuning  (0) 2021.07.29
[W12D3] Spark SQL  (0) 2021.07.29
[W12D2] Spark 소개 / 데이터 구조  (1) 2021.07.29