Post

[KT AIVLE] 6주차 정리(2차 미니프로젝트, 딥러닝)

0. 개요


머신러닝 미니 프로젝트와 딥러닝을 진행하였습니다.

2차 미니 프로젝트_01
2차 미니 프로젝트_02

이번 주간 정리에는 최종 summary만 하도록 하겠습니다.

2차 미니프로젝트2차 미니프로젝트휴무딥러닝딥러닝


1. 2차 미니 프로젝트


2차 미니 프로젝트에서는 1차 미니프로젝트에서 간과했던 시간관리를 보다 체계적으로 관리하여 제한시간안에 PPT제작까지 끝마칠 수 있었습니다. 또한 이번 프로젝트를 통해 머신러닝에서 추가적으로 무엇을 배워야할지, 앞으로 어떤것을 공부해야할지를 알 수 있었습니다. 이외에 세부적인 정리내용은 각 2차 미니프로젝트 각 일차별 정리 에 기록하였습니다.


2. 딥러닝


최종 summary를 진행하겠습니다.

딥러닝 개념은 다음과 같다

  • 가중치 초기값을 할당.
  • 초기 모델로 예측
  • 오차를 계산(loss function)
  • 가중치 조절 : 오차를 줄이는 방향으로 가중치를 적절히 조절(optimizer)
    • 적절히 조절 -> 얼마 만큼 조절할 지 결정하는 하이퍼 파라미터 : lr(learing rate)
  • 다시 처음으로 가서 반복
    • 전체 데이터를 적절히 나눠서(mini batch)반복 : batch_size
    • 전체 데이터를 몇 번 반복 학습할 지 결정 : epoch
  • 딥러닝 전처리
    • NaN 조치, 가변수화, 스케일링
  • Layer
    • 첫번째 Layer는 input_shape를 받는다.(분석단위의 shape)
      • 2차원 데이터셋의 분석단위 1차원 → shape는 ( feature수, )
    • Output layer의 node 수 : 1
    • Activation Function
      • Hidden layer에 필요 :
        • 비선형 모델로 만들려고 ➔ hidden layer를 여럿 쌓아서 성능을 높이려고.
      • 회귀 모델링에서 Output Layer에는 활성화 함수 필요하지 않음!
  • Output Layer의 Activation
    • Sigmoid : 0 ~ 1 사이 확률 값으로 변환해주는 역할 -Loss Function : binary_crossentropy
  • 다중분류를 위해 y 값 전처리 필요
    • 방법1 : y값을 0,1,2,3,… 로 만들고, loss = ‘sparse_categorical_crossentropy’
    • 방법2 : y값을 one-hot encoding 하고, loss = ‘categorical_crossentropy’
  • Output Layer의 Activation
    • softmax : 0 ~ 1 사이 확률 값으로 변환해주는 역할
  • 총 정리
구분Hidden LayerOutput LayerCompile
ActivationActivationNode수optimizerloss
RegressionreluX1adammse
2-Classrelusigmoid1adambinary_crossentropy
Multi-ClassrelusoftmaxClass수adamsparse_categorical_crossentropy
categorical_crossentropy


2 ) 실습 코드


2차 프로젝트와 딥러닝 코드는 git에 업로드 하였습니다.
2차 미니 프로젝트
딥러닝

This post is licensed under CC BY 4.0 by the author.