본 게시글은 혼공학습단 11기로, 복습 차원에서 책 내용을 제 스타일대로 요약한 내용입니다.
#챕터7 #주니코니 #힘내랏❤️#마지막!!!#야홍#우선가볍게쓰고나중에알게되면보완해야지
🌳목차
<공부하면서 의문이 들었던 점들 해결하기>
-왜 대부분 딥러닝에서는 경사하강법을 쓴다고 써있는거지?
-loss 함수의 역할은 활성화함수와 달리 무엇이고 구조는 어떻게 되는가
-이미지가 아닌 정형데이터를 다룰 때 input 층에 어떤 식으로 데이터가 입력되는지?(row&column)
-epoch의 의미
-은닉층은 하이퍼파라미터인데 갯수 정할 때 데이터에서 참고하는 점은?
-예시문제
<혼공단 주저리 후기>
<🐻공부하면서 의문이 들었던 점들 해결하기>
-왜 대부분 딥러닝에서는 경사하강법을 쓴다고 써있는거지?
: 딥러닝이라는 게 빅데이터에 강점을 가지고 있어서 머신러닝처럼 함수식이 간단하지 않을 것. 그래서 경사하강법을 쓰는 게 아닐까..?
-loss 함수의 역할은 활성화함수와 달리 무엇이고 구조는 어떻게 되는가
: loss 함수란 손실 함수로 해당 모델의 오차값을 확인하는 것이다. 오차를 줄이기 위해서 옵티마이저(SGD, ADAM..등)를 사용하는 것! 활성화 함수는 말그대로 가중치와 절편 등 데이터포인트마다 경우의 수를 조합한 식에 이진이나 다중분류 등 분류함수를 적용하기 위함.(말 그대로 분류를 위한 액션이랄까.activiation) 목적이 회귀일땐 활성화함수가 필요없
-이미지가 아닌 정형데이터를 다룰 때 input 층에 어떤 식으로 데이터가 입력되는지?(row&column)
: 우선 용어는 tabular data(표 형식의 데이터) 라고 하는뎁....아 안와닿아
-epoch의 의미
: 책에선 4만8개의 train set이 있는데 왜 epoch(한바퀴 학습 횟수, 책에선 =5 ) 돌때마다 1500/1500 이렇게 뜨는것인가....
=> 고것은 바로 학습 1바퀴에 32개(미니배치 사이즈 기본)를 1500개의 그룹으로 나눈 것이다~꺄~해결~🤞
32*1500 = 48000 ㅎㅎㅎㅎ
-은닉층은 하이퍼파라미터인데 갯수 정할 때 데이터에서 참고하는 점은?
: 그것이 아니라 데이터가 너무 많슴다. 고로 랜덤 서치나 파라미터 자동 최적화 라이브러리를 추천드림다
-예시문제
: input 특성이 100개, 밀집층 노드 10개일때 총 모델 파라미터 갯수는?
100개*10개(가중치)+절편(10개의 노드니까 노드당 1개씩)= 1010개 흐흐
후기
아 드디어 끝났다. 사실 6주차로는 완독이 불가해서 혼자서라도 완독하고 싶었는데.. 완주에 의미를 두기로 했다.ㅎㅎㅋ
시작 전엔 완벽하게 이해하고 코드도 다 치고 그럴 줄 알았는데, 막상 해보니 이론이 와닿지 않아서 많이 헤맸었다. ㅠ(마지막 주차-아니 후기 제일 정성스럽게 쓰는중. 원래 그런거죱?)
그래도 너무 공부하기 싫은 거 매번 어떻게든 어떻게든 어떻게든 해냈으니 그걸로 됐다 이것이여. 아니 사실 온몸 뽀뽀 백바퀴임 어떻게 그걸 해냄🔥🔥🔥 꾸준히 하는 애만큼 내딴엔 대단하다,, 스고이조,,,
그리고 혼공 족장님 생각보다 너무 스윗하게 관리해주셔서 코멘트 기대하는 맛이 있었고..ㅎ 생각치 못할 때 우수 학습단으로 선정도 됐었땁ㅋ(웃긴게 디스코드있는거 6주차 업로드 하고나서 앎.......ㅋㅋㅋㅋㅋㅋㅋㅋㅋㅋㅋㅋㅋㅋㅋㅋㅋㅋㅋㅋㅋㅋㅋㅋㅋㅋㅋㅋㅋㅋㅋㅋㅋㅋㅋㅋㅋㅋㅋㅋㅋㅋㅋㅋㅋㅋㅋㅋㅋㅋㅋㅋㅋㅋㅋㅋㅋㅋㅋㅋㅋㅋㅋ아 이걸 놓치네. 근데 또 꼼꼼왕인 나로써 이걸 놓쳤다는게 인간적이라 오히려 좋아)
어쨋든 도중에 우려와 달리 기본틀 잡히고 무엇보다 이론들이 상식적으로 설명할 수 있고 그만큼 와닿아서 기분 좋은 마무리다 ㅎ 요요 볼드체 말을 기억하며 어쨋든 역시 도전해보는 건 심신에 결과적으로 좋고 내 예상과 결과가 다르더라도 기분이 좋구나 싶다. 주니코니야 앞으로 잘해보자굿
수고했따,,심지어 통계공부랑 겸하느라,,주니코니,,킁킁,,🤞🤞
암튼 족장님 6주차 숙제까지 다 해씀더
'머신러닝' 카테고리의 다른 글
[혼공머신] 5주차_k-means, PCA (1) | 2024.02.01 |
---|---|
[혼공머신] 4주차_ tree 모델, 교차검증, 편향-분산 (0) | 2024.01.24 |
pandas, 시리즈, 데이터 프레임 (1) | 2024.01.23 |
[혼공머신] 3주차_로지스틱회귀&시그모이드, 소프트맥스 함수 (1) | 2024.01.21 |
[혼공머신] 2주차_knn 최적의 k값 찾기 시각화 (0) | 2024.01.14 |