본문 바로가기

Deep Learning21

[Dacon] 공유된 코드를 통해 선수지식 학습하기 선수지식 학습하기 이번 데이콘의 주제는 MNIST 데이터 속에서 숨겨진 숫자를 읽어내는 것입니다. 모델을 만들기에 앞서 공유되어있는 코드들을 따라가며 정보를 빠르게 얻어야겠다고 생각했습니다. dacon.io/competitions/official/235626/codeshare/ 컴퓨터 비전 학습 경진대회 출처 : DACON - Data Science Competition dacon.io 여기에 공지를 포함해서 여섯 가지 코드가 구성되어 있고 찬찬히 하나하나 살펴보겠습니다. 후술되는 코드는 해당 글의 작성자에게 있습니다. 제 자신이 공부하기 위해서 기록하는 글이기도 합니다. 계속 업데이트 예정입니다. 컴퓨터 비전 학습 경진대회 베이스라인 CNN 원문주소: dacon.io/competitions/offici.. 2020. 8. 30.
[데이콘]Dataset 받아오기 지난 글 보기: https://ranggun.tistory.com/33 [데이콘]컴퓨터 비전 학습 경진대회에 참가 결정 첫 딥러닝 프로젝트 7월부터 미래연구소를 통해서 딥러닝을 배워왔는데, 이제 강의를 듣는 것은 거의 끝이 났고 프로젝트를 시작하게 되었다. 주제는 Dataset만 구할 수 있다면 아무 주제나 선택�� ranggun.tistory.com Dacon 홈페이지에서 Data 가져오기 오늘은 Dacon 홈페이지에서 데이터를 읽어오는 방법을 알아보겠습니다. 1. Dacon 홈페이지 접속, 원하는 대회의 [데이터]란에 접속해주세요. 2. 다운로드해줍니다. 3. Jupyter lab 실행 후 작업폴더에 csv파일을 업로드해주세요. data라는 폴더를 따로 만들어서 그 안에 데이터를 업로드했습니다. 4... 2020. 8. 26.
CNN(Convolutional Neural Network) 미래연구소 홈페이지: https://futurelab.creatorlink.net/ CNN의 활용 분야 CNN은 Image classification에 특화되어 있으며, object detection, segmentation등에 활용이 된다. 뿐만아니라 Neural Styler Transfer, NLP 등에도 활용이 될 수 있다. CNN은 인간이 시각자극을 처리하는 방법에서 모티브를 얻어 만들어졌다. 뇌는 특정 feature를 detect하는데 활성화되는 뉴런이 다 다르다. (직선 모양을 인지하는 뉴런과 점을 인지하는 뉴런이 다르다) 그리고 인접 정보를 읽으며 공간 정보를 계층적으로 학습한다. 기존의 Fully-Connected Layer를 이용하게 되면 두 가지 문제점이 생긴다. 첫번째는 이미지를 평행.. 2020. 8. 25.
[데이콘]컴퓨터 비전 학습 경진대회에 참가 결정 첫 딥러닝 프로젝트 7월부터 미래연구소를 통해서 딥러닝을 배워왔는데, 이제 강의를 듣는 것은 거의 끝이 났고 프로젝트를 시작하게 되었다. 주제는 Dataset만 구할 수 있다면 아무 주제나 선택할 수 있는데, 보통 kaggle에서 선정을 한다. https://www.kaggle.com/ Kaggle: Your Machine Learning and Data Science Community Kaggle is the world’s largest data science community with powerful tools and resources to help you achieve your data science goals. www.kaggle.com 캐글은 전세계에서 가장 핫한 data science comp.. 2020. 8. 23.
Normalization, Standardization, Initialization, optimization 미래연구소 홈페이지: https://futurelab.creatorlink.net/ Normalization Normalization은 데이터의 전처리 과정 중 하나로, scale을 0에서 1 사이로 만들어 주는 작업이다. 데이터를 정규화해주는 작업은 학습속도를 향상시키고 local minimum에 빠지는 가능성을 줄인다. 또한 Gradient Descent를 더 편리하게 수행할 수 있도록 한다. Normalization의 수식은 (요소값-최소값)/(최대값-최소값)이 된다. 즉, 해당 요소값이 최대값이라면 1이되고, 최소값이라면 0으로 바뀐다. sklearn에서 MinMaxScaler를 import해서 간단하게 구현할 수 있다. 1 2 3 4 # MinMaxScaler 구현하기 from sklearn.p.. 2020. 8. 18.
Softmax, One-hot encoding, Regularization, Dropout의 이해 미래연구소 홈페이지: https://futurelab.creatorlink.net/ Softmax Softmax는 activation함수의 일종이다. Binary classification에서는 Sigmoid라는 함수를 썼다면 multiclass classification에서는 Softmax를 쓴다. Softmax의 공식은 아래와 같다. \[\sigma {({\mathbf{z}})_i} = \frac{{{e^{{z_i}}}}}{{\sum\limits_{j = 1}^K {{e^{{z_j}}}} }}{\text{ for }}i{\text{ = 1, }}...{\text{ ,}}K{\text{ and }}{\mathbf{z}} = ({z_1},...,{z_K}) \in {\mathbb{R}^K}\] 즉 가중치.. 2020. 8. 15.
Deep Learning 미래연구소 5주차 수강후기 미래연구소 홈페이지: https://futurelab.creatorlink.net/ *본 포스팅에 포함된 그림의 출처는 Andrew Ng 교수님의 Coursera Deep Learning specialization 과 미래연구소의 자체 제작 과제입니다. 5주차 수업내용을 정리해보겠다. 4주차 과제 복습 NN의 복잡성을 높이기 위해 nonlinear activation function을 썼다. zero initialization의 문제점에는 두 가지 문제가 있다. 하나는 행이 대칭이 되면서 여러 개의 노드를 넣는 의미가 없어지는 점. 두 번째는 값이 0이기 때문에 gradient descent 가 계산이 되지 않는 점(dw가 0이 되어서). 그것을 random initialization으로 극복을 했다. .. 2020. 8. 2.
Deep Learning 미래연구소 4주차 수강후기 미래연구소 홈페이지: https://futurelab.creatorlink.net/ *본 포스팅에 포함된 그림의 출처는 Andrew Ng 교수님의 Coursera Deep Learning specialization 과 미래연구소의 자체 제작 과제입니다. 4주차에 배운 내용들을 정리해보겠다. -Numpy 특강3: 쉼표 Numpy만의 특별한 기능을 배웠다. 바로 slicing, indexing을 할 때 쉼표를 이용하는 것이다. 아래와 같은 배열이 있다고 하자. 여기서 아래 정사각형 꼴만을 추출하려면 어떻게 해야할까? 마음같아서는 A[5:8][5:8]를 하고 싶지만, 파이썬에서는 이렇게 할 수 없다. 왜냐하면 A[5:8]를 하는 순간 위처럼 shape가 (3,10)인 배열로 바뀌어, A[6:9]에는 6,7,8.. 2020. 7. 26.
Deep Learning 미래연구소 3주차 수강후기 미래연구소 홈페이지: https://futurelab.creatorlink.net/ *본 포스팅에 포함된 그림의 출처는 Andrew Ng 교수님의 Coursera Deep Learning specialization 입니다. 이번주에 배운 내용에 대해서 간략하게 정리해보겠다. -Broadcasting Broadcasting이란 파이썬의 행렬 연산에서 꼴이 맞지 않을 때 작은 행렬이 큰 행렬에 뿌려지듯이 계산되는 방식이다. 바로 예를 살펴 보자. 위의 예에서 좌변의 첫번쨰 항은 2X3 행렬인 반면 두번째 항은 그냥 상수이다. 원래는 shape가 맞아야 행렬 연산이 진행되지만 파이썬에서는 이런 경우 자동적으로 broadcasting을 통해 연산이 진행된다. 결과값을 보면 유추할 수 있듯이 2가 \[\left[.. 2020. 7. 23.
Deep Learning 미래연구소 2주차 수강후기 미래연구소 홈페이지: https://futurelab.creatorlink.net/ *본 포스팅에 포함된 그림의 출처는 Andrew Ng 교수님의 Coursera Deep Learning specialization 입니다. Youtube link: https://www.youtube.com/watch?v=eqEc66RFY0I&feature=youtu.be [수업내용 정리] 지난 시간에는 딥러닝의 개요에 대해 배웠다. 이번 시간에는 Logistic regression이 무엇인지에 대해 배웠다. 지난시간에 배웠던 Supervised learning의 Binaryclassification의 대표적인 예로, 이미지 분류가 있다. 뀨? 강의에서는 고양인지 아닌지 Binary classification을 하는 과정.. 2020. 7. 19.