일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | 5 | ||
6 | 7 | 8 | 9 | 10 | 11 | 12 |
13 | 14 | 15 | 16 | 17 | 18 | 19 |
20 | 21 | 22 | 23 | 24 | 25 | 26 |
27 | 28 | 29 | 30 |
- machine learning
- 재귀
- Heap
- 데이터베이스
- GIT
- Regression
- kmu
- 프로그래머스
- 파이썬
- Seq2Seq
- Python
- 회귀
- 정렬
- python3
- C++
- LSTM
- 운영체제
- SQL
- programmers
- PANDAS
- gan
- db
- 국민대
- Stack
- 스택
- OS
- instaloader
- 국민대학교
- googleapiclient
- 머신 러닝
- Today
- Total
목록국민대 (56)
정리 노트
언어 모델 문장(시퀀스)에 확률을 부여하는 모델로 특정 상황에서의 적절한 문장이나 단어를 예측할 수 있습니다. ex) P(난 널 사랑해 | I love you) > P(난 널 싫어해 | I love you) P(먹었다 | 나는 밥을) > P(싸웠다 | 나는 밥을) 하나의 문장(W)은 여러 단어들(w)로 구성된다. P(W) = P(w1, w2, w3, ..., wn) (n은 자연수) 그래서 이를 결합 확률로 표현할 수 있고 연쇄 법칙을 적용할 수 있습니다. 연쇄 법칙 P(w1, w2, w3, ..., wn) = P(w1) * P(w2 | w1) * P(w3 | w1, w2), ..., P(wn | w1, w2, ..., w(n-1)) (n은 자연수) ex) P(친구와 친하게 지낸다) = P(친구와, 친하게..

LSTM(Long Short-Term Memory) 아키텍처 RNN 아키텍처를 사용하면 토큰 사이의 거리가 먼 경우에 연속적인 정보가 잘 전달되지 않을 수 있습니다. LSTM은 RNN과 달리 두 개의 상태 정보를 저장하고 처리합니다. 두 상태 정보를 각각 장기 기억(Cell State), 단기 기억(Hidden State)이라 부릅니다. LSTM에서는 여러 게이트들이 있습니다. Forget Gate: 어떤 정보를 잊게 만들지 결정하는 레이어로 오래된 정보 중 필요 없는 정보는 잊게 됩니다. Input Gate: 새 정보를 장기 기억에 반영하는 역할로 새롭게 특정 정보를 기억하게 만듭니다. Cell State는 Forget Gate와 Input Gate에 의해 갱신됩니다. Output Gate는 Cell ..

순차 데이터(자연어)의 표현 법 저번에 봤던 CNN, GAN 같은 경우에 이미지를 벡터로 변환해서 학습이 이루어졌습니다. 자연어를 다룰 때에도 똑같습니다. 자연어를 벡터로 변환시킵니다. 벡터는 벡터끼리 연산이 가능합니다. 이 특징을 바꿔서 말하자면 자연어와 자연어 사이의 연산이 가능하게 된다는 것입니다. 1. One-hot 인코딩 단어를 수치적으로 표현하는 가장 기본적인 방법입니다. 예를 들어 가지고 있는 전체 단어 목록이 아래와 같다고 합시다. 대한민국 독립 만세 일제 광복절 스마트폰 애국 이때 "광복절"이라는 단어는 다음과 같은 벡터로 표현이 가능해집니다. 대한민국 독립 만세 일제 광복절 스마트폰 애국 0 0 0 0 1 0 0 => [0, 0, 0, 0, 1, 0, 0] 지금 같은 상황이면, 단어 하..

DCGAN CNN처럼 Convolutional Layer를 이용하는 GAN입니다. 판별자에서의 Convolution은 너비와 높이가 감소(=해상도가 감소)되고, 생성자에서의 Convolution은 너비와 높이가 증가(=해상도가 증가)하는 방향으로 진행됩니다. 이를 포함해 논문에서는 DCGAN 가이드라인을 제안하고 있습니다. batchnorm을 사용해서 학습 속도를 증가시킬 수 있고, fully connected hidden layer들을 제거함으로써 많은 weight들을 담을 메모리를 아낄 수 있다고 합니다.

CycleGAN 생성자를 통해 만들어진 이미지가 다시 원본 이미지로 재구성될 수 있도록(원본 이미지와 최대한 유사하게 될 수 있도록) 하는 것입니다. 이를 위해 2개의 변환기(G, F)가 사용됩니다. 아래의 그림을 보면 G, F는 역함수 관계에 있다고 생각할 수 있습니다. CycleGAN에서는 Pix2Pix와 달리 한 쌍으로 묶이지 않은 데이터셋에도 적용될 수 있습니다. 이러한 데이터셋을 사용하기 위해 cycle 손실을 사용합니다. 이에 사용되는 목적 함수는 아래와 같습니다. objective function의 첫 번째 term은 생성자 G가 만든 이미지 G(x)가 Y 도메인의 이미지와 최대한 비슷하게 하려 하고, 판별자 Dy는 G(x)와 실제 이미지를 구별하려 한다는 설명입니다.(GAN의 설명과 같습니..

cGAN(conditional GAN) 기존 GAN 구조에서 데이터의 모드를 제어할 수 있도록 조건(condition)을 함께 입력하는 모델입니다. Generator에서 z는 latent vector(=noise vector), y는 condition vector입니다. cGAN에서의 objective function은 아래의 식과 같습니다. Pix2Pix(Image-to-Image Translation) GAN을 기반으로 설계된 아키텍처입니다. 학습 과정에서 이미지 자체를 조건으로 입력 받는 cGAN의 한 유형입니다. 즉 픽셀들을 입력으로 받아서 픽셀들을 예측한다는 의미를 가지고 있습니다. 여기서는 noise vector가 사용되지 않기 때문에 결과가 거의 deterministic 하다고 볼 수 있습니..

GAN(Generative Adversarial Networks) 기본 지식 확률 분포 생성 모델(Generative Model) 실제로 있지 않지만 실제로 있을 법한 데이터(이미지, 자연어 문장, 오디오 등...)를 생성할 수 있는 모델을 말합니다. 이 모델은 이미지 데이터들의 분포에 근사할 수 있도록 학습되어야 합니다. 이에 대한 대표적인 것이 GAN입니다. 만약 이 모델이 잘 학습이 되었다면 통계적으로 평균적인 특징을 가지는 데이터를 쉽게 생성할 것입니다. GAN 생성자(Generator)와 판별자(Discriminator) 두 네트워크를 활용하는 생성 모델입니다. 아래의 목적 함수를 통해 생성자는 이미지 분포를 학습할 수 있습니다. x: x~Pdata(x), z: z~Pz(z) G(z): nois..
오늘 세션에서 딥러닝에 대한 기초적인 부분에 대해 배웠습니다. 인공지능의 학습 방법 지도 학습 지도 학습은 답을 주면서 학습시키는 유형입니다. 지도 학습의 방식으로 회귀와 분류 등이 있습니다. 회귀는 주로 미래에 있을 입력에 대해 출력을 예측할 때 사용하고, 분류는 데이터들을 특정 기준에 따라 나눌 때 사용합니다. 비지도 학습 비지도 학습은 답을 주지 않으면서 학습시키는 유형입니다. 비지도 학습의 방식으로 클러스터링과 차원 축소 등이 있습니다. 클러스터링은 비슷한 유형끼리 그룹화할 때 사용하고, 차원 축소는 고차원 데이터의 차원을 축소시켜 새로운 데이터를 생성할 때 사용합니다. 기본 수학 지식 딥러닝이 작동하는 방식을 이해하려면 아래 세 가지는 기본적으로 알고 있어야 합니다. 벡터 행렬 미분 선형 회귀 ..