일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | |||||
3 | 4 | 5 | 6 | 7 | 8 | 9 |
10 | 11 | 12 | 13 | 14 | 15 | 16 |
17 | 18 | 19 | 20 | 21 | 22 | 23 |
24 | 25 | 26 | 27 | 28 | 29 | 30 |
Tags
- Python
- 데이터베이스
- 회귀
- 스택
- Seq2Seq
- 파이썬
- kmu
- gan
- 머신 러닝
- machine learning
- googleapiclient
- PANDAS
- Heap
- 운영체제
- LSTM
- 국민대
- db
- 국민대학교
- OS
- Stack
- C++
- 프로그래머스
- 정렬
- programmers
- instaloader
- python3
- GIT
- Regression
- SQL
- 재귀
Archives
- Today
- Total
목록트랜스포머 (1)
정리 노트
37일 차(2022/08/23)
Seq2Seq with Attention 디코더는 인코더의 모든 출력을 참고합니다. 인코더에서 나온 hidden state 값들을 모두 출력 값으로 별도의 배열 같은 곳에 기록합니다. 디코더에서 매번 hidden state를 갱신할 때 바로 이전의 hidden state값과 인코더의 hidden state값들과 각각 행렬 곱을 수행해서 'energy'라는 값을 생성합니다. 'energy'는 현재 어떤 단어를 출력하기 위해서 source 문장의 어느 단어에 집중해야 하는지 수치화해 표현한 값입니다. energy값에 softmax를 취해 확률 값을 구하고 가중치를 반영해서 가중치 값을 hidden state에 곱한 것을 각각의 비율의 맞게 더해준 weighted sum 벡터를 매번 반영합니다. Transfo..
[TIL]국민대X프로그래머스 여름방학 인공지능 과정
2022. 8. 23. 21:29