일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | |||||
3 | 4 | 5 | 6 | 7 | 8 | 9 |
10 | 11 | 12 | 13 | 14 | 15 | 16 |
17 | 18 | 19 | 20 | 21 | 22 | 23 |
24 | 25 | 26 | 27 | 28 | 29 | 30 |
Tags
- kmu
- 파이썬
- 프로그래머스
- 국민대학교
- GIT
- gan
- 머신 러닝
- Regression
- db
- C++
- python3
- machine learning
- 데이터베이스
- googleapiclient
- instaloader
- 정렬
- 재귀
- 국민대
- Heap
- 운영체제
- programmers
- OS
- PANDAS
- LSTM
- Python
- Stack
- SQL
- 회귀
- Seq2Seq
- 스택
Archives
- Today
- Total
목록n-gram (1)
정리 노트
34일 차(2022/08/18)
언어 모델 문장(시퀀스)에 확률을 부여하는 모델로 특정 상황에서의 적절한 문장이나 단어를 예측할 수 있습니다. ex) P(난 널 사랑해 | I love you) > P(난 널 싫어해 | I love you) P(먹었다 | 나는 밥을) > P(싸웠다 | 나는 밥을) 하나의 문장(W)은 여러 단어들(w)로 구성된다. P(W) = P(w1, w2, w3, ..., wn) (n은 자연수) 그래서 이를 결합 확률로 표현할 수 있고 연쇄 법칙을 적용할 수 있습니다. 연쇄 법칙 P(w1, w2, w3, ..., wn) = P(w1) * P(w2 | w1) * P(w3 | w1, w2), ..., P(wn | w1, w2, ..., w(n-1)) (n은 자연수) ex) P(친구와 친하게 지낸다) = P(친구와, 친하게..
[TIL]국민대X프로그래머스 여름방학 인공지능 과정
2022. 8. 19. 14:00