일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | |||||
3 | 4 | 5 | 6 | 7 | 8 | 9 |
10 | 11 | 12 | 13 | 14 | 15 | 16 |
17 | 18 | 19 | 20 | 21 | 22 | 23 |
24 | 25 | 26 | 27 | 28 | 29 | 30 |
Tags
- Seq2Seq
- programmers
- 국민대학교
- 회귀
- Stack
- 파이썬
- SQL
- 운영체제
- LSTM
- python3
- 데이터베이스
- googleapiclient
- PANDAS
- 프로그래머스
- machine learning
- 머신 러닝
- GIT
- 재귀
- db
- C++
- Python
- Regression
- instaloader
- Heap
- 국민대
- 정렬
- 스택
- gan
- OS
- kmu
Archives
- Today
- Total
목록베이즈 정리 (1)
정리 노트
34일 차(2022/08/18)
언어 모델 문장(시퀀스)에 확률을 부여하는 모델로 특정 상황에서의 적절한 문장이나 단어를 예측할 수 있습니다. ex) P(난 널 사랑해 | I love you) > P(난 널 싫어해 | I love you) P(먹었다 | 나는 밥을) > P(싸웠다 | 나는 밥을) 하나의 문장(W)은 여러 단어들(w)로 구성된다. P(W) = P(w1, w2, w3, ..., wn) (n은 자연수) 그래서 이를 결합 확률로 표현할 수 있고 연쇄 법칙을 적용할 수 있습니다. 연쇄 법칙 P(w1, w2, w3, ..., wn) = P(w1) * P(w2 | w1) * P(w3 | w1, w2), ..., P(wn | w1, w2, ..., w(n-1)) (n은 자연수) ex) P(친구와 친하게 지낸다) = P(친구와, 친하게..
[TIL]국민대X프로그래머스 여름방학 인공지능 과정
2022. 8. 19. 14:00