문서의 선택한 두 판 사이의 차이를 보여줍니다.
다음 판 | 이전 판 | ||
wiki:miscellaneous:word2vec [2020/06/24 17:47] emblim98 만듦 |
wiki:miscellaneous:word2vec [2023/01/13 18:44] (현재) |
||
---|---|---|---|
줄 4: | 줄 4: | ||
* author | * author | ||
* email : shlim@repia.com | * email : shlim@repia.com | ||
- | * lastupdate | + | * lastupdate |
</ | </ | ||
<WRAP clear></ | <WRAP clear></ | ||
- | ===== 약어(두문자어) 설명 | + | ===== WORD2VEC |
- | WORD2VEC : Word to Vector [워드 투 벡터] | + | * Word to Vector [워드 투 벡터] |
+ | |||
+ | ===== 개념 ===== | ||
+ | * " | ||
+ | * 같은 문맥에서 많이 등장하는 단어들은 기본적으로 비숫한 의미를 지닌다고 가정 | ||
+ | * 또한 주위에 등장하는 단어들을 가지고 같이 나타날 수 있는 단어를 컴퓨터가 스스로 유추하고 학습하게 하는 알고리즘(비지도학습) | ||
+ | |||
+ | ===== 특징 ===== | ||
+ | * 인공지능은 이 단어들을 벡터(숫자)로 변환하여 좌표값을 통해 단어간 거리 계산 가능 | ||
+ | * 거리가 가까워질수록 단어 간 유사도가 높아지면, | ||
+ | * 단어가 벡터(숫자)로 표현되었기 때문에 각 단어들의 벡터값을 통해 덧셈, 뺄셈, 평균 등 연산이 가능 | ||
+ | * 이를 통해 단어 추론, 연관어 계산, 복잡한 개념 등의 표현이 가능함 | ||
===== 의미 ===== | ===== 의미 ===== | ||
- | | + | * 텍스트 기반의 모델 만들기는 텍스트를 숫자로 변경하여 알고리즘에 넣고 계산을 한 후 결과값을 낼 수 있다.\\ |
- | * 그 일환으로 텍스트를 숫자로 바꾸는 것으로 단어를 벡터로 바꾸는 것이다.\\ | + | |
- | * 이때 벡터에 단어의 의미를 추가하여 단어와 단어간의 관계를알아내기 위함이다. \\ | + | |
- | * 단어를 벡터로 바꾸는 모델을 단어 임베딩 모델(word embedding model)이라고 하며, word2vec는 단어 임베딩 모델들 중 대표적인 모델이다.\\ | + | |
+ | |||
+ | ===== skip-gram모델 ===== | ||
+ | * WORD2VEC을 학습시키는 방법 | ||
+ | * 주어진 단어 하나를 가지고 주위에 나타날 수 있는 단어들의 등장 여부를 유추하는 방식 | ||
+ | * 데이터 양과 반복학습횟수가 증가할수록 벡터값이 정확해짐 | ||
+ | * 같은 문맥 내 비슷한 빈도로 등장하는 단어들은 벡터값이 비슷하여 연관성도 높음 | ||
+ | * center단어를 활용, 가까이 위치한 단어들일수록 관련성이 높다고 판단하여 더 높은 확률로 연관 키워드로 채택하는 방법을 사용 | ||
+ | |||
+ | |||
===== Ref ===== | ===== Ref ===== | ||
[[https:// | [[https:// | ||
\\ | \\ | ||
- | [[https:// | + | [[https:// |
- | + | \\ | |
- | + | [[https:// | |
- | ===== 첨부 ===== | + | |
{{tag> | {{tag> |