사용자 도구

사이트 도구


wiki:miscellaneous:word2vec

WORD2VEC

  • description : WORD2VEC
  • author : 오션
  • email : shlim@repia.com
  • lastupdate : 2020-11-09

WORD2VEC

  • Word to Vector [워드 투 벡터]

개념

  • “자연어 처리(NLP)” 방식 중 하나로 수식을 통해 단어를 다차원 공간에 매칭하고, 벡터(숫자)로 표현해주는 머신러닝 알고리즘
  • 같은 문맥에서 많이 등장하는 단어들은 기본적으로 비숫한 의미를 지닌다고 가정
  • 또한 주위에 등장하는 단어들을 가지고 같이 나타날 수 있는 단어를 컴퓨터가 스스로 유추하고 학습하게 하는 알고리즘(비지도학습)

특징

  • 인공지능은 이 단어들을 벡터(숫자)로 변환하여 좌표값을 통해 단어간 거리 계산 가능
  • 거리가 가까워질수록 단어 간 유사도가 높아지면, 멀어질수록 유사도가 낮아짐
  • 단어가 벡터(숫자)로 표현되었기 때문에 각 단어들의 벡터값을 통해 덧셈, 뺄셈, 평균 등 연산이 가능
  • 이를 통해 단어 추론, 연관어 계산, 복잡한 개념 등의 표현이 가능함

의미

  • 텍스트 기반의 모델 만들기는 텍스트를 숫자로 변경하여 알고리즘에 넣고 계산을 한 후 결과값을 낼 수 있다.
  • 그 일환으로 텍스트를 숫자로 바꾸는 것으로 단어를 벡터로 바꾸는 것이다.
  • 이때 벡터에 단어의 의미를 추가하여 단어와 단어간의 관계를알아내기 위함이다.
  • 단어를 벡터로 바꾸는 모델을 단어 임베딩 모델(word embedding model)이라고 하며, word2vec는 단어 임베딩 모델들 중 대표적인 모델이다.

skip-gram모델

  • WORD2VEC을 학습시키는 방법
  • 주어진 단어 하나를 가지고 주위에 나타날 수 있는 단어들의 등장 여부를 유추하는 방식
  • 데이터 양과 반복학습횟수가 증가할수록 벡터값이 정확해짐
  • 같은 문맥 내 비슷한 빈도로 등장하는 단어들은 벡터값이 비슷하여 연관성도 높음
  • center단어를 활용, 가까이 위치한 단어들일수록 관련성이 높다고 판단하여 더 높은 확률로 연관 키워드로 채택하는 방법을 사용

Ref

/volume1/web/dokuwiki/data/pages/wiki/miscellaneous/word2vec.txt · 마지막으로 수정됨: 2023/01/13 18:44 (바깥 편집)