* BERT[버트, Bidirectional Encoder Representation from Transformers, 바이디렉셔널 인코더 레프리젠테이션 프럼 트랜스포머스]
* NLP [Natural Language Processing, 내추럴 랭귀지 프라세싱, 자연어 처리]
* Transformer [트랜스포머] : 2017년 구굴이 발표한 범용 딥러닝 모듈 아키텍처. 병렬처리를 통한 학습 속도의 향상이 가장 큰 장점.
* 텍스트 코퍼스[Text corpus,
- 자연 언어 처리 태스크를 교육없이 양방향으로 사전학습하는 첫 시스템입니다.
- 딥러닝 프레임워크인 파이토치(PyTorch)와 텐서플로우(Tensorflow) 환경 모두에서 사용 가능.
- 문장 내 어절을 한 글자씩 나눈 뒤, 앞뒤로 자주 만나는 글자끼리 단어로 인식
- 구글은 위키백과 문서 데이터를 사용해 한국어 언어모델을 개발