문서의 선택한 두 판 사이의 차이를 보여줍니다.
| 양쪽 이전 판 이전 판 다음 판 | 이전 판 | ||
|
wiki:ai:nlp:bert [2020/07/15 16:38] emblim98 |
wiki:ai:nlp:bert [2023/01/13 18:44] (현재) |
||
|---|---|---|---|
| 줄 1: | 줄 1: | ||
| ====== BERT [버트] | ====== BERT [버트] | ||
| <WRAP left notice 80%> | <WRAP left notice 80%> | ||
| - | * description : Context Aware | + | * description : BERT |
| * author | * author | ||
| * email : shlim@repia.com | * email : shlim@repia.com | ||
| 줄 7: | 줄 7: | ||
| </ | </ | ||
| <WRAP clear></ | <WRAP clear></ | ||
| + | |||
| + | ===== Python ===== | ||
| + | [[https:// | ||
| ===== 용어 ===== | ===== 용어 ===== | ||
| 줄 18: | 줄 21: | ||
| ===== 정리 ===== | ===== 정리 ===== | ||
| - | - 자연 언어 처리 태스크를 교육없이 양방향으로 사전학습하는 첫 시스템입니다. | + | - 자연 언어 처리 태스크를 교육없이 양방향으로 사전학습하는 첫 시스템입니다.\\ |
| - | - 딥러닝 프레임워크인 파이토치(PyTorch)와 텐서플로우(Tensorflow) 환경 모두에서 사용 가능. | + | - 딥러닝 프레임워크인 파이토치(PyTorch)와 텐서플로우(Tensorflow) 환경 모두에서 사용 가능.\\ |
| - | - | + | - 문장 내 어절을 한 글자씩 나눈 뒤, 앞뒤로 자주 만나는 글자끼리 단어로 인식\\ |
| + | - 구글은 위키백과 문서 데이터를 사용해 한국어 언어모델을 개발\\ | ||
| 줄 30: | 줄 34: | ||
| : | : | ||
| : | : | ||
| + | : | ||
| + | : | ||
| {{tag> 오션 BERT 버트 }} | {{tag> 오션 BERT 버트 }} | ||