Word2vec is a group of related models that are used to produce Word embeddings in NLP area. These models are shallow, two-layer Neural networks that are trained to reconstruct linguistic contexts of words. (https://en.wikipedia.org/wiki/Word2vec)
문장뿐 아니라 Sequence는 모두 입력 데이터가 될 수 있다.
관련정보
- http://w.elnn.kr/search/ : 위키백과와 나무위키를 이용해서 만들어진 웹사이트
- Word2vec: Java에서 인공 신경망으로 Word Embeddings 구현하기
관련 포스팅
- Word2vec을 응용한 컨텐츠 클러스터링
- Word2Vec word embedding tutorial in Python and TensorFlow : Python과 TensorFlow를 이용한 튜토리얼
- 한국어 Word2Vec
- word2vec 관련 이론 정리
- 2015 py con word2vec이 추천시스템을 만났을때 : PyCon Korea 2015 자료
- 한글을 이용한 데이터마이닝및 word2vec이용한 유사도 분석 : Python 예제
- 자연어 기계학습의 혁명적 진화 - Word2Vec에 대하여
응용
Suggested Pages #
- 0.025 June 27
- 0.025 Biological neural network
- 0.025 Javascript
- 0.025 mrjob
- 0.025 Python/asyncio
- 0.025 January 18
- 0.025 July 20
- 0.025 Jupyter
- 0.025 July 25
- 0.025 November 30
- More suggestions...