Word2vec
Word2vec은 단어 벡터 표현들을 가져오기 위한 자연어 처리(NLP) 기술이다. 이러한 벡터는 단어의 의미와 문맥에서의 사용법에 대한 정보를 포착한다. word2vec 알고리즘은 대규모 말뭉치의 텍스트를 모델링하여 이러한 표현을 추정한다. 학습된 모델은 동의어를 감지하거나 부분 문장에 대해 추가 단어를 제안할 수 있다. 이름에서 알 수 있듯이 word2vec은 벡터라고 불리는 특정 숫자 목록을 사용하여 각 개별 단어를 나타낸다. 벡터는 단어의 의미적, 구문적 특성을 포착할 수 있도록 신중하게 선택된다. 따라서 간단한 수학 함수(코사인 유사도)는 해당 벡터로 표현되는 단어 간의 의미 유사성 수준을 나타낼 수 있다. 같이 보기외부 링크구현체 |
Index:
pl ar de en es fr it arz nl ja pt ceb sv uk vi war zh ru af ast az bg zh-min-nan bn be ca cs cy da et el eo eu fa gl ko hi hr id he ka la lv lt hu mk ms min no nn ce uz kk ro simple sk sl sr sh fi ta tt th tg azb tr ur zh-yue hy my ace als am an hyw ban bjn map-bms ba be-tarask bcl bpy bar bs br cv nv eml hif fo fy ga gd gu hak ha hsb io ig ilo ia ie os is jv kn ht ku ckb ky mrj lb lij li lmo mai mg ml zh-classical mr xmf mzn cdo mn nap new ne frr oc mhr or as pa pnb ps pms nds crh qu sa sah sco sq scn si sd szl su sw tl shn te bug vec vo wa wuu yi yo diq bat-smg zu lad kbd ang smn ab roa-rup frp arc gn av ay bh bi bo bxr cbk-zam co za dag ary se pdc dv dsb myv ext fur gv gag inh ki glk gan guw xal haw rw kbp pam csb kw km kv koi kg gom ks gcr lo lbe ltg lez nia ln jbo lg mt mi tw mwl mdf mnw nqo fj nah na nds-nl nrm nov om pi pag pap pfl pcd krc kaa ksh rm rue sm sat sc trv stq nso sn cu so srn kab roa-tara tet tpi to chr tum tk tyv udm ug vep fiu-vro vls wo xh zea ty ak bm ch ny ee ff got iu ik kl mad cr pih ami pwn pnt dz rmy rn sg st tn ss ti din chy ts kcg ve