GOPHERSPACE.DE - P H O X Y
gophering on hngopher.com
HN Gopher Feed (2017-10-21) - page 1 of 10
 
___________________________________________________________________
Word embeddings in 2017: Trends and future directions
82 points by stablemap
http://ruder.io/word-embeddings-2017/
___________________________________________________________________
 
serveboy - 2 hours ago
https://github.com/kudkudak/word-embeddings-benchmarks has a pretty
nice evaluation of existing embedding methods. Notably missing from
this article is GloVe ( https://nlp.stanford.edu/projects/glove/)
and LexVec ( https://github.com/alexandres/lexvec )  both which
tend to outperform word2vec  in both intrinsic and extrinsic tasks.
Also of interest are methods which perform retrofitting, improving
already trained embeddings. Morph fitting (ACL 2017) is a  good
example. Hashimoto et al (2016) sheds some interesting insight on
how embeddings methods are performing metric recovery. Lots of
exciting stuff in this area.
 
  serveboy - 2 hours ago
  Alex Gittens also has a nice paper this year showing how Skipgram
  enables vector additivity. See
  http://www.aclweb.org/anthology/P17-1007
 
PaulHoule - 1 hours ago
My question is what are they really good for.I mean king = queen
-woman + manThat's the kind of thing we have ontologies for.This
article mentions that word embeddings are useful inside
translators,  but from the viewpoint of somebody who wants to
extract meaning from text,  what use is something that doesn't
handle polysemy and phrases?