Vektoreinbettungen, auch bekannt als Worteinbettungen oder Merkmalseinbettungen, beziehen sich auf die Umwandlung von kategorialen Variablen oder Text in Vektoren mit kontinuierlichen Werten. Beim Maschinellen Lernen und bei der Verarbeitung natürlicher Sprache (NLP) übersetzen Vektoreinbettungen hochdimensionale Daten in einen niedrigdimensionalen Raum, wodurch sie besser handhabbar werden und zugrundeliegende Muster in den Daten aufgedeckt werden.
Vektoreinbettungen sind ein wichtiger Bestandteil vieler Aufgaben im Bereich des maschinellen Lernens und des NLP, da sie eine Möglichkeit bieten, nichtnumerische Daten, wie z. B. Text, in eine numerische Form umzuwandeln. Die daraus resultierenden Vektoren erfassen die semantischen Beziehungen zwischen den ursprünglichen Datenpunkten. Bei der Worteinbettung zum Beispiel werden semantisch ähnliche Wörter auf Vektoren abgebildet, die im Vektorraum nahe beieinander liegen. Techniken wie Word2Vec, GloVe und FastText werden häufig zur Erstellung von Worteinbettungen verwendet. Vektorielle Einbettungen erleichtern nicht nur den Umgang mit Textdaten, sondern helfen auch dabei, Erkenntnisse und Beziehungen aufzudecken, die im ursprünglichen hochdimensionalen Raum möglicherweise nicht sichtbar sind.