Glossar: Tokenization

Tokenisierung

Tokenization beschreibt die Bearbeitung eines Textes auf Programmierebene, um diesen später anderen Anwendungen zur Verfügung zu stellen. Der Text wird segmentiert in linguistische Einheiten, die Tokens genannt werden.

zurück zur Übersicht


Kennen Sie auch diese Begriffe?

SaaS   Recommendation Engine   Traffic   CTR   500 - Fehler   DMS   POS   OTDS   Penetrationstest   SEO  



Werkschau DestinationCamp 2018

Ergebnisse der 8. Kreativ- und Zukunftswerkstatt im Tourismus jetzt verfügbar!

HIER bestellen oder als PDF downloaden
© 2018 netzvitamine GmbH | Impressum | Datenschutz | Glossar | Jobs