Glossar: Tokenization

Tokenisierung

Tokenization beschreibt die Bearbeitung eines Textes auf Programmierebene, um diesen später anderen Anwendungen zur Verfügung zu stellen. Der Text wird segmentiert in linguistische Einheiten, die Tokens genannt werden.

zurück zur Übersicht


Kennen Sie auch diese Begriffe?

IaaS   SVG   UGC   Cloud Computing   ADS   PoE   OTDS   ADV   301-Weiterleitung   Parahotellerie  



Werkschau DestinationCamp 2018

Ergebnisse der 8. Kreativ- und Zukunftswerkstatt im Tourismus jetzt verfügbar!

HIER bestellen oder als PDF downloaden
© 2019 netzvitamine GmbH | Impressum | Datenschutz | Glossar | Jobs