Glossar: Tokenization

Tokenisierung

Tokenization beschreibt die Bearbeitung eines Textes auf Programmierebene, um diesen später anderen Anwendungen zur Verfügung zu stellen. Der Text wird segmentiert in linguistische Einheiten, die Tokens genannt werden.

zurück zur Übersicht


Kennen Sie auch diese Begriffe?

BI   Localism   XR   REST   CTI   PRM   Calm oder Shy Technology   UGC   CDN    



© 2019 netzvitamine GmbH | Impressum | Datenschutz | Glossar | Jobs