Glossar: Tokenization

Tokenisierung

Tokenization beschreibt die Bearbeitung eines Textes auf Programmierebene, um diesen später anderen Anwendungen zur Verfügung zu stellen. Der Text wird segmentiert in linguistische Einheiten, die Tokens genannt werden.

zurück zur Übersicht


Kennen Sie auch diese Begriffe?

Yield / Revenue   WAI-ARIA   Personal Bodyguard   DWH   REST   EDF   RAC   Proxy-Server   POP   Content-Aggregator  



Druckfrische Ergebnisse des 9. DestinationCamp

#WERKSCHAU 2019

HIER bestellen!
© 2019 netzvitamine GmbH | Impressum | Datenschutz | Glossar | Jobs