Glossar: Tokenization

Tokenisierung

Tokenization beschreibt die Bearbeitung eines Textes auf Programmierebene, um diesen später anderen Anwendungen zur Verfügung zu stellen. Der Text wird segmentiert in linguistische Einheiten, die Tokens genannt werden.

zurück zur Übersicht


Kennen Sie auch diese Begriffe?

EDF   Landing Page   CMS   AR   Ambient Media   GUI   FTTH   Bitcoin   Echtzeitsynchronisation   IEEE  



10. DestinationCamp: 28. - 30. April, Hamburg

STELLUNGNAHME

Umgang mit dem Coronavirus
© 2020 netzvitamine GmbH | Impressum | Datenschutz | Glossar | Jobs