Glossar: Tokenization

Tokenisierung

Tokenization beschreibt die Bearbeitung eines Textes auf Programmierebene, um diesen später anderen Anwendungen zur Verfügung zu stellen. Der Text wird segmentiert in linguistische Einheiten, die Tokens genannt werden.

zurück zur Übersicht



Tageszusammenfassungen DestinationCamp 2019

Berichte - Videos - Fotos

HIER ansehen!
© 2019 netzvitamine GmbH | Impressum | Datenschutz | Glossar | Jobs