Glossar: Tokenization

Tokenisierung

Tokenization beschreibt die Bearbeitung eines Textes auf Programmierebene, um diesen später anderen Anwendungen zur Verfügung zu stellen. Der Text wird segmentiert in linguistische Einheiten, die Tokens genannt werden.

zurück zur Übersicht


Kennen Sie auch diese Begriffe?

MVP   Accessibility   Favicon   IBE-Teilintegration   Content-Aggregator   P2P   Open Graph   Purge   UX   Cloud Computing  



Themen & Moderatoren DestinationCamp 2019

9. Kreativ- und Zukunftswerkstatt im Tourismus.

HIER gehts zum Programm
© 2019 netzvitamine GmbH | Impressum | Datenschutz | Glossar | Jobs