Question du test Natural Language Processing - Les bases

La tokenisation est le processus de séparation du texte en mots ou groupes de mots.

Très facile

Qu'est-ce que la tokenisation ?

Auteur: ConstantinStatut : PubliéeQuestion passée 467 fois
Modifier
2
Évaluations de la communautéPersonne n'a encore évalué cette question, soyez le premier !