Link Search Menu Expand Document

Lemmatiseurs, paramètres, outils

Table des matières
  1. Les lemmatiseurs et taggers
    1. TreeTagger
    2. Collatinus
    3. spaCy
    4. Pie (et Deucalion/Flask Pie)
    5. StanfordNLP
    6. WordNet (nltk)
    7. TextBlob
    8. MarMoT
    9. FastText
    10. LGeRM
    11. UDPipe
    12. FreeLing
    13. CLTK
  2. Les jeux de données et les jeux de paramètres/modèles
    1. OMNIA
    2. Lasla
    3. LiLa Lemma Bank
    4. Perseus TreeBank
    5. Achim Stein
    6. LatinCy
    7. Deucalion
    8. Middle High German
    9. PALM
    10. Latin pour TreeTagger
    11. Old French lemmatization
    12. eHumanities Desktop
    13. CLTK
    14. PaPie - modèle
  3. Les outils de post-traitement en lemmatisation
    1. Pyrrha

Les lemmatiseurs et taggers

TreeTagger

Le TreeTagger est un outil permettant d’annoter des textes avec des informations sur les parties du discours et les lemmes. Il a été développé par Helmut Schmid dans le cadre du projet TC à l’Institut de linguistique informatique de l’université de Stuttgart. Le TreeTagger a été utilisé avec succès pour annoter des textes allemands, anglais, français, italiens, danois, suédois, norvégiens, néerlandais, espagnols, bulgares, russes, portugais, biélorusses, ukrainiens, galiciens, grecs, chinois, swahili, slovaques, slovènes, latins, estoniens, polonais, persans, roumains, tchèques, coptes et vieux français. Il est adaptable à d’autres langues si un lexique et un corpus d’entraînement étiqueté manuellement sont disponibles.

Page web: TreeTagger


Collatinus

Collatinus est à la fois un lemmatiseur et un analyseur morphologique de textes latins : il est capable, si on lui donne une forme déclinée ou conjuguée, de trouver quel mot il faudra chercher dans le dictionnaire pour avoir sa traduction dans une autre langue, ses différents sens, et toutes les autres données que fournit habituellement un dictionnaire.

Bien que conçu initialement pour les professeurs de Latin, Collatinus s’est étoffé au fil des ans de plusieurs outils qui peuvent intéresser les médiévistes. En particulier, il permet de consulter différents dictionnaires, dont certains consacrés au Latin médiéval, en mode image pour certains et en plein texte pour d’autres (Du Cange et Köbler). Les différents dictionnaires ne donnant pas nécessairement les mêmes informations, il peut être pratique de passer de l’un à l’autre en un clic. D’autre part, le TextiColor peut s’avérer être un outil pratique pour repérer les coquilles dans l’OCR d’un texte latin. La scansion et l’accentuation sont aussi possibles avec Collatinus et peuvent être appliquées par exemple à l’étude de la poésie métrique ou rythmique. L’usage du cursus dans la prose peut aussi apporter des éléments de datation. On trouvera plus de détails ici: “Lemmatiser avec Collatinus 3”.

Page web: Collatinus


spaCy

spaCy est une bibliothèque logicielle Python de traitement automatique des langues (TAL/NLP). Elle permet d’implémenter différentes d’annotations linguistiques pour donner un aperçu de la structure grammaticale d’un texte (types de mots, parties du discours, relations des mots entre eux). Elle réalise la tokenisation, la lemmatisation, le POS-Tagging, parmi d’autres opérations avancées.

Page web: spaCy


Pie (et Deucalion/Flask Pie)

Pie est un lemmatiseur indépendant de la langue implémenté en python et conçu pour les “langues riches en variations”, dont le latin. C’est un outil d’apprentissage profond qui peut être entraîné et réentraîné avec des données au format TSV. En 2019, il semble être l’un des lemmatiseurs de pointe en termes de résultats. Il peut être entraîné conjointement sur des tâches de morphologie, de POS et de lemmatisation.

Page web: Pie (et Deucalion/Flask Pie)

Liens supplémentaires:


StanfordNLP

StanfordNLP est un logiciel Python d’analyse du langage naturel. Il contient des outils, qui peuvent être utilisés dans un pipeline, pour convertir une chaîne contenant un texte en langage humain en listes de phrases et de mots, pour générer des formes de base de ces mots, leurs parties du discours et leurs caractéristiques morphologiques, et pour donner une analyse de la dépendance de la structure syntaxique, qui est conçue pour être parallèle parmi plus de 70 langues, en utilisant le formalisme des dépendances universelles. En outre, il est capable d’appeler le paquet Java CoreNLP et d’en hériter des fonctionnalités supplémentaires, telles que l’analyse syntaxique des constituants, la résolution des coréférences et l’appariement des modèles linguistiques.

Page web: StanfordNLP


WordNet (nltk)

WordNet® est une grande base de données lexicale de l’anglais. Les noms, les verbes, les adjectifs et les adverbes sont regroupés en ensembles de synonymes cognitifs (synsets), chacun exprimant un concept distinct. Les synsets sont reliés entre eux par des relations conceptuelles, sémantiques et lexicales. Le réseau de mots et de concepts significativement liés qui en résulte peut être parcouru à l’aide d’un navigateur. WordNet peut également être téléchargé gratuitement et publiquement. La structure de WordNet en fait un outil utile pour la linguistique informatique et le traitement du langage naturel.

Page web: WordNet


TextBlob

TextBlob est une bibliothèque Python (2 et 3) pour le traitement des données textuelles. Elle fournit une API simple permettant de se plonger dans des tâches courantes de traitement du langage naturel (NLP) telles que l’étiquetage des parties du discours, l’extraction de phrases nominales, l’analyse des sentiments, la classification, la traduction, et bien plus encore.

Page web: TextBlob


MarMoT

MARMOT est une bibliothèque Python permettant de traiter des données multimodales composées à la fois d’images et de texte. Elle ne nécessite pas de pré-entraînement multimodal et peut traiter les observations de modalités manquantes. Ce repo est actuellement en construction et est dans un état très approximatif ; n’hésitez pas à nous contacter si vous avez des questions.

Page web: MarMoT


FastText

FastText est une bibliothèque libre, gratuite et légère qui permet aux utilisateurs d’apprendre les représentations de texte et les classificateurs de texte. Elle fonctionne sur du matériel standard et générique. Les modèles peuvent être réduits par la suite pour tenir sur des appareils mobiles.

Page web: FastText


LGeRM

LGeRM (Lemmes Graphies et Règles Morphologiques, prononcer “elle germe”), est un lemmatiseur conçu pour gérer la variation graphique historique du français. Il a été initialement développé pour le moyen français (1330-1500) puis adapté au français du XVIe et XVIIe. Il est aussi capable de traiter du français moderne.

Page web: LGeRM


UDPipe

UDPipe est un pipeline entraînable pour la tokenisation, l’étiquetage, la lemmatisation et l’analyse des dépendances des fichiers CoNLL-U. UDPipe est indépendant de la langue et peut être entraîné à partir de données annotées au format CoNLL-U. Des modèles entraînés sont fournis pour presque toutes les banques d’arbres de l’UD. UDPipe est disponible sous forme de binaire pour Linux/Windows/OS X, de bibliothèque pour C++, Python, Perl, Java, C#, et de service web. Un paquet R CRAN tiers existe également.

Page web: UDPipe


FreeLing

FreeLing est une bibliothèque C++ offrant des fonctionnalités d’analyse linguistique (analyse morphologique, détection d’entités nommées, étiquetage PoS, analyse syntaxique, désambiguïsation du sens des mots, étiquetage sémantique des rôles, etc.) pour une variété de langues (anglais, espagnol, portugais, italien, français, allemand, russe, catalan, galicien, croate, slovène, entre autres).

Page web: FreeLing


CLTK

Le Classical Language Toolkit (CLTK) est une bibliothèque Python permettant le traitement du langage naturel (NLP) pour les langues de l’Eurasie pré-moderne. Des pipelines préconfigurés sont disponibles pour 19 langues.

Page web: CLTK

Les jeux de données et les jeux de paramètres/modèles

Les jeux de données pour les langues médiévales, principalement pour le latin et l’ancien français, sont utilisés pour créer les jeux de paramètres et les modèles employés par les outils. Nous les présentons ensemble, étant donné leur interdépendance.

OMNIA

(latin, en particulier latin médiéval; TreeTagger) https://glossaria.eu/lemmatisation/#page-content

OMNIA a été élaboré pour être implementé au logiciel TreeTagger, développé pour le marquage morphosyntaxique (POS – Part of Speech), mais qui permet également la lemmatisation. OMNIA propose à la fois les paramètres nécessaires à son utilisation avec des textes en latin médiéval, et les fichiers permettant de recréer ces paramètres.

Page web: OMNIA


Lasla

(latin; Pie, via le modèle Deucalion latin + Collatinus) https://www.lasla.uliege.be/cms/c_8570393/fr/lasla-logiciels


LiLa Lemma Bank

(latin; pas de logiciel spécifique: https://lila-erc.eu/lodview/data/id/lemma/LemmaBank)


Perseus TreeBank

(latin; https://github.com/PerseusDL/treebank_data/tree/master/v2.0/Latin)


Achim Stein

(anciens français; TreeTagger)


LatinCy

(latin; Spacy: https://huggingface.co/latincy; https://spacy.io/universe/project/latincy; https://arxiv.org/abs/2305.04365)


Deucalion

(Ancien français; https://zenodo.org/record/3237455; lemmes issus du Tobler‑Lommatzsch + POS issus de Cattex; pour Pie)


Middle High German

(moyen haut allemand; TreeTagger)


PALM

(TreeTagger) http://palm.huma-num.fr/PALM/

La plateforme PALM (Plateforme d’analyse linguistique médiévale) est destinée au traitement des textes médiévaux (MEDITEXT): il s’agit d’un système s’adressant moins aux philologues qu’aux historiens ou aux philosophes qui, désireux d’entreprendre des recherches lexicométriques ou sémantiques, se heurtent à l’absence d’une orthographe normalisée et à la variabilité tant géographique que chronologique des lexiques médiévaux.

Elle permet, par l’intermédiaire d’une annotation souple des textes, la semi-automatisation de la normalisation orthographique et de la lemmatisation des textes médiévaux en anglais, en français et en latin.

Page web: PALM

Télécharger la présentation PALM


Latin pour TreeTagger

(TreeTagger: https://www.cis.uni-muenchen.de/~schmid/tools/TreeTagger/)


Old French lemmatization

(Ancien français; TreeTagger: https://github.com/CristinaGHolgado/old-french-lemmatization)


eHumanities Desktop

(latin; MarMoT https://www.texttechnologylab.org/applications/ehumanities-desktop/)


CLTK

(plusieurs langues anciennes: latin; vieil anglais; moyen anglais; moyen haut allemand; etc.: https://legacy.cltk.org/en/latest/index.html)


PaPie - modèle

Les outils de post-traitement en lemmatisation

Pyrrha

Pyrrha est une simple Python Flask WebApp pour accélérer la post-correction de corpus lemmatisés et morpho-syntaxiquement tagués.

Page web: Pyrrha

Télécharger la présentation Pyrrha