Esplora il lessico italiano esistente con un modello generativo. Scegli un compito e costruisci il tuo prompt.
Risultati
Generazione in corso…
Informazioni su NEOIT5
La Demo
NEOIT5 è una demo interattiva che permette di esplorare le competenze lessicali di NeoIT5-large, un modello linguistico encoder-decoder (architettura T5, 783M parametri) fine-tuned sull'italiano su tre compiti lessicali. La demo è basata sulla ricerca presentata ad ACL 2025.
Compiti Disponibili
Reverse Dictionary (RD) — Data una definizione in linguaggio libero (con parametri opzionali: parte del discorso, etichette semantiche, etimologia), il modello genera la parola corrispondente. Usa beam search con 100 beam per massimizzare la diversità dei candidati.
Definition Modeling (DM) — Data una parola e la sua parte del discorso, il modello genera una definizione lessicale. Usa campionamento stocastico (top-k/top-p) per produrre 10 definizioni diverse.
Exemplification Modeling (EM) — Data una parola, il modello genera esempi d'uso contestuali. Si può fornire una definizione opzionale per guidare la generazione.
Modalità
Parole Esistenti — I risultati mostrano solo parole già attestate nel lessico italiano (dizionario italiano + frequenze Wikipedia).
Neologismi — I risultati mostrano solo parole non ancora attestate nel lessico. Utile per esplorare candidati neologismi generati dal modello.
Campi e Parametri
Categoria Grammaticale (obbligatorio) — Classe morfologica della parola: sostantivo, verbo, aggettivo, ecc.
Argomenti (opzionale) — Tag semantici nel formato ##etichetta##, selezionabili da un menu a tendina con ricerca, per guidare la generazione verso un dominio specifico.
Definizione / Parola — Testo principale del prompt. Limitato a 500 caratteri.
Etimologia (RD, opzionale) — Informazione sull'origine della parola per condizionare la generazione.
Esempio d'uso (DM, opzionale) — Un contesto d'uso per guidare la definizione generata.
Il Modello
NeoIT5-large è basato su IT5-large (783M parametri, architettura T5 seq2seq) ed è stato fine-tuned su un corpus di compiti lessicali italiani, usando dati estratti da dizionari e Wikipedia. Disponibile su Hugging Face:
Ciaccio, C., Miaschi, A., & Dell'Orletta, F. (2025). Evaluating Lexical Proficiency in Neural Language Models. In Proceedings of the 63rd Annual Meeting of the Association for Computational Linguistics (ACL 2025). ACL Anthology →