Laboratorio di analisi di dati
linguistici
Laurea specialistica in Linguistica Teorica
e Applicata, Università di Pavia
Andrea Sansò
[email protected]
A.A. 2005-2006
Corso progredito
10 CFU
Premessa: perché questo corso?
• Non è un corso di linguistica computazionale.
• È un corso concepito come complementare ai corsi di
linguistica computazionale: le risorse linguistiche sono la
base di dati su cui le modellizzazioni dei linguisti
computazionali si fondano.
• È il primo corso di questo tipo in Italia (sul modello
dei corsi di language resources che esistono all’estero).
Premessa: perché questo corso?
• La parte teorica del corso sarà affiancata da una parte pratica che ha come
obiettivo quello di rendere familiari le principali risorse linguistiche esistenti,
obiettivo essenziale per chi comincia un biennio di specializzazione in
linguistica.
• Ovviamente, si terrà conto degli interessi che caratterizzano tutti e tre i
curricula della Laurea Specialistica:
• risorse per la ricerca tipologica – settore in cui Pavia sta sviluppando
importanti iniziative;
• risorse per lo studio dell’italiano come L2;
• risorse per lo studio delle lingue moderne (inglese, francese, spagnolo,
ecc.);
• risorse per lo studio delle lingue indoeuropee.
Premessa: perché questo corso?
• È un corso in qualche modo “modellabile”. Ognuno di voi
potrà sfruttare le conoscenze e le competenze acquisite e
metterle a frutto in una prima esperienza di ricerca per la
preparazione dell’esame.
• Sondaggio:
• familiarità già acquisite con strumenti elettronici
come corpora, concordanze?
• lavori data-oriented per la tesi triennale (o per una
precedente laurea quadriennale)?
Modalità d’esame
Esame orale sulle tematiche del modulo + relazione su un’attività
individuale o di gruppo.
Attività possibili:
• Recensione di risorse linguistiche o siti web (con creazione di contenuti
multimediali per la pagina web del laboratorio);
• ricerche su corpora con descrizione dei risultati e analisi statistica degli
stessi;
• progettazione di specifiche di annotazione per singoli fenomeni
linguistici su un corpus (anche in relazione con il lavoro di tesi di laurea);
•…
Sommario
1.
Breve introduzione alla linguistica dei corpora:
1.1. Le origini; 1.2. Che cos’è un corpus e a che cosa serve; 1.3.
Rassegna dei principali corpora;
2.
Elementi di statistica ad uso dei linguisti
3.
Una nozione più ampia: risorsa linguistica
2.1. Un po’ di storia, una definizione e alcune parole chiave; 2.2. I
lessici: WordNet, FrameNet, etc.; 2.3. Risorse per la linguistica
storica e tipologica; 2.4. Software
3.
La standardizzazione
3.1. Elementi di XML; 3.2. Iniziative di standardizzazione: TEI;
XCES; MATE; EAGLES; etc.
Programma d’esame
1. Materiali distribuiti a lezione
2. Letture di riferimento:
• Tony McEnery, Andrew Wilson, Corpus linguistics,
Edinburgh: Edinburgh University Press, 2001 (specialmente
capp. 1-5, pp. 1-145).
• Un manuale di XML a scelta: ad es. Heather Williamson,
XML: La guida completa, Milano: McGraw-Hill, 2001 (capp. 16, 8-9, pp. 3-83 e 97-131); E. R. Harold, W. Scott Means, XML
in a Nutshell, 2nd Edition, O’Reilly, 2002 (capp. 1-6) [parti
relative alla struttura di XML, a elementi e attributi, e alla
DTD].
Programma d’esame
3. Letture di approfondimento su argomenti del corso:
• Christiane Fellbaum (ed.), Wordnet. An electronic lexical
database, The MIT Press, 1998 (limitatamente a: cap. 1,
G.A. Miller, Nouns in WordNet, pp. 23-46; cap. 3, Ch.
Fellbaum, A semantic network of English verbs, pp. 69-104).
• Steven Bird, Gary Simons, “Seven dimensions of
portability for language documentation and description”,
Language 79 (3), 2003, pp. 557-582.
• Altre letture indicate nel corso
Il sito web
Da quest’anno è attivo il sito del Laboratorio di Analisi di
Risorse Linguistiche, una struttura ospitata nei locali del
Dipartimento di Linguistica Teorica e Applicata, nata per
raccogliere e coordinare iniziative sulle risorse linguistiche.
 http://www.unipv.it/larl
Laboratorio di analisi di risorse
linguistiche
1.
Breve introduzione alla corpus linguistics
Temi: Le origini e un po’ di storia; che cos’è un corpus;
lo spirito della corpus linguistics; i corpora: problemi di
acquisizione dei dati e di rappresentatività; una
tassonomia dei corpora; i corpora nella ricerca
linguistica.
Breve introduzione alla corpus
linguistics
Obiettivi di questo modulo:
• individuare lo spirito che anima la corpus
linguistics;
• identificare le principali tipologie di
corpora (si rimanda alla sezione 2 per le
questioni più tecniche)
Che cos’è la corpus linguistics?
 Mc Enery e Wilson (1997: 1)
 “Corpus linguistics is perhaps best described for
the moment in simple terms as the study of
language based on examples of ‘real life’
language use.”
 La CL studia quindi “la lingua nel modo in cui
essa viene effettivamente utilizzata, da parlanti
concreti in reali situazioni comunicative” (Spina
2001: 53).
Che cos’è la corpus linguistics?
 Non è una branca della linguistica: è piuttosto una
filosofia, un tipo di approccio ai dati
 È un settore che oggi prevede la stretta interazione
di linguistica e informatica
 I testi vengono trasformati in Machine Readable
Form (MRF), in modo da poter essere leggibili e
manipolabili da un computer.
 Ma non è sempre stato così…
Un po’ di storia
 I precursori della moderna corpus linguistics
sono i creatori di “concordanze” e thesauri



Cruden (1736): Concordanze dell’Antico e
Nuovo Testamento
Kaeding (1898) corpus tedesco: 11 milioni di
parole
Thorndike (1921) corpus inglese: 4 milioni di
parole (a scopi didattici)
Un po’ di storia
In Italia:
 1949: il gesuita Padre Roberto Busa convince
Thomas Watson Sr., amministratore delegato della
IBM, a fornire sostegno alle sue attività
 1953: Busa fonda a Gallarate il Centro per
l’automazione dell’analisi letteraria (CAAL).
 1989: Pubblicazione dell’Index Thomisticus
Un po’ di storia
In Italia:
 ILC (Istituto di Linguistica Computazionale, Pisa):
fondato come istituto indipendente nel 1978 (da A.
Zampolli), ha come settori di ricerca principali:



il disegno di standard e la costruzione di risorse linguistiche
computazionali;
modelli e metodi per il trattamento delle lingue naturali e
prototipi applicativi mono- e multilingui
modelli e strumenti computazionali per la ricerca umanistica,
in particolare nelle discipline filologiche e lessicografiche
Un po’ di storia
 Oggi: in molte (non moltissime) sedi universitarie italiane ci sono
insegnamenti di Linguistica Computazionale (11 sedi, fonte SLI
2003); il panorama dei soggetti pubblici e privati che si occupano
di risorse linguistiche è senz’altro confortante; la rappresentanza
italiana alla conferenza biennale L(anguage) R(esources) and
E(valuation) C(onference) è una delle più significative…
 Problemi aperti: essenzialmente legati a questioni di
standardizzazione e di diffusione/localizzazione delle risorse
(cfr. infra)
Cfr. Libro Bianco sul TAL (trattamento automatico del
linguaggio; http://forumtal.fub.it/LibroBianco.php)
Un po’ di storia
 Chomsky (1957: 16-17):

“Grammar is autonomous and independent of meaning, and […]
probabilistic models give no particular insight into some of the basic
problems of syntactic structure”
 Il generativismo, in quanto teoria razionalista esplicitamente antiempirista, costituisce per qualche tempo un freno allo sviluppo della CL

“Observing the recursive nature of phrase structure rules shows clearly how
the sentences of natural language are not finite. A corpus could never be the
sole explicandum of natural language. Our knowledge of, say, grammar is
enshrined in our syntactic competence. This may be composed of a finite set
of rules which give rise to an infinite number of sentences. Performance
data, such as a corpus, would not describe this competence” (McEnery &
Wilson 1997: 8)
Un po’ di storia
 “… the linguist, or native speaker of a
language [is] the sole explicandum of
linguistics. The conscious observations of a
linguist who has native competence in a
language are just as valid as sentences
recorded furtively from somebody who did
not know they were swelling some corpus”
(Mc Enery & Wilson 1997: 9)
Un po’ di storia
 Tuttavia, proprio agli inizi degli anni Sessanta
viene dato avvio alla creazione delle due prime
raccolte sistematiche di corpora di riferimento
per l’inglese:


il Brown Corpus (1 milione di parole di inglese
americano scritto, raccolto a partire dal 1961)
il London-Lund corpus (circa 500000 parole di
inglese parlato, raccolto negli anni ’60-’70, annotato
prosodicamente)
Brown Corpus
 Standard Corpus of Present-Day American English (W.N. Francis, H.
Kucera, Brown University, Providence, Rhode Island, 1963-64)
 1014312 parole
 Corpus di inglese americano scritto pubblicato nell’anno 1961
 Diviso in 500 sezioni di 2000 parole ciascuna
 Esclude testi drammatici (in quanto “ri-creazione” fittizia di parlato) e
testi narrativi con più del 50% di dialogo
 Campionamento:
http://khnt.hit.uib.no/icame/manuals/brown/INDEX.HTM
 Codifica: piuttosto complessa e datata
 Esiste una versione etichettata (codifica dell’informazione
grammaticale): tagset (khnt.hit.uib.no/icame/manuals/brown/INDEX.HTM)
 È possibile consultarlo online attraverso il Web Concordancer:
http://www.edict.com.hk/concordance/
London-Lund Corpus
 Compilato da Jan Svartvik (Lund University), 1975-1981 e
1985-1988
 Circa 500000 parole
 Corpus di inglese parlato
 Diviso in 2 sezioni: monologue e dialogue
 Annotato prosodicamente
Qualche altra data…
 1971 – Thesaurus Linguae Graecae:
www.tlg.uci.edu
 1965 – Nasce la Association for Computational
Linguistics
www.aclweb.org (vedere la sezione su resources)
 1966 – Viene fondata la rivista Computer and
the Humanities (oggi cessata e rifondata con il
nome di Language resources and evaluation)
Un po’ di storia
 La visione pessimistica di Chomsky è in qualche modo legata alle
limitazioni dei mezzi allora disponibili
 Metà degli anni Settanta: diffusione dei primi Personal
Computer
 1983: L’IBM dona 1500 computer alle facoltà umanistiche
dell’Università di Stanford
 Anni Novanta: diffusione di Internet
Vantaggi in termini di acquisizione dei dati, ma problemi nuovi:
standardizzazione, durata, ecc. (cfr. infra)
Lo spirito della Corpus Linguistics
“I don’t think there can be any corpora, however
large, that contain information about all of the
areas of English lexicon and grammar that I want
to explore … [but] every corpus I have had the
chance to examine, however small, has taught me
facts I couldn’t imagine finding out any other
way”
Fillmore 1992: 35
Torniamo alla definizione…
 “È una raccolta strutturata di testi in formato
elettronico, che si assumono rappresentativi
di una data lingua o di un suo sottoinsieme,
mirata ad analisi di tipo linguistico” (Spina
2001: 65)
Che cos’è un corpus?
 Qualsiasi collezione di testi?
In teoria sì, in pratica no!
rappresentatività
standard
reference
condivisibilità
machinereadable form
La costruzione del corpus
4 domande (da C. Ball):
1. Who are the intended users? (e.g. personal research vs a general
resource)
2. What is the purpose of the corpus? (e.g. a basis for a dictionary;
to create a word frequency list; to study some linguistic
phenomenon; to study the language of a particular author or
time period; to train a NLP system; as a teaching resource for
non-native speakers)
3. How much data is needed/realistic? What variables should be
anticipated?
4. Sampling? Or exhaustive?
Rappresentatività
 Ci possono aiutare le tecniche statistiche sviluppate
per le scienze “dure” e per le scienze sociali

Primo passo: definire il sampling frame, ossia l’intera
popolazione di testi alla quale siamo interessati; se siamo
interessati all’italiano scritto degli anni novanta,
possiamo definire la popolazione totale attraverso
l’indice di tutte le opere (libri, periodici, quotidiani)
pubblicate in quel decennio (una ricerca semplice che
può essere fatta in qualsiasi biblioteca – es. la Biblioteca
Nazionale di Firenze).
Rappresentatività

Per i corpora di parlato ovviamente la tecnica precedente non
funziona. Ma anche in questo caso ci aiutano le tecniche utilizzate
normalmente nelle scienze sociali (ad esempio la tecnica di selezione
di un campione rappresentativo di una popolazione utilizzata dai
sondaggisti politici)
Es. British National Corpus: gli informanti per la parte di parlato
sono stati scelti sulla base del sesso, dell’età, della regione e della
classe sociale
Problema: questa procedura lascia fuori il parlato non spontaneo,
legato a situazioni codificate (interventi a conferenze, comizi
politici, interrogatori, ecc.), e molto interessante dal punto di vista
linguistico
Rappresentatività

Si procede poi alla scelta del campione. La domanda che
ci si deve porre è la seguente:
Qual è la probabilità che un numero n di testi di
lunghezza y contenga lo stesso numero e la stessa
distribuzione di tratti linguisticamente significativi
dell’intera popolazione (fatte ovviamente le debite
proporzioni)?
Rappresentatività
Al di là delle considerazioni di “buon senso” che ci può
suggerire un sano approccio empirico, anche in questo
caso vengono in nostro soccorso tecniche statistiche (es.
la dispersion statistics); di solito si prende in esame un
tratto non banale, che presenta un’estrema variabilità
nella popolazione in questione, e si valuta se nel
campione la distribuzione di questo tratto è proporzionale
a quella della popolazione generale. Se così è si può
presumere che anche altri tratti siano distribuiti nel
corpus in maniera proporzionale alla loro distribuzione
nella popolazione.
Dimensioni

Normalmente i corpora hanno dimensioni finite, ma esistono anche
collezioni di testi open-ended, come il corpus COBUILD di John
Sinclair, sviluppato all’Università di Birmingham.
(http://titania.cobuild.collins.co.uk)
Si parla in questo caso di monitor corpus: di solito questo tipo di
corpus è utilizzato per scopi lessicografici (costruzione di dizionari),
perché solo aggiungendo continuamente testi al corpus di riferimento
si possono individuare nuovi significati di parole e parole nuove. I
monitor corpora, non essendo costruiti su basi statistiche, servono
spesso come terreno di valutazione della rappresentatività di altri
corpora. Altri monitor corpora sono CORIS per l’italiano e
l’American National Corpus per l’inglese americano.
Oggi è possibile testare le frequenze relative utilizzando il web come
corpus (ma anche questo approccio presenta dei problemi).
Dimensioni
Il web come corpus:
Nel 2003 è stato calcolato che il web contenesse
circa 20 terabyte di testo accessibile (1 terabyte
= 1000 miliardi di byte). Calcolando una media
di 10 byte per parola si può calcolare che nel web
ci sia disponibile una quantità di testi pari a 2000
miliardi di parole.
Il web come miniera per le lingue minoritarie, che
spesso vi sono sovrarappresentate (siti
governativi, quotidiani, ecc.).
Dimensioni
Il web come corpus:
Applicazioni: provare a cercare su GOOGLE il numero di
pagine contenenti la parola igniorante e il numero di
pagine contenenti la parola ignorante  utilità per
testare programmi di correzione ortografica.
Utilizzo del web come fonte di concordanze: es. inserire su
un motore di ricerca la frase incompleta: This contraction
is so * per trovare l’aggettivo che viene più spesso
utilizzato in relazione al sostantivo contraction.
Problemi aperti: eliminazione del “rumore”  the web as
corpus (www.webcorp.org.uk)
Dimensioni
Molti corpora elettronici di prima generazione contengono
un milione di parole o più.
Ma quanto è grosso un corpus di un milione di parole?
Calcolo di Ball: una pagina di un mensile di media
grandezza (New Yorker) contiene 965 parole; il mensile è
formato da 112 pagine, e perciò si può stimare che l’intero
mensile contenga 108080 parole; un corpus di 1 milione di
parole equivarrebbe allora a una decina di numeri di un
mensile di media grandezza
Standard reference

Un tacito assunto della corpus linguistics è quello di
fare in modo che un corpus diventi uno strumento di
riferimento standardizzato per la lingua o le lingue
che esso rappresenta: un corpus deve essere
utilizzabile da studiosi diversi in momenti diversi, e
deve garantire in questo modo che “variation
between studies may be less likely to be attributed to
differences in the data being used, and more to the
adequacy of the assumptions and methodologies
contained in the study” (McEnery & Wilson 1997:
24).
Machine-readable form

Ormai corpus è sinonimo di corpus elettronico; i
vantaggi di conservare i corpora in forma elettronica
sono evidenti e non meritano commenti:




Accessibilità
Velocità
Accuratezza
Il vantaggio più importante, tuttavia, è la possibilità,
che è solo dei corpora elettronici, di aggiungere
informazione linguistica ed extralinguistica
attraverso l’annotazione
La costruzione di un corpus
 Tre fasi:

Fase 1: Progettazione del corpus 

Fase 2: Acquisizione dei dati

Fase 3: Codifica dei dati
Acquisizione dei dati
 Dopo la fase di progettazione si passa
all’acquisizione dei dati.
 Ricerca sul campo e reperimento di testi
 Ricordare sempre il diritto alla privacy e i
problemi del copyright
Problemi nella raccolta dati
 Parlato



La raccolta e l’analisi sono molto lente
Evitare la sovrapposizione di turni
Cercare la naturalezza
Problemi nella raccolta dati
 Per ottenere un parlato naturale e coerente si
devono avere registrazioni di almeno mezz’ora
(studi sulle fasi del dialogo “costruito” mostrano
che la naturalezza e l’abbassamento della soglia di
controllo linguistico si raggiungono dopo circa 1015 minuti)
 Bisognerebbe registrare i parlanti nel loro
“ambiente naturale”
 Questo, ovviamente, va a discapito dell’audio
Problemi nella raccolta dati
 Per il BNC il registratore è stato dato agli
individui che registravano tutte le loro
conversazioni per un periodo da due a sette
giorni
 Il registratore digitale garantisce sia la qualità
del suono che la durata
Problemi nella raccolta dati
 Problema del copyright



Parzialmente evitabile se si dichiara che si usa
per scopi scientifici (v. Brown)
Non presentano generalmente gli stessi problemi
di copyright i testi di giornali e quelli pubblicati
in internet
La legislazione dei singoli paesi è spesso in
ritardo rispetto all’evoluzione delle possibilità di
reperimento dei testi fornita dalla rete
Problemi nella raccolta dati
 Ricordarsi sempre di trascrivere:


il nome di chi ha raccolto i dati
tutte le informazioni sugli informanti (età, sesso,
professione, provenienza, etc.)
 Problemi etici: esiste un codice di
autodisciplina?

http://talkbank.org/share/ethics.html/
Acquisizione
 Si possono utilizzare testi già in formato elettronico
(ad es. testi presenti in internet o CD-ROM) 
soluzione opportunistica (può andare a scapito della
rappresentatività)  esempio: La repubblica corpus
(usn: asanso, pwd: vtcuevx7)
 Se i testi non sono già disponibili in formato
elettronico, bisogna trasformare i dati Machine
Readable Form
Acquisizione
 Sistemi di acquisizione:
battitura manuale
 acquisizione tramite scanner e sistemi OCR
 dettatura
valutazioni economiche (budget, qualità della
stampa, etc.)

 In ogni caso i testi vanno ricontrollati da un
essere umano
Codifica
 I problemi riguardano per lo più il parlato


Nel passaggio dall’orale allo scritto, infatti, i testi
perdono molte delle loro caratteristiche
individualizzanti (pause, accento, ritmo,
intonazione, esitazioni ...)
Inoltre, il formato elettronico, impone di
utilizzare un sistema di codifica il più semplice
possibile
Codifica
 Codifica di primo grado



Si utilizzano i caratteri ASCII (formato solo
testo)
Vantaggio: Sono leggibili da qualsiasi sistema
operativo e da qualsiasi software
Svantaggio: Hanno una limitata capacità di
rappresentazione rispetto alle lingue del mondo
Codifica
Un particolare problema: la trascrizione
fonetica non può essere fatta utilizzando le
convenzioni IPA
Unicode comprende i fonts IPA, ma:
 a questo problema si è cercato di ovviare con
l’alfabeto SAMPA, che utilizza esclusivamente
caratteri ASCII
(http://www.phon.ucl.ac.uk/home/sampa/home.htm)
(http://www.phon.ucl.ac.uk/home/sampa/italian.htm)
Codifica
Unicode:
è il sistema utilizzato per codificare virtualmente tutti i
caratteri di tutti le lingue del mondo e ormai incorporato in
molti editor di testo (es. Notepad di Windows include il
character set UTF-8); i caratteri sono indicati da sequenze
alfanumeriche.
Where is my character?
http://www.unicode.org/standard/where/
Codifica
 Codifica di secondo grado


Normalizzazione grafica
Marcatura (mark-up) o annotazione
(tagging/annotation)
Codifica
 Normalizzazione grafica: prevede la
correzione ortografica, l’eliminazione di
righe vuote, e spazi bianchi superflui, la
riduzione di varianti grafiche di una stessa
parola ad un’unica forma
 Non è una fase così scontata, soprattutto per
testi di lingue non standardizzate.
Annotazione
 L’annotazione o marcatura “è una sorta di
metacodifica dei testi, costituita da un
insieme di simboli per etichettarne le diverse
parti e di regole per utilizzarli; essa è un vero
e proprio linguaggio che utilizza, per
distinguersi dal testo a cui si riferisce, dei
caratteri delimitatori particolari” (Spina
2001: 79)
Annotazione
 Anche qui c’è un problema di uniformità
 Alla fine degli anni Ottanta, studiosi di tutto
il mondo si mettono assieme per elaborare
uno standard nella codifica informatizzata
dei dati testuali
 Nel 1987 nasce la Text Encoding Initiative
Annotazione
 Nel 1994 vengono pubblicate le Guidelines for the
electronic text encoding and interchange, note
anche come TEI P3 (oggi l’ultimo standard è il TEI
P4 del 2002)
 Come determinazione preliminare le Guidelines
prevedono che siano utilizzati i linguaggi SGML e
XML.
 Esiste una versione “semplificata” di TEI, molto
utile per operare un’annotazione rapida di un testo.
Si chiama TEI-Lite ed è anche tradotta in italiano:
http://www.tei-c.org/Lite/teiu5_it.html
Annotazione
 Uso di SGML e XML:



linguaggi non proprietari
indipendenti dalla lingua che si vuole codificare
codici che permettono l’interscambio di
informazioni attraverso Internet
Annotazione
Nella seconda parte del corso si parlerà
dell’annotazione con maggiore dettaglio. A
questo punto è bene cominciare a guardarci
intorno e familiarizzare con i principali corpora
e i principi che li ispirano
Tipi di corpora
 Tassonomia di Catherine J. Ball
(http://www.georgetown.edu/faculty/ballc)





per mezzo
per lingua
per stati o registri di lingua
per disegno
per struttura
Distinzione per mezzo
 Corpora



di lingua scritta (Brown Corpus)
di lingua orale trascritta ortograficamente (parte orale del
BNC)
lingua orale trascritta ortograficamente e/o foneticamente
(Lancaster Spoken English Corpus, LIP, AVIP, LondonLund corpus, Trains, Phonebook)

http://www.ldc.upenn.edu/Catalog/byType.jsp
(catalogo di corpora di parlato presso il Linguistic Data
Consortium dell’University of Pennsylvania; alcuni liberamente
accessibili)
Distinzione per mezzo




lingua parlata digitalizzata, affiancata alla
trascrizione fonetica digitalizzata
lingua trasmessa (LIR, CIT)
linguaggio dei gesti
misti
Trains corpus
www.cs.rochester.edu/research/cisd/projects/trains/
Il progetto da cui nasce questo corpus aveva come
obiettivo lo studio della prosodia del parlato. I dialoghi
sono task-oriented come nel Map Task, e l’allineamento
dell’audio e della trascrizione è gestito dal software
WAVES.
Il sito web contiene le trascrizioni e una dettagliata
documentazione sul progetto
BNC
• Oltre 100 milioni di parole di inglese contemporaneo (90%
scritto, 10% parlato)
• Etichettato automaticamente con il tagger CLAWS
• Etichettatura conforme al protocollo TEI:
• http://www.natcorp.ox.ac.uk/what/garside_allc.html
• Bilanciamento:
• http://www.natcorp.ox.ac.uk/what/balance.html
BNC
È possibile utilizzare un interfaccia grafica per interrogare il corpus (che si
limita a fornire un numero massimo di 50 esempi). Sono possibili ricerche
anche complesse (es.: se si chiede la stringa house=VVB si ottengono
esempi dell’uso di house come verbo; se si chiede {s[iau]ng} si ottengono
occorrenze di sing, sang e sung).
http://sara.natcorp.ox.ac.uk/lookup.html
oppure
http://thetis.bl.uk/lookup.html
Un’interfaccia più avanzata si trova all’indirizzo:
http://view.byu.edu/
BNC: http://view.byu.edu
Interfaccia avanzata per interrogare il BNC nella sua
completezza (creata da Mark Davies).
Possibilità di ricerca semplici:
word
word1/word2
* word
* word *
w?rd
BNC: http://view.byu.edu
Possibilità di ricerca avanzate:
word.[pos]  permette di limitare la ricerca sulla
base della categoria lessicale (problema: l'etichettatura
per part of speech del corpus non è accurata al 100%)
word*.[pos]
word*.[pos*]
[pos*] word
[pos] * word
...
BNC: http://view.byu.edu
Possibilità di ricerca avanzate:
[aj*] {man/woman/child}  restituisce tutti
gli aggettivi che co-occorrono con man, woman e child
#hits  può essere ampliato fino a un massimo di
1000
surrounding words  restituisce il tasso di
cooccorrenza di una parola con altre parole; utile per lo
studio delle collocations e degli idiomi.
BNC: http://view.byu.edu
Integrazione con Wordnet (lessico dell'inglese con
marcatura delle relazioni semantiche tra parole:
sinonimi, iponimi, iperonimi, meronimi, ecc.):
[=small]  restituisce tutti i sinonimi di small
[=house].[v*]  restituisce tutti i sinonimi di
house (verbo)
[>crawl].[v*] restituisce tutti gli iperonimi di
crawl
BNC: http://view.byu.edu
Integrazione con Wordnet:
[<go]  restituisce tutti gli iponimi di go
[@wheel]  restituisce tutti i termini che hanno wheel
come sottoparte
[&engine]  restituisce tutti i termini che si riferiscono
alle parti di cui si compone un engine
 Per ogni ricerca di tipo semantico è possibile confrontare
la frequenza di sinonimi, iperonimi, iponimi, ecc.
Distinzione per lingua
 Corpora

Monolingui
 di
parlanti nativi
 di apprendenti (CHILDES)

Multilingui
 paralleli
 ECI,
Parole
CHILDES
http://childes.psy.cmu.edu/
Uno dei siti più informativi e utili per lo studio
dell’acquisizione del linguaggio (L1, anche se
esistono tentativi di applicazione alla L2)! Contiene
un database di trascrizioni, del software per la
codifica del linguaggio infantile (CLAN) e un
manuale per la trascrizione (che utilizza il sistema
CHAT).
Corpora paralleli
http://logos.uio.no/opus/
OPUS is a growing multilingual corpus of translated open
source documents available on the Internet. The main
motivation for compiling OPUS is to provide an open source
parallel corpus that uses standard encoding formats including
linguistic annotation. A public collection of parallel corpora
that can freely be used and distributed makes it possible for
everyone to run experiments on bitexts and their results can
easily be compared.
ECI corpus
http://www.elsnet.org/resources/eciCorpus.html
Corpus di lingue europee nato dalla European
Corpus Initiative. Non accessibile, ma può
essere ordinato su CD-Rom a un prezzo
modico.
Polyglot
http://davies-linguistics.byu.edu/polyglot
Corpus parallelo creato da Mark Davies. Contiene il
Vangelo di Luca in molte lingue. Permette ricerche libere,
la ricerca delle espressioni/parole corrispondenti a
un'espressione/parola fissata di una delle versioni del testo.
Permette anche di fissare due espressioni corrispondenti in
due lingue diverse, e di recuperare i contesti in cui le due
espressioni equivalenti sono utilizzate in parallelo.
Altri corpora paralleli: vedi pagina LARL
Distinzione per stati di lingua
 Corpora






sincronici (BNC)
diacronici (Helsinki Corpus, Oxford Text Archive)
monitor corpora
di riferimento
specialistici (MapTask, Michigan Corpus of Academic
Spoken English)
meta-corpora (Web Concordancer:
http://www.edict.com.hk/concordance/)
MapTask
• http://www.hcrc.ed.ac.uk/maptask.html
• Nasce come risposta all’esigenza di avere dati di parlato il più possibile spontanei
• I dati sono raccolti in questo modo: due parlanti siedono uno di fronte all’altro
con due mappe, su una soltanto delle quali è segnato un percorso. Le mappe sono
simili ma non coincidenti; chi ha la mappa con il percorso deve dare istruzioni
all’altro/a relative al percorso.
• Altre variabili prese in esame: familiarità dei parlanti (ogni soggetto viene fatto
interagire con un amico e con uno sconosciuto); eye-contact
• Ne esiste una versione italiana, curata da F. Albano Leoni, scaricabile:
• http://ftp.cirass.unina.it/avip/
• http://ftp.cirass.unina.it/avip/doc_app/
Distinzione per disegno
 Corpora


bilanciati
ad hoc
Distinzione per struttura
 Corpora


non annotati
annotati
 annotazione
limitata alla formattazione (paragrafi,
dimensioni dei caratteri, corsivi, etc.)
 annotazione delle informazioni essenziali (edizione,
autore, genere, etc.)
 annotazione delle parti del discorso, della struttura
sintattica, etc.
Un’altra classificazione
Fonte: A. Lenci, S. Montemagni, V. Pirrelli, Testo e computer,
Roma: Carocci, 2005.
Parametri di classificazione:
1) Generalità: il grado di generalità di un corpus dipende dalla
misura in cui i suoi testi sono stati selezionati in maniera
trasversale rispetto a varietà diverse di una lingua
Corpora di linguaggi specialistici – minima generalità 
national corpora o reference corpora (p.es. BNC, Russian
National Corpus) – massima generalità (ambizione alla
rappresentazione di una lingua in tutte le sue varietà)
Un’altra classificazione
Parametri di classificazione:
2) Modalità: corpora scritti, parlati (produzioni orali presentate
in una qualche forma di trascrizione convenzionale), corpora
audio (o speech databases, contenenti registrazioni audio di
parlato eventualmente accompagnate dalla loro trascrizione –
p.es. C-ORAL-ROM), corpora misti, corpora multimodali
(contenenti registrazioni audio-video di scambi comunicativi,
che consentono di acquisire dati importanti non solo sulla
struttura linguistica, ma anche sugli aspetti gestuali e
ambientali della comunicazione).
Un’altra classificazione
Parametri di classificazione:
3) Cronologia: corpora sincronici e diacronici
4) Lingua: corpora monolingui, bilingui, multilingui (paralleli
e comparabili)
5) Integrità dei testi: testi interi o porzioni di testi
6) Codifica digitale dei testi
7) Estensione, la cui unità di misura è il numero di parole unità
(token)
Scarica

Laboratorio di analisi di dati linguistici