°
Il nome statistica
deriva da Stato e indica una disciplina che si occupa degli elementi che
compongono lo Stato. Nasce infatti nell’antichità come disciplina di
enumerazioni di carattere demografico. Si sviluppa ulteriormente a partire
dal XVIII sec. collegandosi con gli studi sulla probabilità e poi con
studi biometrici e di psicologia sperimentale. °
Usualmente la statistica
“studia i fenomeni collettivi dal punto di vista quantitativo, partendo
da osservazioni semplici, singole e individuali; essa tende a ricavare
attraverso un metodo induttivo una legge di valore più generale valida
per la popolazione (Del Vecchio, 1984)” [A.Tampieri, Introduzione alla statistica
medica e biometria, McGraw-Hill, 1996]. Dall’impostazione induttiva
classica (Gauss, Galton, Pearson, Gosset, Fisher, Neyman), la quale,
partendo dai dati osservazionali, ricerca la massima
verosimiglianza, si passa alla sostituzione (operata
dall’epistemologo Popper, 1970, ma già in Fisher) del principio della
verificazione con quello della falsificazione;
dall’impostazione del reverendo Bayes (XVIII sec.), che sostiene
l’importanza dell’informazione a
priori e della soggettività
nella costruzione di ipotesi da sottoporre a verifica mediante le
osservazioni, si passa alle teorie (Waldt, 1959) che puntano su tecniche
utili a prendere decisioni in situazioni di incertezza. °
La statistica è strumento
d’indagine, cioè di approfondimento e comprensione di fenomeni che
si presentano all’osservazione. In tal senso, essa non può essere
svincolata da un rigoroso ragionamento
sui fenomeni e anche dall’intuizione,
in modo che si possa partire sempre dalla formulazione
di ipotesi di lavoro ben costruite ed argomentate. Meno si cerca e
meno si trova, ma si trova poco se si cerca a casaccio. In ogni
caso l’ipotesi di
lavoro deve essere saldamente ancorata agli scopi dell’indagine e alla
natura del fenomeno da indagare. Va poi sottolineato come ogni indagine
abbia sempre dei costi da affrontare, costi che vanno valutati preliminarmente in relazione
ai benefici attesi. Ogni specifico strumento statistico presuppone infatti
condizioni
di applicazione più o meno rigorose, conoscenze di base, risorse da
attivare, tempi di applicazione, e altre forme di ‘consumo di
energia’, che vanno attentamente commisurate con quanto si vuole
ottenere:
non si può pretendere di percorrere a piedi grandi distanze e magari in
poco tempo, ma, parimenti, può non avere alcun senso affrontare un
viaggio oneroso in luoghi lontani quando si può ottenere qualcosa di
altrettanto valido in luoghi ben più vicini. Restando in tale ottica, va
ricordato che, a risultati ottenuti, si dovrà di essi valutare appieno l’accettabilità,
non solo nel senso di una compatibilità con il complesso delle
informazioni a disposizione sull’evento indagato, ma anche in quello
della loro affidabilità (che non sarà mai, per definizione, del 100%) e
della loro portata (in termini di conseguenze concrete che ci si può attendere
dall’assunzione di una determinata conclusione). °
La statistica è strumento che richiede di essere padroneggiato
tecnicamente ed essendo essa disciplina basata sulla misura
e sul calcolo le necessità di
approfondimento di conoscenze
matematiche in senso lato crescono col crescere della complessità dei
problemi che si vogliono affrontare; in tal senso, è necessario acquisire
dimestichezza, sotto il profilo sia concettuale che pratico, con strumenti di
calcolo vieppiù sofisticati, dalle numerose e variegate formule e tabelle
che usualmente popolano la specifica bibliografia alle funzioni delle
calcolatrici da tavolo e al software
disponibile per computer. Ciò
non toglie che esistano traguardi relativamente poco ambiziosi che possono
essere raggiunti con strumenti oggi relativamente poco difficili da usare
e, soprattutto, che si possano raggiungere risultati di qualità ed entità
apprezzabili applicando un metodo rigoroso, ancorché fondato sulla
probabilità, poiché “un’opera scientifica rappresenta un prodotto in
cui il contenuto è quasi nullo, mentre la metodologia è quasi tutto”
[Siegel-Castellan]. Si può forse anche dire che “nella scienza non
esiste il ‘facile’ e il ‘difficile’: ma solo contenuti e concetti
che, se esposti in modo graduale, progressivo, e comprensibile, possono
essere compresi da tutti. E soprattutto ‘utilizzati’ da tutti”
[Siegel-Castellan]. Si richiede, in ogni caso, di superare preliminarmente
tutte quelle difficoltà che possono essere legate a differenze o ambiguità
terminologiche. ° La statistica ha sviluppato, pur su basi comuni, tecniche operative molto differenti, appropriate a specifiche discipline, ma talora reciprocamente mutuate (demografia, genetica, psicologia sperimentale, biologia, medicina umana e veterinaria, tossicologia, scienze economiche, ecc.). In tal senso, un esempio interessante è fornito dall’esistenza, accanto ad una statistica cosiddetta “parametrica”, rigorosa ed ‘elegante’ sotto il profilo della sua unitaria articolazione teorica ma valida solo in presenza di certi presupposti sul modello distributivo dei dati, di una statistica “non parametrica”, in realtà un complesso di tecniche svincolate da assunti sul modello distributivo, aventi portata meno ‘generale’ perché costruite in modo specifico per raggiungere obiettivi specifici, ma non per questo meno ‘affidabili’ di quelle parametriche; saranno le condizioni operative a orientare la scelta verso un tipo di tecnica o l’altra, poiché esisteranno sempre, da un lato, delle condizioni di validità da rispettare e, dall’altro, dei costi per garantire tali condizioni (per es., con alcuni tipi di dati la statistica ‘parametrica’ è tout court inapplicabile). Accanto a una statistica per così dire ‘di base’, nella quale trovano spazio le tecniche descrittive e inferenziali più semplici, esistono, poi, trattazioni statistiche un po' più 'avanzate’ commisurate al numero e alla complessità delle relazioni tra i fenomeni da indagare; circa quest’ultimo ambito, cui appartengono lo studio delle serie temporali e l’analisi multivariata con i suoi vari modelli, vale la pena rilevare come ancora una volta risulti finalità precipua di qualsiasi procedimento tecnico-statistico quella di ridurre la complessità al minimo necessario per descrivere, analizzare e comprendere i fenomeni senza al contempo perdere, a causa della ‘semplificazione’, informazione essenziale.
Vai
a >>> |
|