Chemistry and businnes
OMEOPATIA E MEMORIA DELL’ACQUA:
ALLA SCOPERTA DI UNA TERAPEUTICA TRA
STORIA, SVILUPPO, APPLICAZIONE E RICERCA
Nicolò Tamà IV N
Anno 2012/2013
Liceo Lugano 1
Nicolò Tamà
IV N
LAM 2012/2013
Lavoro di maturità “Chemistry and business”, docente responsabile Professor P. A. Morini, liceo
Lugano 1.
OMEOPATIA E MEMORIA DELL’ACQUA:
ALLA SCOPERTA DI UNA TERAPEUTICA TRA
STORIA, SVILUPPO, APPLICAZIONE E RICERCA
Abstract
Il mio lavoro di ricerca si sviluppa su due diversi binari, il cui fine è il medesimo, ovvero descrivere
nel modo più completo possibile la pratica terapeutica omeopatica. Inizialmente mi sono
concentrato sull’evoluzione storica di questa terapeutica attraverso lo studio dei principi basilari su
cui essa si fonda, quali il principio di similitudine, il concetto di dosi infinitesimali e la visione
olistica di individuo da cui scaturisce la concezione di malattia e cura. I principi della metodologia
mi hanno poi condotto allo studio di un rimedio omeopatico, dunque alla sua preparazione,
sperimentazione e prescrizione condotte secondo norme e tradizione. L’approccio teorico è infine
terminato con la descrizione dei più recenti studi scientifici intenzionati a rispondere ai quesiti
riguardanti il funzionamento dell’omeopatia, i cui risultati hanno introdotto il concetto di memoria
dell’acqua.
Parallelamente ho svolto il lavoro di ricerca sperimentale, il cui scopo era l’ottenimento di una
prova o controprova dell’efficacia dei rimedi omeopatici. Usufruendo degli strumenti forniti
dall’istituto scolastico, quali uno spettrofotometro FTIR e un voltametro, ho analizzato la presenza
di principio attivo all’interno del rimedio Ferrum Phosphoricum 5 CH. I risultati ottenuti tramite
l’analisi spettrofotometrica hanno confermato che il rimedio contiene minime tracce di principio
attivo; la polarografia non ne ha invece rilevato la presenza.
Nicolò Tamà
IV N
LAM 2012/2013
Indice:
Parte teorica
1
1
Introduzione
1
2
Storia dell’omeopatia
2
3
Principi della metodologia
4
4
5
3.1
Legge di similitudine
4
3.2
Diluizioni e dinamizzazione
4
3.3
Energia vitale
8
3.4
Le costituzioni
9
3.5
Diatesi e miasmi
Cura del malato
12
14
4.1
L’anamnesi
14
4.2
Preparazione, sperimentazione e prescrizione del rimedio omeopatico
15
4.3
Cura e Effetto Placebo
19
Studi scientifici e Memoria dell’acqua
22
5.1
Jacques Benveniste
22
5.2
Luc Montagnier
23
Parte sperimentale
27
1
Introduzione
27
2
Preparazione dei campioni
28
3
4
5
2.1
Bidistillazione di acqua deionizzata
28
2.2
Selezione del rimedio omeopatico da analizzare
29
Analisi di voltammetria e polarografia
30
3.1
Funzionamento dello strumento e descrizione della tecnica
30
3.2
Procedimento, risultati e conclusioni
36
Analisi di spettrofotometria IR
40
4.1
Funzionamento dello strumento e descrizione della tecnica
40
4.2
Procedimento, risultati e conclusioni
42
Conclusioni
45
Conclusioni generali
46
Ringraziamenti
47
Bibliografia e Webliografia
48
Nicolò Tamà
IV N
LAM 2012/2013
Parte teorica
1
Introduzione
L’omeopatia, da sempre oggetto di discussione tra sostenitori e oppositori, è ancora al giorno d’oggi
un argomento in grado di suscitare notevole interesse nella gente comune, ovvero i consumatori, e
tra gli esperti del settore, in quanto avvolto da dubbi e domande prive di risposta. Da molti
considerata pratica pseudoscientifica, da altri comunemente utilizzata sotto prescrizione medica,
l’omeopatia dei giorni nostri è ancora incerta del suo futuro. Il mio interesse si focalizza dunque su
questa branca della medicina alternativa per porre rimedio ad una certa confusione dovuta alla
moltitudine di opinioni circolanti e per ottenere alcune prove o controprove della sua effettiva
efficacia come medicamento.
Il termine “omeopatia”, dal greco homos – simile e pathos – malattia, vede le sue origini nell’Antica
Grecia grazie al medico Ippocrate (460-377 a.C.) e ricompare nell’Epoca Moderna attraverso il
medico svizzero Paracelso (1493-1541); esso prende però le sembianze che noi oggi conosciamo
solo a partire dal XIX secolo, quando il medico tedesco Samuel Hahnemann (1755-1843)
rivoluziona e propone al mondo questa pratica attraverso articoli e libri. Dopo due secoli in cui
l’omeopatia viene utilizzata in parallelo alla medicina tradizionale, acquisendo una notevole valenza
pratica, senza però mai rivelare le regioni del suo funzionamento, si giunge agli anni ’80 del XX
secolo, periodo in cui il medico e immunologo Jacques Benveniste avvia il primo studio scientifico
interessato a giustificare il funzionamento di questa pratica. Attraverso il suo lavoro, tuttavia
talvolta oscurato da ambigui retroscena, egli individua il concetto di “memoria dell’acqua” come
possibile base scientifica dell’omeopatia. La sua cattiva fama lo porta però a venire ignorato e
screditato dalla comunità scientifica. Solo a partire dal nuovo millennio, grazie al lavoro di alcuni
tra i massimi esponenti di fisica, chimica e biologia, si ottengono le prime prove concrete in grado
di spiegare il funzionamento di medicamenti omeopatici. Il principale contributo è stato dato dal
virologo francese Luc Montagnier, i cui esperimenti sulla memoria dell’acqua, che sviluppano il
lavoro di Benveniste, non sono stati ancora confutati. La storia dell’omeopatia copre dunque un
ruolo fondamentale nella comprensione del suo significato, per cui approfondirò alcuni suoi aspetti
a partire dal capitolo seguente (“Storia dell’omeopatia”).
Come si comprende dai più recenti cenni storici, non solo l’omeopatia è al centro del mio interesse;
vi è infatti anche un’altra componente strettamente connessa al suo funzionamento il cui ruolo nella
vita sta venendo negli ultimi anni sempre più ridiscusso: l’acqua. Alcuni esponenti della comunità
scientifica si sono resi conto che le nostre conoscenze nei riguardi di questa sostanza sono limitate e
non sono in grado di spiegare una serie di avvenimenti che comportano la sua presenza; uno di
questi è infatti il funzionamento della cura attraverso prodotti omeopatici. L’acqua, trovandosi al
centro della questione, diventa la componente da analizzare: a partire dal già citato lavoro di
Benveniste e proseguendo con gli studi bio-fisici di Montagnier e di altri laboratori sono state
osservate nuove ed interessanti proprietà di questa sostanza (capitolo “Studi scientifici e memoria
dell’acqua”). La figura dell’acqua sta assumendo una sempre più complessa ed affascinante
articolazione; una rivalutazione del suo ruolo nella vita potrebbe addirittura portare ad una revisione
delle nostre conoscenze biologiche.
Dall’evolvere dell’omeopatia nella storia si trae spunto, inoltre, per descrivere tutti quei principi
metodologici che stanno alla base della sua applicazione contemporanea, applicazione che non
riesce a convincere su tutti i fronti: da un lato osserviamo un suo diffusissimo impiego dovuto alla
notevole percentuale di funzionamento, ai bassi costi di produzione e distribuzione e al basso tasso
di effetti collaterali; d’altro canto viene imputato ai produttori di farmaci omeopatici il fatto che,
dopo le numerose diluizioni a cui è sottoposto il principio attivo, nel rimedio è presente solo
eccipiente e che nel paziente in cura prevalga il cosiddetto “effetto placebo” (capitoli “Principi della
metodologia” e “Cura del malato”).
1
Nicolò Tamà
2
IV N
LAM 2012/2013
Storia dell’omeopatia
Il personaggio a cui viene attribuita la nascita dell’omeopatia è il medico germanico Samuel
Hahnemann, nato a Massen nel 1755 e deceduto a Parigi nel 1843; per descrivere questo fenomeno
bisogna tuttavia iniziare dal lavoro condotto dal medico greco Ippocrate (460-377 a.C.), considerato
da molti padre della medicina, da cui Hahnemann trae notevole ispirazione. Nell’Antica Grecia era
comunemente diffusa l’idea che la causa dei malanni fosse di natura sopranaturale; perciò si
ricercava la cura di queste disfunzioni nella preghiera e nei sacrifici alle divinità. Con l’avvenire dei
filosofi sorsero anche le prime teorie scientifiche in campo medico: secondo una di esse bisognava
somministrare al malato un rimedio che scatenasse nel corpo una reazione contraria a quella della
malattia; da ciò essa prende il nome di “dottrina dei contrari”. Ippocrate fu grande sostenitore di
questa dottrina, ma ne proponeva un’ulteriore diametralmente opposta; essa consisteva nel curare il
paziente attraverso un rimedio in grado di provocare dei sintomi simili a quelli riscontrati su una
persona malata. Con Ippocrate la medicina si trasforma nella cura di una malattia causata da agenti
naturali basandosi su una diagnosi dei sintomi specifici nel malato.
Nel corso del periodo romano la teoria di Ippocrate non venne tenuta in considerazione in quanto
ritenuta meno convincente della “dottrina dei contrari”, in questo modo si diffuse il salasso, metodo
curativo risalente alla Grecia Antica che consisteva nella rimozione di notevoli quantità di sangue
dal malato; esso era utilizzato per curare gran parte delle malattie conosciute all’epoca. Con la
caduta dell’Impero Romano e l’avvento delle invasioni barbariche, la medicina non ebbe ulteriori
sviluppi e riprese la sua evoluzione solo a partire dal XVI secolo. Nel corso del Medioevo erano
infatti risorte le teorie secondo le quali le cause delle malattie fossero legate a qualcosa di mistico;
soltanto grazie all’intervento del medico svizzero Paracelso (1493-1541), dunque con l’avvenire del
Rinascimento e della ricerca del sapere nell’antichità, si ripercorsero gli studi di Ippocrate e venne
reintrodotta la medicina dei simili. Paracelso diffuse anche un’ulteriore concetto in futuro
fondamentale per Hahnemann, ossia la somministrazione del rimedio in piccole dosi: a suo modo di
vedere la prescrizione in piccole dosi di una sostanza nociva all’organismo è in grado di curare i
sintomi che aveva provocato tenendo conto della capacità di auto-guarigione del corpo.
I tre secoli a seguire videro due sviluppi paradossalmente opposti: nonostante i notevoli progressi
medici avvenuti tra XVI e XIX (i medici optarono per la “dottrina dei contrari” e continuarono ad
ignorare l’omeopatia), le terribili condizioni igieniche provocarono un grave peggioramento delle
condizioni salutari della popolazione, a cui furono nuovamente applicate salassi e purghe come
potenziali rimedi.
In questo contesto sorse dunque l’omeopatia, teoria trasformata da Samuel Hahnemann in vera e
propria dottrina e in stile di vita in grado di modificare permanentemente le condizioni di vita
dell’epoca. Fu proprio Hahnemann a introdurre l’importanza dell’igiene, di una corretta
alimentazione e dell’esercizio fisico alla base di una vita sana ed equilibrata, proponendo dunque
l’idea di prevenzione in partenza e di cura in seguito. Egli si schierava apertamente anche contro le
allora attuali metodiche terapeutiche e le modalità con cui le malattie venivano curate, essendo
sicuro dell’inefficacia della cura dei pazienti attraverso i metodi della medicina tradizionale, che
egli chiamava allopatia. Ciò lo portò dopo anni di pratica della sua attività ad allontanarsi dal sapere
ufficiale ed in seguito ad abbandonare tale professione per dedicarsi alla traduzione di testi
scientifici; egli era infatti conoscitore di varie lingue.
Fu proprio a partire dalla traduzione di un testo del inglese William Cullen intitolato “Materia
Medica”, che il suo lavoro da omeopata ebbe inizio. Alla voce Cortex Peruvianis (Corteccia di
China) Hahnemann fu incuriosito dal fatto che gli operai costretti a lavorare la corteccia di china
manifestavano alcuni sintomi, tra i quali febbri periodiche, che erano propri della malaria; ciò gli
risultò immediatamente insolito, in quanto la corteccia di china era utilizzata comunemente come
rimedio contro la malaria. Secondo Cullen ciò era dovuto al suo “effetto tonico sullo stomaco”;
Hahnemann rifiutò questa idea, in quanto sostanze molto più astringenti del chinino non curavano la
febbre. La sua intuizione fu di associare la relazione tra i diversi effetti della sostanza con la legge
2
Nicolò Tamà
IV N
LAM 2012/2013
dei simili: la somministrazione in dosi minime di quella sostanza che in dosi tossiche avrebbe
causato la malattia, sarebbe stata in grado di curare la malattia stessa. Da ciò nascono le prime basi
della sua teoria scientifica, che necessitava ancora della conferma della pratica; decise dunque di
avviare la sperimentazione dell’effetto del chinino su sé stesso, nonostante godesse di un ottimo
stato di salute. Assunse due dracme (dodici grammi) di china due volte al giorno per cinque giorni e
annotò scrupolosamente tutti gli effetti riscontrati. Gli effetti che si manifestavano, nonostante la
durata di alcune ore, erano i medesimi causati dalla malaria, ossia febbri intermittenti, mani e piedi
freddi, stanchezza e sonnolenza, ansia, tremore, prostrazione, mal di testa pulsante, arrossamento
delle guance e sete.
La tappa seguente era la sperimentazione su pazienti sani, dunque la comparazione degli effetti tra
diversi individui, in seguito definito proving omeopatico; ciò fu una importante intuizione di
Hahnemann, in quanto permise di descrivere i sintomi d’ordine psicologico, generale e fisico che un
rimedio produce su di un gruppo di volontari esenti da patologie. La medicina ufficiale dei tempi (e
dei giorni nostri) prevedeva invece la sperimentazione dei farmaci su cavie di laboratorio di diverse
specie. Siccome il metabolismo di questi animali è troppo diverso da quello umano, risulta un
rischio passare alla sperimentazione animale, per cui Hahnemann abbandonò definitivamente questa
pratica per iniziare la sperimentazione su umani sani.
Egli reclutò dunque un gruppo di volontari, tra cui amici, famigliari e allievi, a cui somministrò
alcuni farmaci da lui preparati. Hahnemann decise di ridurre sempre più le dosi di sostanza curante
per evitare gli effetti collaterali delle componenti tossiche; proseguendo con la sua lunga serie di
analisi, egli si accorse però che l’effetto del farmaco variava se “dinamizzato” ad ogni diluizioni,
riuscì dunque a formulare una tesi, ossia il “Principio delle diluizioni infinitesimali”. Secondo
Hahnemann, ad ogni diluizione bisogna accostare una “Dinamizzazione”, ossia una serie di scosse
energiche della soluzione, per così potenziare la sua azione terapeutica.
La serie di risultati ottenuti lo portarono a pubblicare nel 1796 i suoi due primi pilastri teorici,
ovvero la legge dei simili e il principio delle diluizioni infinitesimali, che dalle sue analisi uscivano
infatti rinforzati.
Nel suo primo testo, intitolato “Saggio su un primo principio per dimostrare il valore curativo delle
sostanze medicinali”, si può dunque individuare, oltre a questi due primi fondamenti della sua
dottrina, l’importante concetto, secondo cui solo osservando l'azione dei farmaci sull’organismo è
possibile usarli in maniera razionale e che tale metodo è l'unico modo di osservare direttamente le
azioni specifiche dei rimedi.
Dal 1800 si susseguirono anni di duri attacchi da parte dell’allopatia e Hahnemann dovette
difendere la propria reputazione in svariate occasioni fino alla pubblicazione nel 1810 della prima
edizione dell’Organon. In questo periodo proseguirono ad ogni modo i provings su pazienti sani e
iniziò la sperimentazione su pazienti malati, che permetterà il confronto dell’efficacia di farmaci
simili. Nelle sei edizioni dell’Organon, le prime cinque pubblicate tra 1810 e 1833 e la sesta solo
dopo la morte di Hahnemann, è presente nella sua completezza la dottrina omeopatica, dunque le
basi di una filosofia medica in grado di fornire i mezzi della guarigione di un malato, anziché della
cura di una malattia.
Cominciando con l’importanza dell’osservazione dei fenomeni della natura, Hahnemann giunge per
la prima volta nella storia alla standardizzazione della produzione di un farmaco. In esso si possono
anche trovare la catalogazione delle malattie descritte insieme alla lunga serie di rimedi
sperimentati da Hahnemann e alcuni suggerimenti su come deve essere condotto l’esame del
malato: questi riguardano l’empatia verso il paziente, l’osservazione, la registrazione dei dati e il
trattamento terapeutico. In esso Hahnemann espone infine concetti d’igiene e prevenzione e
conclude con una severa critica alla medicina tradizionale e ai sistemi medici contemporanei come
risposta agli attacchi compiuti alla sua dottrina nel corso delle sue ricerche.
Nonostante l’impossibilità di provare le sue teorie a causa della mancanza di adeguate conoscenze
scientifiche, il lavoro di Hahnemann viene sempre ritenuto di notevole successo, in quanto i risultati
ottenuti nei suoi test e nella cura effettiva di suoi pazienti fu nella maggior parte dei casi positiva.
3
Nicolò Tamà
3
3.1
IV N
LAM 2012/2013
Principi della metodologia
Legge di similitudine
Il primo e più antico principio dell’omeopatia consiste nella legge di similitudine. Come descritto
nelle parte storica, essa nacque nell’Antica Grecia e, solo grazie alla sua sopravvivenza nel corso di
oltre duemila anni, poté infine giungere nelle mani di Hahnemann, il quale la inserì per la prima
volta in un contesto più esteso, ossia l’omeopatia. Da essa prende anche forma il motto di
Hahnemann “similia similibus curantur” (letteralmente “I simili si curino con i simili”) risalente
all’epoca di Ippocrate (460-377 a.C.), che si contrappone a “contraria contrariis curantur” (dal latino
“curino i contrari con i contrari”), che sta invece alla base di quell’altra branca della medicina, da
Hahnemann denominata allopatia, sviluppatasi in parallelo con l’omeopatia sempre a partire dal
lavoro di Ippocrate.
Nelle mani del medico germanico la legge dei simili si trasforma per assumere dei contorni più
scientifici: esprime dunque il concetto che per curare una malattia il medico deve utilizzare una
medicina che sia in grado di produrre una malattia artificiale ad essa molto simile, che si sostituisce
ad essa per poi scomparire.
Questo principio, insieme ad una lunga lista di esempi è presente in particolare nella più importante
pubblicazione di Hahnemann, ovvero l’Organon; in esso si comprende come essa, oltre ad essere
una legge fondamentale dell’omeopatia, sia una legge generale di natura che governa le affezioni,
cioè le alterazioni dinamiche della forza vitale, causa invisibile da cui risultano effetti visibili. La
malattia è secondo Hahnemann affezione di natura dinamica, immateriale; come anche la paura, il
dolore e l’eccesiva gioia. Tutte le affezioni dinamiche sono regolate dal principio di similitudine.
In un estratto (il ventisettesimo paragrafo) di questo volume si possono intravvedere questi concetti:
“Il potere di guarigione delle medicine si basa quindi sui loro sintomi, di forza superiore
simili a quelli della malattia, cosicché ogni singolo caso di malattia viene rimosso e
distrutto nel modo più sicuro, più radicale, più rapido e più duraturo soltanto da un
medicamento che sia capace di produrre nell’organismo umano la totalità dei sintomi nel
modo più simile e più completo e nel medesimo tempo superi in forza la malattia.”
3.2
Diluizioni e dinamizzazione
La legge dei simili si situa alla base di questo principio, in quanto pose ad Hahnemann due
domande cruciali per l’elaborazione della sua teoria omeopatica: come era possibile che un farmaco
in grado di provocare nel paziente un reazione simile a quella causata della malattia non ne
aumentasse l’effetto e come somministrare rimedi omeopatici contenenti dei veleni.
La soluzione al problema si presentò durante le sue prime sperimentazioni di farmaci su se stesso.
Egli notò infatti che somministrando dosi più tenui di preparato omeopatico riusciva a eliminare gli
effetti nocivi del veleno e a rendere più efficace l’azione del rimedio, che infatti aumentava
progressivamente con il diminuire della concentrazione; a questo punto l’ostacolo da oltrepassare
era il modo per ottenere dosi ridotte.
All’inizio del XVIII secolo la scienza non aveva ancora in dotazione strumenti adeguatamente
sensibili da quantificare un grammo di sostanza, per cui Hahnemann dovette adottare un’altra
tattica, ossia diluire il principio attivo in un acqua o alcool, ripetendo l’operazione a seconda della
concentrazione ricercata.
Il primo metodo di diluizione che andrò ad analizzare é per l'appunto quello ideato da Hahnemann,
perciò denominato hahnemanniano; tuttavia furono creati altri metodi di diluizione, come spiegherò
in seguito.
4
Nicolò Tamà
IV N
LAM 2012/2013
Hahnemann iniziava dalla tintura madre, ossia quella miscela di sostanze d’origine vegetale,
animale o minerale diluite in soluzione alcolica che racchiudevano il principio attivo.
Le tecniche di diluizione da lui create furono: • Centesimali (x C, x CH)
• Decimali (x D, x DH)
• Cinquantesimali (LM)
Per i primi due tipi di diluizione si utilizza una soluzione idroalcolica, chiamata tintura madre, la cui
preparazione verrà poi descritta in seguito (capitolo 4.2). Per la preparazioni di soluzioni
centesimali, é necessario predisporre una serie di flaconi di vetro e di tappi inerti in quantità
corrispondente al grado di diluizione desiderato. Nel primo flacone si introducono 99 parti, in
volume, (oppure gocce) di solvente e una parte, in massa, di tintura madre. La diluizione così
ottenuta é la prima centesimale (1 CH). Per ottenere la seconda diluizione centesimale (2 CH) é
necessario aggiungere, in un secondo flacone, una parte della diluizione 1 CH alle previste 99 parti
di veicolo. Per raggiungere il grado di diluizione voluto, é necessario operare allo stesso modo,
tante volte quanto é la diluizione richiesta. Se il rimedio consiste in globuli o granuli (in seguito
descritti), si impregna l’eccipiente, solitamente lattosio o saccarosio, con la tintura madre
opportunamente diluita. Il fatto che il lattosio costituisca l’eccipiente può causare un problema se
non indicato nel libretto informativo del farmaco, in quanto l’intolleranza a questa sostanza è
abbastanza diffusa nella popolazione.
Per le diluizioni decimali, si esegue nella stessa maniera, ma secondo la serie decimale; per ottenere
dunque un preparato 2 DH bisogna diluire una parte di principio attivo in 9 parti di solvente, per poi
diluire una parte di primo preparato decimale in 9 parti di veicolo.
Secondo la chimica delle soluzioni, la concentrazione di una soluzione 1 CH equivale a quella di
una soluzione 2 DH; l’omeopatia ritiene invece che esse agiscano diversamente sul paziente, in
quanto sono state sottoposte ad una differente dinamizzazione. Hahnemann ideò infatti di
accompagnare ogni diluizione con delle energiche scosse, sempre in direzione verticale, di modo da
“frantumare” la goccia di principio attivo per rendere il rimedio il più omogeneo possibile. In
questo modo anche soluzioni che contengono una quantità di principio attivo non quantificabile (ad
esempio un preparato 200 CH) sono in teoria sufficientemente “amalgamate” (omogenee) da
mantenere l’effetto terapeutico. Si comprende ora il motivo della differenza tra soluzioni 1 CH e 2
DH, ossia la diversa dinamizzazione dei due preparati.
Diluizione
1/10
1/100
1/1000
1/10000
1/100000
1/1000000
1/1060
1/10400
Concentrazione (g/mL)
10-1
10-2
10-3
10-4
10-5
10-6
10-60
10-400
Decimali
1 DH
2 DH
3 DH
4 DH
5 DH
6 DH
(60 DH)
(400 DH)
Centesimali
1 CH
2 CH
3 CH
30 CH
200 CH
1
1
Immagine tratta dal sito: <<http://rimediomeopatici.com/approfondimenti/rimedi-omeopatici-origine/>>
5
Nicolò Tamà
IV N
LAM 2012/2013
Tra le diluizioni hahnemanniane va citato anche il metodo delle diluizioni cinquantesimali (LM
oppure 50M), descritto per la prima volta da Hahnemann nella VI edizione dell'Organon, pubblicata
nel 1921.
Schematicamente la diluizione si può rappresentare suddivisa in varie fasi: innanzitutto si procede a
tre triturazioni centesimali successive, normalmente in lattosio, utilizzando come prodotto di
partenza 1 parte di ceppo solido o liquido. Si prelevano 0,05 g di questa triturazione centesimale,
3CH, che vengono sciolti in 500 gocce di una soluzione idroalcolica, preparata con una parte di
alcool 90% e quattro parti di acqua; si preleva una goccia di questa soluzione e la si versa in un
flacone contenente 100 gocce di alcool al 95%, si agita almeno 100 volte, ottenendo così la prima
diluizione 50 millesimale 1 LM.
Una goccia di questa diluizione viene usata per impregnare 500 globuli che rappresentano il punto
di partenza per le successive diluizioni. Per ottenere la seconda diluizione 50millesimale, si preleva
un globulo che viene introdotto in un flacone con 100 gocce di alcool al 95% V/V, agitando ancora
per 100 volte; tale operazione si può ripetere fino alla diluizione desiderata, anche se Hahnemann ha
utilizzato tali diluizioni non oltre la 30 cinquanta millesimale (30/LM o 30/50M).
Il nome 50 millimesimale, deriva proprio dalle due fasi precedentemente descritte: la prima con un
rapporto di diluizione di 1 a 500 e la seconda con un ulteriore rapporto di 1 a 100, pari a
1/500 x 1/100 = 1/50000.
2
Questa tecnica di diluizione non influenzò mai la pratica dei medici omeopati, nonostante la sua
efficacia nella cura di malattie croniche descritta da Hahnemann, in quanto in seguito alla sua
tardiva pubblicazione nel 1921 risultò più complicata delle pratiche allora in uso. Egli considerava
2
Immagine tratta dal sito: <http://www.farmacialamarmora.it/omeopatia1.htm>
6
Nicolò Tamà
IV N
LAM 2012/2013
queste diluizioni particolarmente attive nelle forme croniche, mentre riservava le centesimali per le
forme acute e transitorie.
Un altro metodo per preparare le diluizioni omeopatiche è quello del flacone unico di Korsakoff. Il
Conte Simeon Nicolaievitch Korsakoff (1788-1853) era un medico russo contemporaneo di
Hahnemann. Egli ebbe nel 1829, ovvero 14 anni prima della morte di Hahnemann, l’idea di
utilizzare un solo flacone per preparare tutte le diluizioni. In questo modo il problema di dover
sempre utilizzare vetreria inerte era risolto. Il suo metodo è semplice: si versano 5 mL di tintura
madre in un flacone di vetro capiente 15 mL, si agita 100 volte e si svuota il contenitore fino
all’ultima goccia. Si riempie il recipiente con 5 mL di acqua distillata, ossia circa 99 volte il volume
del residuo di tintura madre sulle pareti del contenitore e si dinamizza nuovamente; si ottiene così
una soluzione con la prima diluizione korsakoviana (1 K). Per produrre la seconda diluizione
korsakoviana bisogna nuovamente svuotare il flacone, riempirlo con acqua distillata e dinamizzare.
A seconda della diluizione korsakoviana che si necessita ripetere l’operazione nuovamente. Il limite
del metodo Korsakoviano è rappresentato dall’approssimazione con cui vengono condotte le
diluizioni, visto l'utilizzo di un unico contenitore, insieme alla soggettività marcata delle operazioni
e alla impossibilità di comparare le preparazioni ottenute con quelle realizzate con il metodo di
Hahnemannn considerando l'utilizzo di solventi diversi. Questa tecnica di diluizioni non viene
perciò accettata da numerose Farmacopee Ufficiali (descritte nella sezione “Tipi di rimedio e
somministrazione”).
Nonostante le diversità tra le tre tipologie di diluizioni, è possibile la composizione di una tabella
che le ponga a confronto matematicamente, senza dunque tenere conto delle varie dinamizzazioni:
decimali
2 DH
4 DH
6 DH
10 DH
14 DH
18 DH
24 DH
60 DH
146 H
centesimali
1 CH
2 CH
3 CH
5 CH
7 CH
9 CH
12 CH
30 CH
73 CH
korsakoviane
cinquantesimali
6K
30 K
200 K
1000 K
1/LM
4/LM
12/LM
30/LM
Assenza di principio attivo
Non tenendo conto delle dinamizzazioni, questa tabella non ha un vero e proprio valore medico; i
calcoli matematici permettono però di capire da quale diluizione non è più presente sostanza
all’interno, cioè da quale diluizione si ha superato la costante di Avogadro.
Costante di Avogadro:
NA = 6,02.1023 e.e./1 mol e.e.
La costante di Avogadro, così denominata in onore del chimico Amedeo Avogadro, equivale al
numero di entità elementari contenute in una mole di entità elementare. Si può dire, accostando il
livello concettuale molecolare a quello di sostanza, che una mole di tintura madre (considerandola
come una sostanza pura, che in realtà non é) contiene tutte le molecole previste da Avogadro e per
approssimazione che ne contiene 1023. La diluizione 1 CH contiene 1/100 di tintura madre, quindi
1023. 10-2 = 1021 molecole (e.e.)
7
Nicolò Tamà
IV N
LAM 2012/2013
La diluizione 2 CH contiene invece 1/10000 della soluzione di tintura madre, per cui un quantitativo
di molecole per mole pari a 1019. Proseguendo con i calcoli si osserva che la diluizione 11 CH
dovrebbe contenere 10 molecole per ogni mole, di conseguenza a partire dalla diluizione 12 CH non
dovrebbe esservi più principio attivo disciolto nella soluzione.
La dissoluzione di quantità così ridotte di sostanza è possibile solo grazie ai metodi
precedentemente citati, in cui non si discioglie direttamente il quantitativo di principio attivo per
ottenere la concentrazione ricercata, ma si sfruttano delle continue diluizioni. Al giorno d’oggi le
bilance analitiche più performanti raggiungono una sensibilità di 10-6g (1 microgrammo [µg]); per
cui se volessimo solubilizzare la minor massa possibile di principio attivo dovremmo ricorrere ad 1
µg. In questo caso, solubilizzando 1 µg in 1 mL di solvente, otterremmo al massimo una
concentrazione pari a 10-6 g/mL, corrispondente ad un grado CH 3 nella scala omeopatica.
I vantaggi delle metodiche hahnemanniane si possono essenzialmente ricondurre all'alta velocità di
esecuzione, che consente di ottenere potenze più alte delle altre tecniche, con una maggior
precisione e con pochissimo consumo di materiali e solventi. I limiti si possono individuare nella
scarsa precisione delle diluizioni dei materiali di partenza, che rende difficile ogni rapporto con
deconcentrazioni ottenute diversamente e impossibile ogni scala di corrispondenza.
3.3
Energia vitale
L’Omeopatia fa parte delle cosiddette “Medicine energetiche”, ovvero di quelle discipline
terapeutiche che si basano sulla “Forza od Energia Vitale”. Questo concetto viene già ipotizzato da
Ippocrate, che parlava di Physis, da Paracelso, che descriveva l’Archeo, ed infine da Hahnemann,
che lo definiva Dynami.
È opportuno precisare sin dal principio che il concetto qui citato di “Forza o Energia Vitale” non si
riferisce in alcun caso alle grandezze fisiche utilizzate in meccanica e in termodinamica.
Nei paragrafi 63 e 64 dell’Organon, Hahnemann spiega come l’effetto terapeutico e medicamentoso
dei rimedi omeopatici, ottenuti attraverso i vari passaggi di diluizione e dinamizzazione ed
adeguatamente usati secondo la individualizzazione del caso, sia capace di ripristinare un assetto
energetico ottimale in un organismo malato.
Nel dodicesimo paragrafo dell’Organon si può leggere:
“Unica la Forza Vitale morbosamente perturbata provoca la malattia, in modo che le
manifestazioni di malattia percettibili dai nostri sensi, come pure tutte le alterazioni
interne, esprimono la perturbazione totale morbosa del principio dinamico e
rappresentano tutta la malattia.”
Dall’estratto si comprende come la malattia non sia altro che un indebolimento della “Forza Vitale”
e come essa faccia parte di un equilibrio all’interno della “Forza Vitale” stessa. Dal momento che
l’“Energia Vitale” inizia ad esaurirsi, compare, o per meglio dire si sviluppa, la malattia già
presente nel corpo.
L’effetto terapeutico si ottiene, dunque, attraverso la cessione di “Energia medicamentosa” dei vari
rimedi, all’“Energia Vitale” alterata, che viene così corroborata progressivamente fino a riportarla al
massimo valore possibile. Il rimedio omeopatico ha dunque il compito di stimolare il corpo ad
autocurarsi. Questo processo allontana i sintomi clinici, espressione vera ed unica della malattia
stessa, descrivendo non solo i sintomi della malattia, ma anche le sue cause, sia esterne che interne.
Lo stesso Hahnemann, essendo anche farmacista, si rese conto che i preparati omeopatici, dopo le
numerose diluizioni, non dovevano contenere più tracce di materia curante, per cui il loro raggio
d’azione non doveva agire per vie materiali. La teoria della “Forza Vitale” spiega quindi come il
8
Nicolò Tamà
IV N
LAM 2012/2013
rimedio possa ancora avere effetto sul corpo malato, sebbene non avvengano legami materiali;
creando perciò un’interazioni tra diversi tipi di “energie”.
Con l’avvento della biologia cellulare verso la fine del secolo, questo dogma dell’omeopatia viene
sempre più ignorato, in quanto discordante con le nuove teorie riguardo il funzionamento del corpo
(ad esempio il sistema circolatorio). Esso viene nuovamente considerato dagli omeopati soltanto nel
corso del XX secolo; quando diviene “Principio Vitale”, ossia uno strumento del corpo per regolare
e controllare alcune sue funzioni, come ad esempio la temperatura corporea.
3.4
Le costituzioni
Come descritto in precedenza, la malattia viene interpretata dall’omeopatia come un indebolimento
dell’“Energia Vitale” provocato da cause sia interne che esterne.
Componenti fondamentali della diagnosi omeopatica sono lo stato d’animo del paziente, che
costituisce uno dei sintomi più importanti, e il “terreno”, ovvero le caratteristiche generali definite
dalla “costituzione” di appartenenza e dalla “diatesi”. La costituzione è l’insieme dei caratteri
psicofisici di un soggetto, mentre per diatesi si intende la predisposizione di un certo organismo a
contrarre certe malattie. Le due classi sono correlate perché ogni costituzione tende preferibilmente
ad una certa diatesi, anche se è molto difficile trovare individui che appartengano del tutto ad una
sola delle costituzioni omeopatiche.
L’individuazione delle costituzioni omeopatiche risale ai tempi di Ippocrate, quando si distingueva
tra quattro tipologie di soggetti corrispondenti ai quattro umori del corpo, teoria che dominò
incontrastata fino alla metà dell’Ottocento: il Melanconico, che si riteneva caratterizzato da un
eccesso di bile nera, il Collerico da un eccesso di bile gialla, il Flemmatico da eccesso di flegma, il
Sanguigno da eccesso di sangue. Questa distinzione, ovviamente molto antica, richiama le varie
teorie filosofiche dell’Antica Grecia, che vedevano il mondo come un insieme di quattro elementi,
che Hahnemann accostò alle costituzioni, ovvero aria (sangue), fuoco (bile gialla), terra (bile nera) e
acqua (flegma). Il buon funzionamento del corpo consisterebbe nel corretto equilibro tra questi
quattro elementi, mentre la malattia nel sopravvento di uno di essi sugli altri, definito eucrasia. Con
questa distinzione Ippocrate provò a definire anche una teoria delle personalità: la predisposizione
all'eccesso di uno dei quattro umori definirebbe un carattere, un temperamento e insieme una
costituzione fisica detta complessione:
•
•
•
•
il malinconico, con eccesso di bile nera, è magro, debole, pallido, avaro, triste;
il collerico, con eccesso di bile gialla, è magro, asciutto, di bel colore, irascibile, permaloso,
furbo, generoso e superbo;
il flemmatico, con eccesso di flegma, è beato, lento, pigro, sereno e talentuoso;
il tipo sanguigno, con eccesso di sangue, è rubicondo, gioviale, allegro, goloso.
Dopo essere state analizzate e rielaborate nel corso della storia, le idee di Ippocrate giungono infine
ad alcuni discepoli di Hahnemann, i quali riescono ad inserirle nella contesto omeopatico creato dal
loro maestro ed in seguito a svilupparle. Un importante fattore, già sostenuto da Hahnemann,
accomuna tutte le diverse correnti di pensiero sorte nel corso del XIX e XX secolo; esso consiste
nel fatto che per determinare la tipologia di malattia manifestata dal paziente, non bastano i soli
sintomi, ma occorre tenere conto di tutte le altre peculiarità che rendono il soggetto unico rispetto a
tutti gli altri affetti dalla stessa malattia. Valutando nel contempo le componenti fisiche, psichiche,
chimiche e ambientali che possono aver scatenato la malattia, e considerando sempre il malato e
mai la singola malattia, è possibile stabilire la cura.
9
Nicolò Tamà
IV N
LAM 2012/2013
Le varie correnti di pensiero hanno preso in considerazione vari metodi classificativi, ma di base
corrispondono a quattro costituzioni omeopatiche principali che traggono il loro nome dal rimedio
caratteristico più simile al soggetto: Sulfurica (dallo zolfo), Carbonica (dal carbonato di calcio),
Fosforica (dal fosfato di calcio), Fluorica (dal fluoruro di calcio).
Una breve descrizione delle costituzioni da un punto di vista fisico, psichico e patologico permette
una loro migliore comprensione.
Carbonica (Il Carbonico)
Il rimedio costituzionale di base da usare è la calcarea carbonica, che si ricava dal guscio
sminuzzato delle ostriche, ed è principalmente costituita da carbonato di calcio. In generale altera il
metabolismo del calcio all’interno del corpo.
Tipologia:
• Soggetto tendenzialmente basso e grasso;
• Articolazione rigide (aspetto stanco, gesti lenti e goffi);
• Mano quadrata;
• Angolo braccio-avambraccio aperto verso l'alto;
• Denti e unghie tendenzialmente quadrati;
• Bambino: testa grossa, ventre prominente, vorace.
Psiche:
• Ordinato e disciplinato;
• Rispettoso, responsabile, coscienzioso;
• Calmo, sedentario, apatico e pigro.
Predisposizioni morbose:
• Eczema e diarrea;
• Arteriosclerosi;
• Artrosi;
• Malattie metaboliche.
Sulfurica (Il Sulfurico)
Prende il nome dallo zolfo, il quale, nella forma di radicale solforico, costituisce il rimedio base.
Nei suoi composti l’elemento zolfo partecipa a reazioni biochimiche fondamentali dell’organismo,
soprattutto nei processi di detossicazione, ed è un rimedio di modulazione che accelera o rallenta il
metabolismo.
Nella costituzione sulfurica si distinguono due sottotipi: il Sulfurico grasso e il Sulfurico magro.
Tipologia:
• Tendenzialmente è un soggetto di media statura;
• Colorito rosso, cute calda;
• Ipertrofia muscolare ed ipertricosi;
• Corpo, viso e mani quadrate;
• Denti e unghie quadrate;
• Angolo braccio-avambraccio non in linea (formato un angolo < 180°).
10
Nicolò Tamà
IV N
LAM 2012/2013
Psiche:
• Soggetto equilibrato dal punto di vista psichico, talvolta impulsivo, ipercritico e nervoso;
• Reagisce bene a qualsiasi stimolo esterno.
Predisposizioni morbose:
• Soffre spesso di sintomi alternanti e recidivanti: prurito, secrezioni, bruciori, cefalee e nevralgie;
• Presenta, in genere, solo problemi cutanei e a volte metabolici (specie il sulfurico grasso con
l'avanzare dell'età), ad esempio diabete, gotta, calcolosi epatica e renale, obesità.
Fosforica (Il Fosforico)
Il fosfato di calcio, rimedio della costituzione fosforica, è presente in tutti i tessuti organici ed è
utilizzato in medicina nella cura dei difetti ossei o come sostituto ad un innesto osseo quando il
trapianto non è possibile.
Tipologia:
• Alto e sottile;
• Articolazioni flessibili;
• Mano allungata con dita sottili;
• Unghie e denti lunghi;
• Angolo braccio- avambraccio tendenzialmente in linea;
• Muscoli molto deboli, ossatura indebolita;
• Bambini: magrolini, appetito alterno, insonnia, umore variabile.
Psiche:
• Intelligente, sentimentale, insoddisfatto;
• Elegante ed armonioso;
• Si esaurisce facilmente, vita interiore domina su quella di relazione.
Predisposizioni morbose:
• Spesso malaticcio (anemia, dimagrimento, demineralizzazione progressiva), di rado soffre di
gravi malattie;
• Rinofaringiti, bronchiti, asma bronchiale, pertosse;
• Cistiti recidivanti;
• Dalla debole ossature possono derivare: scoliosi, cifosi, piedi piatti, petto scavato, ptosi viscerali
e lassità legamentosa.
Fluorica (Il Fluorico)
Il fluoruro di calcio è il rimedio della costituzione fluorica, che non è considerata una costituzione
normale ma una deviazione patologica della costituzione fosforica. La sua azione principale è
l’aumento di flessibilità dei tessuti, per cui esso si trova spesso nei tessuti con funzione strutturale.
Tipologia:
• Soggetto con dimorfismi;
• Esostosi;
• Grande lassità delle articolazione;
• Dentizione irregolare;
• Dita mano asimmetriche e flessuose;
• Angolo braccio-avambraccio aperto verso il basso.
11
Nicolò Tamà
IV N
LAM 2012/2013
Psiche:
• Instabilità e indecisione;
• Ritardo mentale o intelligenza intuitiva.
Predisposizioni morbose:
• Scoliosi, cifosi;
• Malattie ulceranti, es. rettocolite ulcerosa;
• Paranoia o sindrome maniaco-depressiva;
• Ipercalcificazioni, osteofiti, osteoporosi, ernie, varici.
3.5
Diatesi e miasmi
Hahnemann riuscì a definire per la prima volta le diatesi nella sua opera “Le malattie croniche: la
loro natura specifica e il trattamento omeopatica” del 1828, in cui le nominò miasmi. Egli le
definì come le vere responsabili delle ricadute delle malattie durante la cura omeopatica.
Esse sono caratterizzate da segni peculiari, descritti in seguito, e si distinguono in quattro tipi, tre
dei quali proposti da Hahnemann: la psorica (dalla psora, termine che in greco indicava la scabbia),
la sicotica (dal greco sycon, fico, nome di una dermatosi genitale) e la luesinica (dalla lue, ovvero la
sifilide). Nebel (1870-1940) e Vannier (1880-1963), due tra i numerosi discepoli di Hahnemann,
aggiunsero in seguito anche la tubercolinica (TBC).
Il Tubercolinismo sarebbe più precisamente da classificarsi come sotto-diatesi psorica.
Di ogni diatesi viene fatto un quadro preciso che si basa sulla genesi delle patologie, sulle
caratteristiche di esse e sui rimedi omeopatici collegati ad esse.
Ogni costituzione tenderà preferibilmente ad una certa diatesi: la Carbonica sarà più della diatesi
Sicotica, quella Sulfurica della Psorica, quella Fosforica della Tubercolinica, quella Fluorica della
Luesinica.
Per non generare confusione, è importante sottolineare che la nozione di diatesi supera la nozione
classica di malattia; essa è una storia patologica, una catena di malattie e malesseri strettamente
legati al “terreno” del soggetto, di cui può interessare tutta la vita o solo parte di essa.
Sicotica
• Accostamento alla blenorragia (infiammazione acuta o cronica delle vie urinarie, anche
chiamata gonorrea) e alla crescita di vegetazioni verrucose sui genitali esterni;
• Associata all’eccesso, alla iperfunzione: esprime un rallentamento degli scambi e la tendenza
all’accumulo delle tossine, con conseguente formazione in zona di vere e proprie escrescenze;
• Le predisposizioni patologiche sono le forme catarrali croniche (ad esempio bronchite cronica),
uretrite cronica (infiammazione del breve canale di collegamento della vescica con l’esterno),
ritenzione idrica, arteriosclerosi, obesità, cellulite, neoformazioni benigne dalle semplici
verruche ai fibromi e papillomi (entrambi tumori benigni della cute);
• A livello mentale si caratterizza per ambizione, eccesso di audacia, impazienza, inquietudine,
autoritarietà, fissazioni, fobie, depressione;
• Presenta aggravamento con l’umidità e miglioramento con il movimento lento;
• Cause della sicosi: Hahnemann riconduceva l'eziologia della sicosi alla presenza di blenorragia
negli antecedenti familiari, attualmente si dà molta importanza anche all'abuso di vaccinazioni e
all'uso indiscriminato di farmaci come il cortisone;
• Prevale nel soggetto carbonico o nel soggetto sulfurico.
12
Nicolò Tamà
IV N
LAM 2012/2013
Psorica
• Accostamento alla scabbia (malattia contagiosa della pelle provocata dall’acaro sarcoptes
scabiei);
• Associata all’inibizione, all’ipofunzione; esprime la tendenza ad eliminare le tossine attraverso
la cute, le mucose o gli emuntori fisiologici (reni, fegato, ecc.);
• Manifestazioni pruriginose periodiche e alternanti soprattutto a livello cutaneo con tendenza alla
parassitosi;
• A livello psichico tende alla depressione;
• Stato cronico di intossicazione determinato da svariate patologie sia ereditarie che acquisibili;
• Due modi di manifestarsi: • Fase iniziale (detta attiva o stenica): eliminazione all’esterno delle
tossine, per cui troviamo patologie come eczema, foruncoli,
diarrea, rinite allergica;
• Fase successiva, astenica (detta passiva): non c’è possibilità di
eliminazione verso l’esterno delle tossine che vengono
convogliate verso organi interni , per cui è possibile arrivare a
disturbi lesionali come ad esempio il diabete o la cirrosi;
• In genere appartiene al soggetto di costituzione carbonica o sulfurica.
Luesinica
• Accostamento alla sifilide (malattia infettiva a prevalente infezione sessuale);
• Associata alla perversione, alla distruzione, alla disfunzione: esprime la fissazione delle tossine
o degli agenti patogeni in una zona del corpo con conseguente alterazione e/o distruzione dei
tessuti interessati;
• Predisposizioni morbose: ptosi viscerali (abbassamento del colon in correlazione
all’abbassamento di tutti i visceri addominali), rettocolite ulcerosa (infiammazione cronica
intestinale che coinvolge la mucosa del retto e del colon), scarlattina, stomatiti, varici,
disfunzioni ormonali, disturbi della dentizione;
• A livello mentale: aggressività, violenza, irrequietezza, angoscia, pessimismo, rancore, invidia,
instabilità psichica, disturbi del sonno;
• Aggravamenti al mare, per gli eccessi di temperatura e di notte; miglioramenti in montagna;
• Eziologia: da ricercare la sifilide o l'alcolismo negli antecedenti familiari;
• In genere presente nel soggetto di costituzione fluorica.
Tubercolinica
• Condivide la gran variabilità morbosa e comportamentale del miasma psorico (deriva da esso);
• Disposizioni patologiche: malattie broncopolmonari, i disturbi da difettosa circolazione venosa
periferica e i dimagrimenti;
• Esprime la tendenza dell’organismo ad accelerare i processi catabolici, cioè ad attivare i
processi di degradazione delle tossine;
• A livello mentale provoca introversione, instabilità emotiva, alternanza dell’umore (dall’euforia
alla depressione), tendenza alla malinconia, difficoltà di concentrazione;
• Aggravamento con il freddo e miglioramento con il riposo, all’aria aperta e con il movimento
moderato;
• Eziologia: avi con problemi tubercolari;
• In genere presente nella costituzione fosforica;
• Diatesi introdotta dallo svizzero Nebel e sviluppata dal francese Leon Vannier.
13
Nicolò Tamà
4
4.1
IV N
LAM 2012/2013
Cura del malato
L’anamnesi
Alla base della cura omeopatica, che ricordo prevede inizialmente l’individuazione della
costituzione e della diatesi, si situa il rapporto tra medico e paziente; è infatti fondamentale
l’instaurazione di tale legame, in quanto il medico dovrà analizzare attentamente il passato del
malato per potersene “impossessare” ed in seguito poter definire la malattia. L’omeopatia si
propone infatti di curare il malato, non la malattia. Per cui, come primo passo della cura vi è
l’anamnesi, ovvero un colloquio in cui il presunto malato viene interrogato dall’omeopata.
La visita omeopatica si suddivide essenzialmente in due tempi principali: nella prima parte il
medico rivolge al paziente una serie di domande, il cui scopo è di indagare sugli antecedenti
familiari e su quelli legati al periodo dello sviluppo, nonché sulle eventuali malattie del passato e le
relative cure effettuate; la seconda parte, invece, consiste in un esame fisico, di organi e apparati,
molto simile alla visita medica tradizionale. L’unico aspetto che la differenzia da questa, però, è
l’insieme di domande riguardanti i sintomi attuali, quelli cioè che hanno condotto il paziente a
rivolgersi al medico. A partire dalle domande poste si intravede come la cura sia incentrata sul
malato nella sua interezza.
Proprio per questo motivo il medico omeopata indaga inizialmente alla ricerca di quei sintomi
psicologici (paure, ansie, irritabilità, ecc.) e dell’intelletto (deficit di memoria, comprensione, ecc.)
che più affliggono il paziente, e passa poi a verificare le sue reazioni ad alcuni fattori, esterni ed
interni, che potrebbero influenzare il suo stato d’animo: le diverse condizioni atmosferiche, l’effetto
del riposo, del movimento e di soggiorni al mare o in montagna, le preferenze alimentari, la facilità
o meno ad addormentarsi, eventuali risvegli notturni e sogni (o incubi) ricorrenti, eventuali
problematiche della vita sessuale. A questa prima fase seguono le analisi fisiche del paziente, che
condurranno poi alla diagnosi della problematica da curare.
Il medico agirà poi sempre considerando quella visione olistica dell’essere umano, proposta dalla
medicina omeopatica, secondo la quale, quando un organo od una funzione sono alterati è in realtà
l’organismo intero ad essere malato: la malattia è dunque solo la localizzazione finale di questo
squilibrio generale, che ci riconduce al concetto, secondo il quale la guarigione consista nella cura
del malato nella sua interezza.
Con l’individuazione della costituzione d’appartenenza e del miasma da curare, la cura ha modo di
iniziare; il medico prescrive dunque il rimedio più appropriato e il paziente prosegue il trattamento
individualmente. È tuttavia necessario effettuare una visita omeopatica tutte quelle volte che il
disturbo, o la malattia da cui si è affetti, abbiano tendenza a recidivare con frequenza , ovvero a
ripresentarsi in seguito alla scomparsa dei sintomi, o comunque a cronicizzare: questo andamento,
infatti, indica che l’organismo, a causa di una perturbazione permanente del suo funzionamento
fisiologico, non è più in grado di giungere spontaneamente alla guarigione. La visita, allora, ha lo
scopo proprio di individuare tale perturbazione che, se opportunamente trattata, permetterà alla
persona di tornare in buona salute come effetto della ritrovata armonia funzionale dei suoi organi e
dei suoi apparati, ovvero della sua “Energia Vitale”.
Il paziente che ritorna in buona salute deve inoltre considerare un discorso di prevenzione; essendo
a conoscenza della costituzione d’appartenenza l’individuo è in grado, con l’aiuto del medico
omeopata, di monitorare l’equilibrio interno, e di conseguenza d’intervenire prontamente nel caso
compaiano nuovi sintomi. Si consigliano dunque un paio di controlli annui da parte del medico
curante.
14
Nicolò Tamà
4.2
IV N
LAM 2012/2013
Preparazione, sperimentazione e prescrizione del rimedio omeopatico
Preparazione
Le sostanze attive da cui traggono origine i rimedi omeopatici provengono dai tre regni della
natura: vegetale, animale e minerale. Tra essi i rimedi di origine vegetale rappresentano più del
70%. Ricordando che l’omeopatia si prefigge di curare il malato nella sua interezza, il rimedio
dovrà tener conto oltre dei sintomi fisici, di un quadro molto più ampio ed articolato, che
comprende le modalità di comparizione dei sintomi, la loro localizzazione, le sensazioni, gli
aggravamenti ed i peggioramenti, le manifestazioni tipiche, gli aspetti psicologici ed emotivi, i
comportamenti, la sfera di azione, la compatibilità con altri rimedi, dunque quanto emerso
nell’anamnesi. Seguendo il principio di similitudine di Hahnemann, la scelta del rimedio
omeopatico “giusto” deve essere fatta cercando di sovrapporre il più possibile l’insieme dei sintomi
fisici e delle caratteristiche individuali con le caratteristiche del rimedio. Solo in questo modo tra i
tanti rimedi omeopatici potenzialmente in grado di curare la stessa patologia, si sarà individuato
quello più adatto alla persona che ne è affetta.
La preparazione del rimedio consiste, come già descritto in precedenza, nella diluizione e
dinamizzazione della droga d’origine naturale in seguito all’elaborazione, ovvero l’estrazione, della
sostanza attiva. L’elaborazione preventiva della sostanza attiva di base, che forma il cosiddetto
ceppo omeopatico, si rende indispensabile per portare correttamente in soluzione i principi attivi.
Tale trattamento si differenzia a seconda della natura della materia prima utilizzata e tiene
principalmente in considerazione il grado di solubilità della sostanza in acqua o in alcool. Più
usualmente per le sostanze di origine vegetale, abbastanza solubili, si ricorre alla Tintura Madre, per
quelle di origine minerale o animale, in genere solide non completamente solubili, si ricorre alla
triturazione con lattosio. La Tintura Madre è una preparazione liquida ottenuta mediante l’azione
estrattiva delle sostanze interessate dalla pianta intera o da sue parti, ovvero per macerazione. Essa
consiste in un processo estrattivo in cui la sostanza vegetale contenente il principio attivo (la droga)
viene posta per un determinato periodo di tempo in un solvente, tenuto in continuo movimento per
velocizzare l’estrazione. Nel caso della Tintura Madre il solvente è una soluzione idroalcolica, la
cui gradazione dipende dalla freschezza della pianta macerata (la pianta attiva può essere fresca
oppure secca). Questa tecnica d’estrazione è comunemente utilizzata anche in fitoterapia, ovvero
nella preparazione di rimedi naturali a partire dall’estrazione del principio attivo dalla parte con
azione farmacologica della pianta (la droga). In questa fase omeopatia e fitoterapia non si possono
infatti distinguere. Vi è tuttavia un ulteriore stadio che costituisce l’enorme differenza tra queste due
branche della medicina alternativa: la diluizione e la dinamizzazione.
Per ottenere il rimedio omeopatico vero e proprio dunque atossico e con l’adeguata “Energia
Medicamentosa”, è necessario infatti procedere con le successioni e le dinamizzazioni descritte nel
capitolo “Diluizioni e Dinamizzazione". Purtroppo molte persone non sono a conoscenza di tale
differenza, per cui tendono a generalizzare con il termine di “medicina naturale” e spesso
consumano un preparato omeopatico senza sapere di cosa si tratti realmente.
Sperimentazione
La ricerca clinica e la sperimentazione di rimedi omeopatici caratterizza l’omeopatia sin dalla sua
nascita, in quanto la gran quantità di sperimentazioni eseguite da Hahnemann su se stesso e su
volontari diede l’impulso a numerosi medici (sia omeopati che medici tradizionali) di attuare gli
stessi procedimenti. Infatti, avendo in un qualche modo creato il primo metodo standard per la
produzione e la sperimentazione di un farmaco, il contributo che Hahnemann diede alla medicina fu
notevole.
15
Nicolò Tamà
IV N
LAM 2012/2013
La prima fase della sperimentazione di farmaci omeopatici consiste nella somministrazione in
doppio cieco della sostanza dinamizzata ad individui apparentemente sani già sottoposti ad un
periodo d’analisi da parte del ricercatore. Ciò è essenziale in quanto egli deve conoscere i sintomi e
le sensazioni del paziente prima che la sperimentazione cominci. Questa fase è definita
sperimentazione pura o proving. Né il paziente né il medico conoscono dunque l’effetto della
sostanza assunta, o nel caso si tratti di un test per determinare l’effetto placebo, quale gruppo abbia
assunto il placebo e quale il farmaco. I soggetti che vi si sottopongono devono annotare con
precisione ogni più piccolo cambiamento nelle sensazioni, nonché i sintomi morbosi che la sostanza
può provocare nel corso dell'esperimento. Tra di essi vi saranno alcuni più sensibili al medicamento
ed altri meno sensibili, se non addirittura del tutto insensibili. Coloro che presentano reazioni
fisiologiche e psichiche proseguono la sperimentazione, aumentando però la diluizione del rimedio,
per evidenziare altri sintomi.
Tra i sintomi raccolti dal ricercatore vanno poi distinti i sintomi primari dai sintomi secondari; i
primi rappresentano l’effetto primario del rimedio sull’organismo, mentre i secondi si manifestano
in un secondo momento, e consistono nella reazione dell’organismo allo stimolo subito, sono cioè
una manifestazione del potere reattivo della “Forza Vitale” e della sua capacità di superare l’impatto
del medicamento assunto durante la sperimentazione. Si tiene dunque conto dei sintomi primari.
Alla fine, tutti i particolari riscontrati dalle varie persone vengono raggruppati e catalogati ed
andranno a far parte delle "Materie Mediche", ossia testi di consultazione necessari al medico
omeopata per individuare il rimedio adatto al malato. Oggi esistono varie "Materie
Mediche", pubblicate da vari omeopati in oltre duecento anni, cioè dall'epoca di Hahnemann ad
oggi.
La seconda fase consiste nell’esecuzione di test su pazienti malati, ovvero nella ricerca clinica
controllata, che consiste in una verifica di quanto fin’ora registrato. Seguendo i principi di
Hahnemann, bisogna dunque accostare un rimedio in grado di provocare determinati sintomi
nell’organismo ad un paziente, la cui sintomatologia è quanto più simile ad essi. I risultati ottenuti
non sono però sempre attendibili, in quanto il rimedio non cura precisamente una malattia, bensì
l’insieme dei sintomi, per cui non si può basare l’evidenza clinica esclusivamente sull’efficacia del
medicinale sulla malattia. Pertanto potranno essere somministrati medicinali diversi per una
determinata malattia diagnosticata, a seconda dei sintomi del paziente. Ricordo infine che la
sperimentazione non coinvolge minimamente animali, in quanto l’analisi dei sintomi risulterebbe
incompleta e priva di senso (si pensi all’effetto psichico generato da essi); per cui per una volta è
l’uomo a testare dei farmaci per gli animali.
L’efficacia dell’omeopatia viene quindi principalmente confermata dalla pratica, perciò dai
numerosi successi di casi clinici, piuttosto che dai risultati delle sperimentazioni, che rimangono
ancora troppo vaghi e incerti.
Normative
Attualmente l’omeopatia non è riconosciuta ufficialmente come tecnica terapeutica, in quanto le
evidenze cliniche, dunque la percentuale di test clinici di successo, non sono sufficienti per
garantire l’efficacia del rimedio omeopatico. Non essendo dimostrata la loro efficacia, ma essendo
stato provato il fatto che essi non nuocciono alla salute del paziente, essi sono comunque accettati
dalle farmacopee ufficiali.
La farmacopea ufficiale è un testo normativo che contiene un complesso di disposizioni
tecnico/scientifiche ed amministrative di cui il farmacista si serve per il controllo della qualità dei
farmaci. Esso viene compilato da organismi statali di controllo delle varie nazioni a partire da
ricerche condotte da istituti farmaceutici, dunque dalla sperimentazione dei farmaci. Vengono
descritti i requisiti di qualità delle sostanze ad uso farmaceutico, le caratteristiche che i medicinali
16
Nicolò Tamà
IV N
LAM 2012/2013
preparati devono avere, ed elenca composizione qualitativa e talvolta quantitativa di ogni farmaco
galenico che le farmacie di quel paese sono autorizzate a preparare.
A differenza di numerosi farmaci tradizionali, per cui vigono norme alquanto severe (che però non
considerano sempre gli effetti collaterali che essi possono provocare), essi sono dunque acquistabili
in farmacia senza ricetta medica. Un ulteriore fattore che impedisce la loro accettazione è l’assenza
di foglietto illustrativo; ciò è dovuto al fatto che il rimedio non è specifico per una malattia, ma mira
alla cura di un insieme di sintomi specifici nel paziente, per cui è impossibilitata una sua
prescrizione generica. Per queste ragioni essi vengono classificati come rimedi, non come farmaci.
Prescrizione
La Dose Unica:
Un solo tipo di disordine, cioè una sola malattia, alla volta colpisce l'uomo; il medico omeopatico,
tenendone sempre ben presente i connotati, deve essere in grado di selezionare, tra gli oltre duemila
rimedi omeopatici, quello perfettamente corrispondente alla totalità dei sintomi caratteristici
manifestatisi nell'individuo ammalato.
Le caratteristiche principali che il medico deve tenere in considerazione nella scelta del rimedio
sono:
I. L’azione svolta: ogni rimedio agisce differentemente nell’organismo:
•
•
•
•
•
•
•
•
•
•
rimedi omeopatici sinergici (migliorano e completano l’effetto del rimedio che li ha
preceduti),
rimedi omeopatici asinergici (controllano o annullano l’effetto di un altro rimedio),
rimedi omeopatici antidoti (controllano e attenuano l’effetto del rimedio che li ha preceduti
in caso di eccesso della sua azione),
rimedi omeopatici incompatibili (attenua o annulla l’effetto di un rimedio complementare),
rimedi omeopatici sintomatici o ad azione locale (correlato al quadro sintomatologico del
paziente),
rimedi omeopatici costituzionali o di fondo (le loro caratteristiche principali corrispondono
ai caratteri morfologici, fisiologici e psicologici della costituzione del paziente),
rimedi omeopatici simillimum (sono altamente personalizzati in quanto si considera la
globalità delle manifestazioni del paziente),
rimedi omeopatici acuti (in grado di curare meglio i sintomi di una malattia che induce
reazioni forti e/o improvvise, tipiche degli stati acuti),
rimedi omeopatici cronici (in grado di curare meglio i sintomi di una malattia quando questi
hanno superato la fase acuta),
rimedi omeopatici policresti (ad ampia azione, cioè un rimedio che ha un’azione generale
riequilibrante utilizzabile per curare varie patologie).
II. La galenica, ovvero le varie forme medicamentose dei rimedi disponibili sul mercato
(descritta nel capitolo seguente).
III. La Potenza:
Nella scelta della Potenza o Diluizione del rimedio, l'omeopata deve essere attento a prescrivere la
giusta dose in grado di attivare la “Forza Vitale”; una potenza insufficiente non innescherà il
processo di cura, mentre una troppo forte procurerà uno spreco di “Energie” con inutili sofferenze,
17
Nicolò Tamà
IV N
LAM 2012/2013
anche se di breve durata. A scopo puramente indicativo, e quindi con la dovuta flessibilità, è
possibile distinguere schematicamente tre fasce di diluizione dei rimedi omeopatici:
Diluizione Decimale Centesimale
Bassa
D2 – D8 1CH – 4CH
Media
D9 – D23 5CH – 11CH
Alta
> D24
> 12CH
Tipi di rimedio e posologia
La nomenclatura internazionali dei rimedi è data in latino, essi sono disponibili in commercio in
diverse concentrazioni e sotto varie forme.
Se si considerano i preparati contenenti una sola sostanza in soluzione, ovvero gli unitari, vi sono:
•
Forme più utilizzate:
Granuli: Sono piccole sfere di saccarosio e lattosio impregnate della sostanza medicinale
omeopatica diluita (solitamente a diluizioni medio-basse). Sono contenute in un tubo si circa 4 g
in una quantità di circa 80 granuli (ognuno ha massa di 50 mg). Da assumere più volte al giorno
in numero da 3 a 5 per via perlinguale.
•
Globuli: Sono sfere di saccarosio e lattosio simili ai granuli, ma con massa di 5 mg. Il contenuto
di un tubo (solitamente 200 globuli) viene assunto in un'unica dose (per esempio un tubo, quindi
1 g, al dì) per via perlinguale, in quanto solitamente le diluizioni sono medie o alte. Si parla
perciò di tubo-dose.
•
Gocce: Solitamente realizzate con una soluzione alcolica 30% di volume, sono la forma più
utilizzata per somministrare rimedi omeopatici a diluizioni molto basse. Sono disponibili in
flaconi di 15 o 30 mL e vanno assunte direttamente dal flacone o in un po’ d’acqua 2-4 volte al
giorno e alla dose media di 15-20 gocce per volta.
•
Forme meno utilizzate:
Pomate (eccipiente composto vaselina con talvolta l’aggiunta di lanolina), fiale orali (fiale da 1
o 2 mL di soluzione idroalcolica 15%), supposte (eccipienti composti da gliceridi solidi, grassi,
di 2 g di massa), compresse (simili a granuli e globuli, ma con massa 100 mg), sciroppi, creme,
ovuli, gel, spray, polvere, colliri e ampolle.
Esistono inoltre altre forme di rimedio: i composti (o specialità) e i rimedi basati sul principio di
identità.
I primi consistono in miscele di sostanze che condividono un tropismo d’organo, che dunque
tendono a localizzarsi ed accumularsi in determinati organi o apparati, o che presentano indicazioni
cliniche simili. Nel caso delle specialità, ovvero i rimedi le cui formule sono messe a punto
direttamente dai laboratori omeopatici, possono inoltre essere associati rimedi omeopatici in bassa
diluizione a farmaci tradizionali.
Il secondo tipo di rimedio è fondato invece sul principio di identità, anziché su quello di
similitudine, in quanto viene somministrato al paziente un prodotto direttamente responsabile della
malattia. Essi si suddividono a loro volta in isoterapici e bioterapici.
Gli isoterapici consistono in diluizioni di sostanze direttamente responsabili della malattia o del
fastidio (ad esempio pollini e allergeni), mentre i bioterapici sono isoterapici non individualizzati,
dunque ad uso generico.
18
Nicolò Tamà
IV N
LAM 2012/2013
Al fine di sfruttare al meglio l'azione del prodotto è consigliabile rispettare alcuni semplici
accorgimenti: assumere il rimedio lontano dai pasti o da sapori forti, come menta, canfora o
dentifrici (almeno un’ora prima o due ore dopo), in quanto alcuni sapori potrebbero influenzarne
l’effetto; limitare l'uso di sostanze nervine (tè, caffè, fumo di sigaretta). Si consiglia inoltre di non
toccare i granuli con le mani: il sudore delle dita, infatti, potrebbe provocare lo scioglimento di una
loro parte, e ridurre così la quantità di medicamento assunto, e di assumere i granuli (o altri) per via
perlinguale aspettandone lo scioglimento, senza dunque masticarli. Per i bambini che non sono
capaci di succhiare i granuli, questi vengono di norma diluiti in acqua.
In presenza del ciclo mestruale è sempre meglio sospendere la terapia omeopatica, salvo diversa
indicazione.
E' consigliabile, infine, tenere i rimedi lontano da odori forti e fonti di calore, luce intensa ed
eccessiva umidità: in tali condizioni la loro efficacia si mantiene anche oltre la data di scadenza
indicata.
4.3
Cura e Effetto Placebo
La cura omeopatica appare non solo come la risoluzione di un problema istantaneo, ovvero la
malattia, attraverso la scomparsa dei sintomi fisici, bensì come la cura psicologica del paziente
attraverso il suo coinvolgimento in un’indagine interiore che mette a nudo le disarmonie e i
contrasti che da tempo lo affliggono.
In un primo tempo il rimedio stimola la sfera psichica del soggetto e fa riaffiorare le problematiche
ed i conflitti più profondi e nascosti, rendendo così l’ammalato consapevole di quanto lo turba. In
un secondo tempo, dopo essersi reso conto del proprio “funzionamento” psichico, grazie alla cura
riesce ad acquisire una nuova consapevolezza di sé e modifica il modo in cui egli “funziona” nella
vita, che é alla base degli scompensi, i quali hanno causato i corrispondenti disturbi.
Il soggetto comprende il suo modo di essere e i suoi limiti, si confronta in questo modo con ciò che
è la causa della sua malattia superando la sua disarmonia.
Ciò avviene tuttavia solo se il medico che prescrive il rimedio e il paziente sono consapevoli
dell’azione che vanno a compiere con l’assunzione di un determinato farmaco; è infatti possibile
consumare e prescrivere un rimedio omeopatico allo stesso modo di un farmaco tradizionale senza
quindi considerare minimamente la dimensione psichica omeopatica e limitando in un certo modo
la sua azione. Numerosi medici tradizionali che hanno introdotto nella pratica clinica l’omeopatia,
prescrivono infatti rimedi omeopatici con superficialità, rendendo nel tempo la cura omeopatica
meno efficace di quanto potrebbe in realtà essere.
Nelle cure più efficaci assistiamo invece ad una più profonda azione del medicamento che può
anche non essere indolore. Nella fase iniziale della cura può difatti avvenire il cosiddetto
aggravamento iniziale (o aggravamento omeopatico).
L'Aggravamento iniziale consiste in quel processo secondo il quale in seguito all’assunzione di un
rimedio omeopatico può manifestarsi un aggravamento dei sintomi. Il che, nonostante possa
sembrare un effetto negativo, significa al contrario che l'organismo sta rispondendo all'impulso del
rimedio somministrato e che, quindi, la scelta terapeutica è corretta. Dopo qualche giorno questo
aggravamento scompare e sopraggiunge un miglioramento ed un benessere generale non solo fisico
ma anche psichico, che progressivamente porta alla guarigione.
Il superamento della patologia è determinato non da un'aggressione esterna, ma da una forza interna
all'organismo, la “Forza Vitale”, la quale, stimolata dal rimedio simile, è capace di ristabilire
l'equilibrio psico-fisico integrale. In questo modo la guarigione si manifesta in modo indolore, tanto
da far dimenticare al soggetto di essere stato malato.
19
Nicolò Tamà
IV N
LAM 2012/2013
Altre volte il percorso terapeutico, innescato dal medicamento omeopatico, è più semplice e diretto.
L'ammalato non percepisce tensioni e non si accentuano i sintomi, ma c'è un immediato e
progressivo miglioramento che porta benessere psichico e fisico.
Questa modalità reattiva si osserva molto spesso nei bambini, i quali, rispetto agli adulti, sono meno
stratificati nelle difese psicologiche e nei comportamenti nevrotici. I risultati positivi di cure
omeopatiche su bambini, e addirittura animali, allontana perciò in parte il principale dubbio relativo
all’omeopatia, ovvero l’efficacia dovuta all’effetto placebo.
Effetto placebo
L’efficacia dovuta ad effetto placebo è la critica principale mossa contro l’omeopatia ormai da
decenni. Esso esiste nella medicina, e intendo sia quella tradizionale allopatica che quella
omeopatica, da sempre. Con questo termine viene inteso un effetto specifico psicologico e
psicofisiologico prodotto da un placebo, ovvero una sostanza inattiva che viene somministrata al
paziente come se fosse un vero farmaco ed allo scopo di soddisfarlo. Da questa definizione, si
deduce che, se sosteniamo che il farmaco omeopatico è un placebo, gli unici effetti del farmaco
stesso sono di natura psicologica, cioè dipendono in sostanza dal rapporto medico-paziente, e dalla
convinzione di assumere un medicinale.
Imputare la totalità dell’efficacia dell’omeopatia all’effetto placebo e ritenere che esso non ne sia
minimamente responsabile sono entrambe delle scorrettezze: é ipocrita un medico tradizionale che
sostiene che i risultati di due secoli di pratica omeopatica siano totalmente dovuti ad un effetto di
autoconvinzione, quanto lo è un omeopata che allontana l’efficacia di questa tecnica terapeutica
nella sua completezza dall’effetto placebo. È infatti evidente che, nonostante non vi siano ancora
delle certezze scientifiche riguardo l’omeopatia, le basi cliniche, dunque i risultati positivi di 200
anni di cure, siano oggigiorno concrete. È tuttavia difficile, come in alcuni casi dell’allopatia,
distinguere i due frangenti. Due esempi in cui questo dubbio è stato parzialmente chiarito sono le
ricerche cliniche effettuate su bambini e animali. Se in un adulto è possibile effettuare un
condizionamento mentale dovuto alla consapevolezza dell’assunzione di un farmaco, ciò è più
difficile nel caso in cui un bambino assuma il farmaco, e ancor meno se il soggetto è un animale.
Nonostante la possibilità di infondere in un bambino la sicurezza dell’assunzione di un farmaco
quando un adulto si prende cura di lui a sua insaputa, perciò di provocare indirettamente un effetto
placebo, un bambino non si rende normalmente conto delle aspettative della cura con farmaci,
perciò appare immune a tale effetto. Nel caso dell’omeopatia veterinaria il risultato è ancor più
lampante in quanto è improbabile una suggestione di tali proporzioni.
Tempo di cura
Il tempo di cura dei rimedi omeopatici è il tempo necessario alla persona per guarire, per liberarsi
cioè definitivamente dai suoi disturbi, mentre il prolungarsi o meno delle cure, dipende da altri e
molteplici fattori: età (i bambini, ad esempio, rispondono più prontamente degli adulti), esposizione
ripetuta ai fattori scatenanti e grado d’intossicazione chimica, farmacologica e voluttuaria (alcool,
fumo, caffè, ecc.) del paziente. Va inoltre posta una distinzione per il tipo di disturbo: un disturbo
acuto necessita di breve tempo (poche ore) perché il rimedio abbia effetto e di pochi giorni perché
la guarigione si completi; un rimedio per un disturbo cronico agisce nel giro di qualche giorno o
addirittura di qualche settimana e la sua assunzione può protrarsi per un lungo periodo. Con la
scomparsa dei sintomi si assiste normalmente alla guarigione; solo nei casi di disturbi cronici che
potrebbe recidivare bisogna poi proseguire la cura.
20
Nicolò Tamà
IV N
LAM 2012/2013
Accompagnamento a cure mediche tradizionali
L’omeopatia può inoltre dare un ottimo contributo a cure mediche tradizionali sotto forma di terapia
d’accompagnamento a livello clinico. Un esempio lampante è il lavoro svolto dalla Clinica Santa
Croce di Orselina, sotto la direzione del Dr. Dario Spinedi, primo e finora unico centro di cura in
cui i pazienti vengono curati con l’omeopatia unicista (da sola o in accompagnamento alle cure
mediche convenzionali). La clinica si è specializzata nel trattamento di pazienti oncologici sia per la
cura profonda della patologia di base, sia per un sostegno durante la chemioterapia e la radioterapia.
Il centro si occupa inoltre di malattie croniche, come malattie autoimmuni, malattie dermatologiche,
reumatiche, epilessia, sclerosi multipla, diabete mellitus, morbo di Crohn, colite ulcerosa ecc.
Il Dr. Spinedi si è gentilmente messo a disposizione sia per fornire informazioni riguardo all’attività
condotta nella clinica, sia per rispondere ad alcune mie domande di natura teorica nei confronti
dell’omeopatia. La collaborazione, seppur breve, è stata di grande aiuto per il mio lavoro, per cui mi
sento in dovere di porgere al Dr. Spinedi i miei più sinceri ringraziamenti e i complimenti per i
successi raccolti negli anni.
Bisogna difatti ricordare che la clinica ha raccolto una notevole fama a livello internazionale
soprattutto per il fatto che la percentuale di paziente curati, o la cui speranza di vita è stata allungata
e la cui qualità di vita è migliorata, specialmente in relazione alla diminuzione degli inevitabili
effetti collaterali della chemioterapia e della radioterapia, è strabiliante. L’allungamento della
speranza di vita nei pazienti in cura oncologica può talvolta protrarsi fino a una decina di anni
rispetto le previsioni antecedenti la cura omeopatica. Nella raccolta di casi oncologici sotto la cura
del Dr. Spinedi e di alcuni suoi colleghi, pubblicata nel 2011 e intitolata “L’omeopatia in
Oncologia”, alcuni dettagli di questi risultati sono ben descritti. Tra le pagine di questo manuale,
che consiste essenzialmente in una guida per colleghi del settore nell’affrontare la cura di patologie
tramite l’omeopatia (non si considera soltanto l’oncologia), sorge un ulteriore concetto, alquanto
singolare in medicina, già citato nel capitolo precedente, ovvero la considerazione di ogni individuo
come entità diversa da tutte le altre, la quale richiede di conseguenza un trattamento specifico, che
curi la persona nella sua totalità. Nella conclusione del manuale il Dr. Spinedi evidenzia tale
concetto, sostenendo che:
“Nessun sistema statistico è in grado di tener conto dell’individualizzazione e della
nobiltà dell’omeopatia. Allo stesso modo fallirà ogni tentativo di voler ridurre
l’omeopatia a un “protocollo” di cura.”
La possibilità di instaurare tale legame tra medico e paziente è ulteriormente amplificata dal
ricovero all’interno della clinica, generalmente per un periodo di 14 giorni, dove il team avrà modo
di analizzare a fondo i singoli casi e ottenere infine la cura adatta. In seguito alla dimissione dalla
clinica vengono consegnati i rimedi con cui il paziente potrà completare la cura a domicilio, sempre
tenendosi in contatto con l’istituto.
21
Nicolò Tamà
5
IV N
LAM 2012/2013
Studi scientifici e Memoria dell’acqua
Un grande difetto dell’omeopatia sta nel fatto che nonostante l’esistenza di prove della sua efficacia
a livello clinico, non vi sono ancora delle basi scientifiche in grado di motivare tale efficacia. Il
quesito riguardo l’esistenza di un meccanismo biologico, fisico o chimico in grado di spiegare il
funzionamento di tale pratica terapeutica, da sempre utilizzato per discreditarla, sta però ottenendo
nel corso degli ultimi anni delle risposte alquanto sorprendenti.
Il primo ricercatore a concentrare il suo interesse su tale questione fu, negli anni ’80, il medico ed
immunologo francese Jacques Benveniste, il quale, avendo strumenti sufficientemente tecnologici e
i fondi necessari, avviò una serie di ricerche finalizzate a “spiegare” l’omeopatia. I risultati ottenuti,
pur essendo stati pesantemente criticati dalla comunità scientifica, stimolarono la curiosità di altri
ricercatori su quella che si rivelerà essere una questione parecchio controversa.
5.1
Jacques Benveniste
Jacques Benveniste (1935-2004) fu un medico e immunologo francese, professore all’Université
Paris-Sud, di Clamart, noto per aver pubblicato su Nature i risultati di una ricerca dai contenuti
scioccanti per tutta la comunità scientifica.
Nel lavoro, pubblicato il 30 giugno 1988, e dal titolo: Human basophil degranulation triggered by a
very dilute antiserum against IgE, si sosteneva che estreme diluizioni in acqua di un antisiero
(diluito oltre 120 volte), un particolare anticorpo, producevano esattamente lo stesso effetto causato
dall’antisiero in condizioni normali e cioè determinavano la degranulazione dei granulociti basofili
(una classe di globuli bianchi del sangue che interviene nei meccanismi di difesa immunitaria).
Una soluzione estremamente diluita di antisiero, considerabile esente da quest’ultimo, poteva
quindi, secondo Benveniste, attivare i granulociti basofili, e provocare una risposta immunologica.
Le molecole d’acqua in qualche modo sembrava possedessero una specie di memoria degli
anticorpi con cui erano precedentemente venute in contatto, cosicché anche quando essi non erano
praticamente più presenti in soluzione si manifestava l’effetto biologico.
Il principio delle dosi infinitesimali di Hahnemann sembrava essere convalidato da tali risultati per
la prima volta su base scientifica.
Le sconvolgenti conclusioni suscitarono l’incredulità di molti scienziati, compresi alcuni membri
del comitato di controllo della rivista Nature, i quali, dopo aver revisionato l’articolo, proposero che
i risultati sperimentali di Benveniste dovessero essere sottoposti ad un rigoroso controllo prima di
essere pubblicati.
Benveniste non accettò la proposta opponendosi fermamente, per cui si giunse ad un compromesso:
Nature pubblicò l’articolo in questione accompagnato però da una nota dell’editore, la quale
sosteneva che i lettori avrebbero potuto condividere l’incredulità della rivista stessa, la quale
riteneva che al momento l’attività biologica ipotizzata non potesse essere spiegata su basi fisiche.
Benveniste avrebbe inoltre ripetuto l’esperimento sotto la supervisione di alcuni qualificati
ricercatori, i quali avrebbero pubblicato al più presto un rapporto.
Fu così costituita una commissione di controllo, la quale, avendo concluso che gli esperimenti di
Benveniste non fossero attendibili e temendo addirittura una consapevole falsificazione dei dati,
redasse un rapporto che fu pubblicato su Nature dal titolo: “High-dilution” experiments: a
delusion. Si scoprirono successivamente conflitti di interesse tra il medico francese e alcune
industrie di prodotti omeopatici, come la LHF e la Boiron, dalle quali Benveniste aveva ricevuto
sovvenzioni e pagamenti non dichiarati. Per questo motivo fu allontanato dall'istituto in cui
lavorava non appena il contratto giunse a scadenza.
22
Nicolò Tamà
IV N
LAM 2012/2013
Malgrado ciò, Benveniste era intenzionato a spiegare come tale effetto, ovvero una possibile
memoria dell’acqua, potesse essere prodotto; egli cominciò con l’ipotizzare che l’acqua poteva
agire come uno stampo per le molecole (anticorpi, come riportato nel suo lavoro), grazie ad una rete
di ponti idrogeno, oppure grazie a non ben specificati campi elettromagnetici.
Una tale ipotesi permise a fisici, chimici e biologi di intensificare le loro ricerche sulle proprietà
dell’acqua, che ancora oggi rimangono in parte sconosciute.
Per quanto riguarda le ricerche tendenti a convalidare l’originario esperimento di Benveniste, non
essendosi ottenute prove definitive e soddisfacenti, nel dicembre del 1993 fu pubblicato su Nature
uno studio dal titolo provocatorio: Human basophil degranulation is not triggered by very dilute
antiserum against human IgE. Sembrava così che si fosse posto definitivamente fine alla
controversa questione della memoria dell’acqua.
La “questione Benveniste” racchiude ancora oggi retroscena ambigui e dubbi, che però non devono
porre nel ombra la vita e il genio del medico francese: nonostante una possibile manipolazione dei
dati, e quindi l’ottenimento di falsi risultati, l’intuizione di Benveniste rimane estremamente
importante per l’impulso che diede alla ricerca. Senza il suo contributo non si sarebbe infatti
mobilitata una così gran quantità di squadre di ricercatori e non si disporrebbe oggi di risultati
concreti.
5.2
Luc Montagnier
Nel corso degli anni ’90 vennero dunque avviati diversi progetti interessati ad uno sviluppo della
teoria di Benveniste; di risultati se ne videro però pochi. Anche nel nuovo millennio gli studi
proseguono, senza però mostrare novità rilevanti.
Il colpo di scena avviene solo nel 2009, quando il virologo francese Luc Montagnier, professore
presso l’Istituto Pasteur di Parigi, premio Nobel per la medicina nel 2008 per la scoperta nel 1983
del virus HIV, pubblica i risultati di sue ricerche in grado di fornire una giustificazione teorica
dell’omeopatia. L’elemento alla base dei suoi esperimenti è sempre il quesito sull’esistenza della
memoria dell’acqua, rivisitata però da un punto di vista fisico grazie alla collaborazione dei fisici
Emilio Del Giudice e Giuseppe Vitiello (oltre a numerosi ulteriori collaboratori). La novità proposta
dai ricercatori è il ruolo dell’elettromagnetismo nelle interazioni biologiche: esso viene descritto
come un’ulteriore base della biologia in aggiunta alla già note basi chimiche.
Secondo Montagnier, le molecole hanno la capacità di mantenere inalterate le proprie capacità
biologiche anche se fortemente diluite nell’acqua, grazie alle proprietà elettromagnetiche
dell’acqua.
Le conclusioni a cui sembra essere giunto Montagnier essenzialmente derivano da quanto riportato
in due suoi lavori, pubblicati nel giugno e nel settembre 2009, che rispettivamente si intitolano:
Electromagnetic Signals Are Produced by Aqueous Nanostructures Derived from Bacterial DNA
Sequeces ed Electromagnetic Detection of HIV DNA in the Blood of AIDS Patients Treated by
Antiretroviral Therapy. Tali lavori sono stati pubblicati dalla rivista: Interdisciplinary Sciences:
Computational Life Sciences, stampata in Cina, il cui direttore editoriale è lo stesso Montagnier.
Il lavoro
Nei menzionati lavori è stato studiato il comportamento di un piccolo batterio, Mycoplasma pirum,
che solitamente si accompagna all’HIV (esso è stato già studiato da Montagnier nel corso delle sue
ricerche sull’HIV). Dopo essere stato isolato e purificato da una coltura di cellule mononucleate di
sangue periferico (linfociti e monociti, PBMCs) ottenute da sangue di pazienti infetti dal virus
d’immunodeficienza umana tipo 1, esso viene filtrato attraverso filtri Millipore aventi una porosità
di 100 nm o di 20 nm; il batterio, dalle dimensioni di circa 300 nm, non dovrebbe dunque essere
23
Nicolò Tamà
IV N
LAM 2012/2013
presente nel filtrato. La prima osservazione sorprendente sarebbe costituita dal fatto che nel filtrato,
teoricamente sterile, quando incubato con linfociti T umani attivi non infetti, si rigenerava il batterio
originario entro 2-3 settimane. Come conferma della sterilità del filtrato sono state effettuate delle
reazioni a catena della polimerasi (PCR e PCR nested) a partire da primer ottenuti dal gene
codificante per l’adesina (del batterio), polipeptide che media l’aderenza del batterio ai linfociti.
I risultati sono stati negativi e ciò conferma l’assenza di DNA batterico nel filtrato. L’analisi è stata
analogamente ripetuta con l’utilizzo di particelle responsabili dell’HIV del diametro di 100-120nm
e di filtri aventi una porosità di 20 nm; il risultato era anche in questo caso medesimo.
Questi inspiegabili risultati hanno portato Montagnier a chiedersi quali informazioni venissero
trasmesse nel filtrato acquoso. Secondo quanto ipotizzato dal ricercatore, i filtrati in questione
avrebbero la capacità di produrre onde elettromagnetiche di bassa frequenza (EMS o
electromagnetic signals). Tali onde potrebbero essere emesse a causa di un fenomeno di risonanza
stimolato da uno sfondo elettromagnetico ambientale, per cui viene ipotizzata la presenza nei filtrati
di nanostrutture polimeriche di definita dimensione capaci di generare EMS misurabili e associabili
alle onde registrate.
L’apparecchiatura impiegata per studiare la produzione di segnali elettromagnetici comprende un
solenoide (bobina cilindrica solitamente utilizzate come induttore per lo studio e le applicazioni
dell’elettromagnetismo), il quale cattura la componente magnetica delle onde prodotte dai filtrati in
esame posti in una provetta e converte tali segnali in correnti elettriche che vengono
opportunamente amplificate ed analizzate con uno specifico software.
Proseguendo le sue ricerche, Montagnier avrebbe trovato che anche frammenti di DNA di alcuni
batteri patogeni sono capaci di generare EMS. Nel caso del Mycoplasma pirum, non soltanto il gene
che codifica per l’adesina, utilizzato in precedenza per determinare la sterilità dei filtrati, sarebbe
stato in grado di generare EMS, ma anche dei suoi frammenti. Tale caratteristica sembrerebbe possa
essere estesa ad altri DNA batterici e virali, anche se non a tutti; alcuni batteri, in particolare i
batteri probiotici come il Lactobacillus, non produrrebbero EMS. Nei virus (ad esempio virus
dell’influenza oppure dell’epatite C) non sarebbe ancora chiaro se l’RNA virale e in generale
particelle virali siano o meno capaci di generare EMS. Nel caso dell’HIV, gli EMS non sarebbero
prodotti dall’RNA oppure da particelle virali, ma dal DNA provirale presente nelle cellule infette.
Secondo quanto riportato da Montagnier, sarebbero state dunque registrate onde elettromagnetiche
di frequenza molto bassa (ULF, Ultra Low Frequency, 400-3000 Hz) solo in alcune diluizioni di
filtrati (100 nm, 20 nm) di colture di microrganismi (virus, batteri) e in alcune diluizioni in acqua di
DNA estratto dai microrganismi in precedenza saggiati. I segnali elettromagnetici sarebbero stati
rilevati solo in alcune alte diluizioni acquose dei filtrati, diluizioni comprese tra 10-9 e 10-18; essi
non sarebbero inoltre correlati linearmente con il numero iniziale di cellule batteriche prima della
loro filtrazione e sarebbero Lo stesso risultato si ottiene con l’analisi del plasma infettato con gli
stessi agenti.
Il trattamento dei filtrati esaminati con RNasi A, DNasi I, lisozima e proteinasi K in sodio
dodecilsolfato 1% a 56°C per un’ora (tutti enzimi in grado di degradare la catena di RNA o di
DNA) sembrerebbe non sopprimere l’emissione di segnali elettromagnetici.
Come controllo sono stati inoltre utilizzati filtrati derivati da cellule non infetti: il fatto che essi non
producano EMS, avvalora l’ipotesi che i segnali elettromagnetici registrati siano generati da
nanostrutture derivate da microrganismi patogeni piuttosto che dai linfociti.
Un ulteriore esperimento è stato la riproduzione delle EMS in un campione di acqua “pura”. Dopo
aver determinato che solo alcune diluizioni di DNA virale producono le EMS tipiche del rumore
elettromagnetico di sottofondo, una provetta contenente una di queste soluzioni è stata inserita
insieme ad una provetta con dell’acqua pura in un contenitore in grado di registrare le onde
24
Nicolò Tamà
IV N
LAM 2012/2013
elettromagnetico. Esse vengono poi filtrate attraverso filtri 450 nm e 20 nm, per poi essere diluite,
ed in seguito sottoposte ad un campo elettrico di 7 Hz provocato da un solenoide. Dopo un
eccitazione dei campioni di 18 ore, anche il campione contenente acqua pura inizia a produrre EMS.
Infine si riproduce la sequenza di DNA, inizialmente estratta dalle sequenze terminali lunghe
ripetute (LTR) del DNA del virus, attraverso PCR, dunque fornendo tutti gli “ingredienti” essenziali
alla reazione, quali i nucleotidi, la taq polimerasi e i primer. Si conclude l’amplificazione con
l’elettroforesi su gel delle varie sequenze, che ha riportato i risultati sperati, ovvero il ritrovamento
del DNA inizialmente estratto. L’esperimento è stato ripetuto con successo ben 12 volte in
altrettanti tentativi.
Conclusioni
Da questi risultati Montagnier ha ipotizzato che il DNA dei microrganismi studiati, presente nei
filtrati, avrebbe la capacità di generare nanostrutture in soluzioni acquose emittenti per risonanza
specifiche onde elettromagnetiche a bassa frequenza, con bande presenti nel “rumore”
elettromagnetico di fondo.
Inoltre, il fatto che il trattamento enzimatico distruttivo delle sequenze polinucleotidiche (DNA e
RNA) sembrerebbe non inibire la produzione di onde elettromagnetiche sarebbe una ulteriore
prova, secondo Montagnier, del fatto che le nanostrutture prodotte non sono aggredibili da enzimi
che degradano il DNA, quindi non si tratterebbe della presenza di impurezze dovute ad una
scorretta filtrazione.
L’emissione di onde elettromagnetiche sarebbe invece irreversibilmente eliminata dal riscaldamento
dei filtrati (70°C per 30 minuti), mentre non avrebbe effetto il raffreddamento a -20°C o -60°C, così
come il trattamento con DMSO (dimetilsolfossido) al 10% ed una soluzione di formaldeide al 10%
(entrambi in grado di interferire con legami tra nucleotidi nel DNA).
Il trattamento con cationi di litio, che incide sui legami idrogeno delle molecole di acqua, riduce ma
non abolisce l’emissione di segnali elettromagnetici.
Secondo Montagnier, pertanto, il DNA avrebbe la capacità di inviare una sorta di impronta
elettromagnetica di se stesso a fluidi e a cellule, sfruttando la struttura dell’acqua.
Si concretizza dunque l’ipotesi avanza da Benveniste riguardo la capacità dell’acqua di
memorizzare le “informazioni” provenienti dai soluti in essa disciolti.
Grazie a queste proprietà, alcuni enzimi sarebbero poi in grado di riprodurre per il 98% copie del
DNA originario partendo da questa impronta e dai reagenti necessari per la sua amplificazione
(PCR).
Conseguenze
L’ambiente scientifico internazionale, in particolar modo i biologi, ha subito reagito con un
piuttosto diffuso scetticismo, dovuto alla difficoltà di verifica del contenuto delle affermazioni di
Montagnier. Le critiche principali mosse nei confronti dei risultati ottenuti sono la quantità
insufficiente di dati affidabili e di prove incontrovertibili di riproducibilità e la non adeguata
strumentazione. Inoltre, quanto sostenuto da Montagnier è in contrasto con alcuni principi basilari
della chimica e della fisica, e muterebbe completamente alcuni dogmi della biologia.
Alcuni ricercatori, in particolar modo chimici e fisici hanno invece intrapreso ricerche tendenti a
confermare la tesi di Montagnier. Fra essi vi è Emilio del Giuidice, operante presso l’Istituto di
Fisica Nucleare dell’Università di Milano, il quale, già collaboratore di Montagnier in occasione dei
primi lavori, ha sviluppato una teoria in grado di sostenere i risultati del 2009. Nel 2011 viene
dunque pubblicato sul prestigioso Journal of Physics un lavoro in cui viene riassunto quanto
scoperto in precedenza da Montagnier, con però l’aggiunta di un’ampia descrizione fisica dei
25
Nicolò Tamà
IV N
LAM 2012/2013
risultati. La squadra che ha portato avanti la ricerca comprende L. Montagnier, J. Aissa, E. Del
Giudice, C. Lavallee, A. Tedeschi e G. Vitiello.
Tenuto conto che alcuni studi di fisica indicano che le molecole d’acqua possono formare labili
aggregati o polimeri attraverso legami idrogeno, oppure potrebbero anche organizzarsi in cluster in
base ai campi elettromagnetici ai quali vengono esposte, Del Giudice e collaboratori hanno proposto
che l’acqua possa essere organizzata in reti di domini di coerenza che coinvolgono milioni di
molecole di acqua che potrebbero avere le dimensioni delle proposte nanostrutture di Montagnier.
Secondo il fisico italiano, questi dati sorprendenti sono dunque spiegabili con il concetto di
coerenza della “Teoria quantistica dei campi”, in particolar modo con lo sviluppo che ebbe negli
anni ’90 con gli studi del fisico Giuliano Preparata (suo collaboratore all’epoca).
Una molecola, entrando in contatto con delle molecole d’acqua, dunque istaurando legami idrogeno
con esse, sarebbe in grado di modificarne la geometria intermolecolare. Sempre secondo la teoria
quantistica dei campi, in questi domini di coerenza, che avrebbero una dimensione di decine di
micron (10-6 m), milioni di molecole oscillerebbero all’interno di un campo elettromagnetico di tipo
coerente, protetto da legami di idrogeno con entropia (qui per entropia ci si riferisce al grado di
organizzazione intermolecolare) costante all’interno.
Inoltre, il fatto che le molecole d’acqua, legate alla doppia elica di DNA attraverso legami idrogeno,
contribuiscono alla stabilità di quest’ultimo mediante interazioni diverse per ciascuna base, ha
portato Del Giudice a ipotizzare che le nanostrutture di Montagnier potrebbero automantenersi
attraverso le onde elettromagnetiche che emettono conservando l’informazione genetica del DNA.
Per quanto riguardo lo scetticismo concettuale scaturito in seguito alle pubblicazioni, sembra
dunque assurdo, ad esempio, l’ipotesi che le molecole di acqua, collegate da legami idrogeno che
durano soltanto circa un pirosecondo (10-12 secondi) prima di rompersi e di riformarsi, possano in
qualche modo aggregarsi in durevoli strutture aventi l’impronta del DNA.
Contestualizzazione nell’ambito omeopatico
Grazie ai risultai ottenuti, l’omeopatia assume dei contorni scientifici più concreti; sono infatti
evidenti le possibili applicazioni della memoria dell’acqua nel contesto omeopatico. Tuttavia, tali
risultati non sono sufficientemente resistenti per sostenere da soli l’enorme peso della critica ad essi
avversa, e rischiano di conseguenza di non venire accettati dalla comunità scientifica.
Per questa ragione l’omeopatia necessita adesso più che mai del contributo di tutti i ricercatori
disposti a mettersi al lavoro nella ricerca di una concretizzazione delle teorie di Montagnier.
Alcuni chimici e biologi si sono infatti immediatamente attivati e sono state condotte negli ultimi
anni diverse ricerche indirizzate in questo verso. Le analisi effettuate concernono specialmente il
confronto tra le proprietà di soluzioni estremamente diluite (di rimedi omeopatici e non) ed acqua
pura; si ricorre spesso alla titolazione pH metrica, misura del pH della soluzione, alla titolazione
conduttimetrica, che guarda alla variazione di conducibilità in relazione al titolante aggiunto, alla
calorimetria isotermica di titolazione, che permette di determinare quantitativamente l'entalpia di
unione di una molecola o di un complesso molecolare, alla misura della densità ed all’analisi della
luminescenza.
Di particolare rilievo sono le pubblicazioni del chimico italiano Vittorio Elia del dipartimento di
chimica dell’università Federico II di Napoli, il quale ha ottenuto alcune conferme dei risultati degli
esperimenti di Montagnier nell’analisi delle proprietà fisico-chimiche delle soluzioni da lui
selezionate.
26
Nicolò Tamà
IV N
LAM 2012/2013
Parte sperimentale
1
Introduzione
Prendendo spunto dalle ricerche condotte nel passato, e avendo la possibilità di usufruire degli
strumenti messi a disposizione dalla scuola, è nato all’interno del mio lavoro di maturità un piccolo
progetto di ricerca. Determinante è stato il contributo di Andrea Danani, professore e capo progetto
presso la Scuola universitaria professionale della Svizzera italiana (SUPSI), il quale, oltre ad aver
indirizzato la mia ricerca nel campo degli studi scientifici finora condotti, ha inizialmente proposto
diverse analisi da condurre in collaborazione con l’istituto da lui rappresentato. Il contatto tra le due
parti si è creato grazie al comune interesse di indagare sul funzionamento dell’omeopatia e sulla
scoperta di nuove proprietà dell’acqua; tale collaborazione è inoltre nata dalla disposizione del liceo
Lugano 1 di strumenti d’analisi all’avanguardia che hanno suscitato l’interesse del prof. Danani.
L’ambiente scientifico ticinese, in questo caso rappresentato dalla SUPSI, sembra intenzionato a
promuovere questo campo della ricerca; una testimonianza è proposta dal convegno internazionale
(organizzato dal professor Danani e dalla SUPSI) tenutosi il 18 e 19 maggio 2012 presso il Palazzo
dei Congressi di Lugano, durante il quale sono stati approfonditi alcuni aspetti della biofisica
applicata alla medicina grazie al contributo dei massimi esperti del settore. Vi hanno infatti preso
parte personaggi del calibro di Emilio del Giudice, già citato in precedenza in quanto collaboratore
di Montagnier, e di Gerald Pollack, professore e ricercatore presso la University of Washington
noto per gli studi sulle proprietà dell’acqua da molti definiti rivoluzionari.
Le notevoli aspettative incentrate sul lavoro sono però, purtroppo, state limitate dalla strettezza del
tempo a disposizione, per cui si è optato per la riduzione del quantitativo di test da effettuare, di
modo da ottenere risultati sufficientemente concreti.
Trattandosi di un lavoro incentrato sull’omeopatia, lo scopo prefissato in partenza è stato dunque il
tentativo di ricercare nei preparati omeopatici dei segni della loro efficacia, tra i quali, ad esempio,
la presenza di principio attivo. Il laboratorio scolastico dispone di macchinari recentemente
acquistati finalizzati a ricerche di tipo analitico (sia quantitativo che qualitativo), quindi tra essi
sono stati selezionati i due più interessanti per il fine del mio lavoro, ovvero un voltametro e uno
spettrofotometro FTIR.
La prima parte sperimentale consiste dunque, oltre che nell’impostazione del lavoro, nello studio
degli strumenti e in un loro primo utilizzo finalizzato all’acquisizione di maggiore pratica in vista
delle analisi effettive. Tale ostacolo non è da sottovalutare, in quanto, nonostante la facilità di
utilizzo dei macchinari, per comprendere il loro funzionamento, ed interpretare correttamente i
risultati ottenuti, bisogna possedere le adeguate conoscenze chimiche teoriche. In seguito proporrò
infatti una loro breve descrizione. Il passaggio successivo è stata l’esecuzione delle analisi, che
hanno portato, come si presupponeva, all’ottenimento di parziali risultati; le due tecniche utilizzate
si prestano infatti solo in parte allo scopo da noi ricercato.
27
Nicolò Tamà
2
2.1
IV N
LAM 2012/2013
Preparazione dei campioni
Bidistillazione di acqua deionizzata
Per preparare le soluzioni d’analizzare è stata necessaria la scelta di un solvente che simulasse il più
possibile le condizioni di assunzione dei rimedi omeopatici. Osservando il fatto che i granuli
vengono solubilizzati in bocca, dunque nella saliva, si è optato per l’acqua. Per eliminare le
possibili impurezze presenti in essa, quindi per evitare che esse influenzino le analisi, abbiamo
deionizzato ed in seguito bidistillato (distillata due volte) dell’acqua corrente. L’acqua corrente
viene deionizzata da uno strumento presente nel laboratorio scolastico che indica anche la sua
conducibilità dopo la deionizzazione, che nel nostro caso vale 0,10 µS/cm. La distillazione è poi
avvenuta in due tappe, a cavallo tra le vacanze estive: il primo distillato, ottenuto a giugno e
conservato nel corso dell’estate in un pallone da laboratorio in vetro duran, è stato nuovamente
sottoposto alla tecnica a settembre, producendo 1 L di acqua bidistillata, anch’essa conservata in un
pallone da laboratorio. La pressione atmosferica a cui sono avvenute entrambe le distillazioni era di
985 mbar. L’utilizzo di un pallone in vetro duran come contenitore permette di ipotizzare che alcuni
silicati solubili costituenti il pallone si siano disciolti nel corso della conservazione del solvente;
potendo trattarsi di sostanze in grado di influenzare la determinazione polarografica (per la quale
abbiamo utilizzato l’acqua bidistillata come solvente), abbiamo deciso di eseguire l’analisi
dell’acqua di modo da sottrarre i risultati ottenuti a quelli dell’analita, ovvero l’analisi del bianco.
Il materiale utilizzato consiste nei classici componenti della distillazione frazionata, quali una
colonna di frazionamento per la distillazione frazionata, un pallone contenente l’acqua da distillare
e delle sfere di vetro per evitare la formazione di grandi bolle durante la fase di ebollizione del
liquido, un tubo di raffreddamento contenente acqua corrente collegato a tubi in entrata e in uscita,
un manto riscaldante, le varie guarnizioni, i vari tappi di vetro opportunamente fissati con mollette
di sicurezza, un termometro, un matraccio per la raccolta del liquido distillato e un foglio di
alluminio per diminuire le perdite di calore. Il tutto viene sostenuto da due supporti con le relative
pinze.
3
3
Fotografia del processo di distillazione avvenuto a scuola.
28
Nicolò Tamà
2.2
IV N
LAM 2012/2013
Selezione del rimedio omeopatico da analizzare
Nella scelta del rimedio più consono alle due tecniche d’analisi è stato determinante il contributo
della farmacia Solari, in particolar modo del farmacista Pier Luigi Poletti, che merita i miei
personali ringraziamenti per l’interesse mostrato nei confronti del mio progetto. Essi sono stati
molto disponibili nel fornire le informazioni relative all’offerta di prodotti omeopatici in
commercio, e hanno inoltre permesso il contatto con la ditta Boiron, la quale ha gentilmente messo
a disposizione alcune pubblicazioni scientifiche di ricercatori degli ultimi anni.
Il principale criterio da soddisfare nella scelta del rimedio è stata la ricerca di un principio attivo che
potesse essere rintracciato dal voltametro. Disponendo di una lista di tutti i possibili test eseguibili
con questa tecnica, la scelta è ricaduta sul prodotto Ferrum Phosphoricum.
La tecnica d’analisi voltammetrica si basa, come verrà descritto in seguito, sulla reazione di
ossidoriduzione di ioni; per cui il campione da noi analizzato, se disciolto in acqua, deve dissociarsi
nei rispettivi cationi ed anioni.
Questo rimedio contiene come principio attivo una miscela di fosfato ferrico (FePO4), ossido di
ferro idrato (Fe2O3·3H2O) e fosfato ferroso idrato (Fe3(PO4)2·8H2O), o vivianite, che impregna dei
granuli di lattosi di massa 50 mg; la diluizione selezionata per le analisi è la 5 CH.
Il fosfato di ferro può, come viene indicato dalla stessa Boiron (la ditta che ha prodotto i granuli),
anche essere prodotto chimicamente facendo reagire solfato di ferro (FeSO4), fosfato di sodio
(Na3PO4) e acetato di sodio (CH3COONa).
Tutti i tre tipi di sostanze, in quanto sali, possono dare vita a ioni Fe2+ e Fe3+ in grado di reagire nel
voltametro.
Tale rimedio viene utilizzato in omeopatia nel corso di infezioni ed infiammazioni, in particolar
modo nella cura di malattie bronchiali e polmonari, febbre, cefalee, mal d'orecchie e in alcuni
disturbi reumatologici. Si riscontra una maggiore efficacia all’inizio dell’infiammazione.
4
5
A destra un contenitore di Ferrum Phosphoricum 5 CH prodotto da Boiron, a destra un cristallo di fosfato di
ferro.
4
5
Fotografia scattata in laboratorio.
Immagine tratta dal sito: << http://toppara.ma/homeopathie/2049-ferrum-phosphoricum-5ch-boiron.html>>
29
Nicolò Tamà
IV N
LAM 2012/2013
3 Analisi di voltammetria e polarografia
3.1
Funzionamento dello strumento e descrizione della tecnica
La tecnica analitica su cui ho principalmente incentrato il lavoro di maturità è la voltammetria. Il
laboratorio scolastico dispone di un voltametro Metrohm 797 VA Computrace, recentemente
acquistato, che permette di effettuare analisi quantitative e qualitative particolarmente accurate;
introducendo la tecnica nel contesto delle nostre analisi, lo scopo consisterebbe nella ricerca della
presenza di principio attivo e della sua concentrazione.
La voltammetria e la polarografia sono tecniche d’analisi elettrolitica che si basano sulla misura
della corrente che attraversa un elettrodo immerso in una soluzione contenente specie elettroattive,
che dunque reagiscono ad un potenziale elettrico applicato all’elettrodo. Ci si trova quindi nel
contesto della chimica elettroanalitica, nel quale viene studiato il comportamento di alcune sostanze
sottoposte al passaggio di elettricità; in particolar modo avviene, come nel nostro caso, lo studio
delle reazione di ossidoriduzione.
Queste due tecniche si distinguono per il funzionamento degli elettrodi, che variano da due a tre; nel
nostro caso disponiamo dell’elettrodo di lavoro, dell’elettrodo di riferimento e dell’elettrodo
ausiliare, o controelettrodo. La differenza sta nel funzionamento dell’elettrodo di lavoro (Working
Electrode, WE): esso consiste nella parte del macchinario dove avviene la reazione ed è formato in
voltammetria da un microelettrodo solido o a singola goccia di mercurio pendente da un capillare
(HDME), mentre in polarografia dal medesimo capillare da cui avviene la ritmica caduta di gocce di
mercurio(DME).
Oltre a questo tipo di elettrodo vi sono dunque gli altri due elettrodi di supporto che permettono il
controllo del potenziale dell’elettrodo di lavoro; ovvero l’elettrodo ausiliario (Auxiliar Electrode,
AE) e l’elettrodo di riferimento (Reference Electrode, RE), che in caso di assenza dell’elettrodo
ausiliario funge da controelettrodo. Un circuito elettrico esterno è dunque collegato ai tre elettrodi,
che trasferiscono la sollecitazione elettrica proveniente dal circuito alla soluzione contenuta nella
cella a tre elettrodi, che risponde con una reazione chimica e la formazione di una corrente elettrica.
Al circuito elettrico sono evidentemente collegati un amperometro e un voltmetro per la misura
dell’intensità di corrente elettrica e del potenziale elettrico.
La tecnica da noi utilizzata è quella più antica, ovvero la polarografia, la quale permette di
descrivere al termine dell’analisi un polarogramma (anche denominato onda polarografica), che ci
rende le informazioni necessarie per la determinazione quantitativa e qualitativa del campione
analizzato.
La reazione
L’agente chimico rintracciato nell’analisi è sempre uno ione (Aox/Ared) in grado di:
• ridursi grazie al prelevamento di elettroni provenienti dall’elettrodo di lavoro (dal mercurio, che
si ossida) nella sua forma ridotta (Ared);
• ossidarsi cedendo elettroni al mercurio (che si riduce) nella forma ossidata (Aox).
Ciò dipende chiaramente dallo ione analizzato, che chiameremo analita.
La reazione di ossidoriduzione può essere riassunta nella formula
-
Aox + ne ⇆ Ared
Siccome nel nostro caso analizzeremo un catione con l’elettrodo di lavoro impostato come DME,
verrà descritta in questo capitolo l’analisi polarografica di una specie ossidata (Aox), dunque la sua
riduzione.
Determinante perché avvenga la reazione è il potenziale elettrico imposto all’elettrodo: affinché
avvenga lo spostamento ionico verso l’elettrodo e si generi una corrente elettrica, all’elettrodo deve
30
Nicolò Tamà
IV N
LAM 2012/2013
essere imposto un potenziale nettamente riducente rispetto al potenziale standard di riduzione (ϕ0)
della specie Aox. Esso consiste in un potenziale elettrico che determina la spontaneità della reazione
all’elettrodo; nel nostro caso, dunque per la reazione di ossidoriduzione degli ioni Fe2+ (e Fe3+),
ovvero Fe2+(aq) + 2e- → Fe(s), otteniamo un potenziale di riduzione pari a -0,41V.
Il processo di scarica è governato da due fattori cinetici, che consistono nella velocità con cui le
specie chimiche arrivano sulla superficie dell’elettrodo, e nella velocità di scambio degli elettroni
fra l’elettrodo e la soluzione. Il confronto tra queste due grandezze determinerà poi l’andamento del
polarogramma.
I processi che sono alla base della scarica di Aox sull’elettrodo di lavoro, e quindi della corrente che
viene misurata, sono essenzialmente tre:
• Convezione: spostamento dell’analita insieme al solvente dovuto all’agitazione della soluzione;
• Migrazione: movimento che si crea dalla forza di attrazione del campo elettrico generato
dall’elettrodo nei confronti di ogni ione di carica opposta alla propria;
• Diffusione: movimento spontaneo delle specie chimiche in soluzione generato dal gradiente di
concentrazione.
Siccome in polarografia viene monitorata la corrente di diffusione (Id), in quanto è proporzionale
alla concentrazione ionica nella soluzione, bisogna eliminare tutti quei fattori che provocherebbero
uno spostamento di ioni non dovuto al gradiente di concentrazione, dunque i movimenti di
migrazione e convezione.
Per far avvenire la reazione correttamente si devono dunque adottare alcuni accorgimenti:
• La temperatura deve rimanere costante nel tempo e in tutti i punti della soluzione;
• Non si deve agitare la soluzione per tutta la durata dell’analisi, di modo da eliminare la
convezione;
• Si neutralizza il campo elettrico generato dall’elettrodo di lavoro introducendo nella soluzione
particolari elettroliti, denominati elettroliti di supporto, che devono essere inerti all’analita, non
devono ostacolare la diffusione dell’analita e lo scambio elettronico, devono avere un potenziale
di scarica molto diverso da quello del depolarizzante e devono avere un elevata conducibilità
elettrica. La loro presenza è essenziale, in quanto riducono al minimo l’attrazione elettrostatica
dell’elettrodo di lavoro e limitano la migrazione.
Il gradiente di concentrazione di Aox è dunque generato dalla riduzione degli ioni a contatto con
l’elettrodo di lavoro, in quanto si viene a creare una zona priva di ioni in contrapposizione ai punti
della soluzione con alta concentrazione di ioni; in questo modo si attiva lo spostamento, che
inseguito si autoalimenta. Ciò verrà spiegato nel paragrafo seguente.
Polarogramma
In un polarogramma troviamo:
• nell’asse delle ascisse la differenza di potenziale elettrico (∆ϕ) tra potenziale all’elettrodo e
potenziale standard di riduzione;
• nell’asse delle ordinate l’intensità di corrente elettrica (I).
In esso si possono individuare tre fasi distinte:
A. Nel tratto iniziale si manifesta la corrente residua (nel grafico corrente di carica), che viene
prodotta da fenomeni esterni allo spostamento ioni (come la corrente generata dall’elettrolita di
supporto o da altre impurezze della soluzione), in quanto il potenziale elettrico applicato
31
Nicolò Tamà
IV N
LAM 2012/2013
all’elettrodo è troppo alto rispetto al potenziale standard di riduzione per far si che la riduzione
avvenga con sufficiente velocità;
B. Diminuendo il potenziale elettrico (cioè rendendolo più riducente), esso si avvicina sempre di
più al potenziale standard di riduzione della coppia redox, per cui prende il via la riduzione.
Diminuendo la concentrazione di analita vicino all’elettrodo, si crea un gradiente di
concentrazione, che genera lo spostamento ionico spontaneo. Il numero di ioni che raggiunge
l’elettrodo nell’unità di tempo (cioè la velocità di diffusione) è infatti proporzionale al gradiente
di concentrazione.
Di conseguenza, sempre più ioni si ridurranno all’elettrodo nell’unità di tempo, sempre più
analita in forma ridotta sarà presente nei pressi dell’elettrodo e sempre più piccolo sarà il
rapporto Aox/Ared. Quando la metà degli ioni che raggiungono l’elettrodo si scaricano, e quindi il
rapporto precedentemente citato diventa uguale a 1, la differenza di concentrazione è pari alla
metà della concentrazione stessa. La corrente che attraversa il circuito in questo momento è
dunque la metà della corrente massima e il potenziale corrispondente viene detto potenziale
mezz’onda ϕ1/2 (il punto di flesso nel grafico, V1/2). Questo valore è molto importante, perché
non si discosta molto dal potenziale standard di riduzione della coppia redox, quindi è un
parametro in grado di caratterizzare qualitativamente una coppia redox e di riconoscerne la
presenza in soluzione. In questo modo avviene l’analisi qualitativa dell’analita.
C. Superato il punto ϕ1/2 (punto di flesso del grafico) la crescita della curva rallenta fino a
stabilizzarsi e raggiungere un plateau in cui la corrente, chiamata corrente limite, non aumenta
più in funzione della differenza di potenziale (il potenziale è adesso molto negativo rispetto al
potenziale standard della coppia). In questa fase ogni ione che giunge all’elettrodo viene
immediatamente scaricato, quindi la sua concentrazione intorno all’elettrodo è pari a 0; di
conseguenza, la differenza di concentrazione rispetto al resto della soluzione raggiunge il valore
massimo, che dipende solo dalla concentrazione iniziale, che non cambia durante la scarica
perché il processo coinvolge una quantità ridotta di ioni rispetto al totale. La riduzione è ora
spontanea.
C
B
A
Polarogramma in cui sono evidenti le tre fasi (A,B,C).6
La corrente limite risulta direttamente proporzionale alla concentrazione delle specie elettroattive, il
che permette di calcolare la concentrazione a partire dalla corrente misurata e da K, che consiste in
una costante dipendente da molteplici fattori, quali il coefficiente di proporzionalità, il numero di
elettroni scambiati dallo ione in esame, la costante di Faraday, il coefficiente di diffusione, la massa
6
Polarogramma ideale tratto dal sito: <<http://it.wikipedia.org/wiki/File:Polarogramma.gif>>
32
Nicolò Tamà
IV N
LAM 2012/2013
di mercurio fuoriuscita nell’unità di tempo e il tempo occorrente per la formazione e il distacco di
una goccia. Fissate tutte le condizioni operative, si possono raccogliere tutte le costanti in un’unica
costante K che, introdotta nell’equazione di Ilkovic, porta alla relazione: Id = K.[Aox]
La curva sigmoidale può essere elaborata matematicamente per ottenere la funzione derivata prima,
che consiste in un tracciato a forma di picco, di cui è possibile rintracciare con più facilità sia
l’altezza, ossia Id, sia il potenziale di picco, che corrisponde a ϕ1/2. Nel nostro caso, tutti i
polarogrammi saranno nella loro forma derivata.
Questo metodo, denominato assoluto, è rigoroso però soltanto se vengono utilizzati i valori standard
reperibili in letteratura delle costanti di K, sempre che essi siano tutti conosciuti; altrimenti bisogna
utilizzare un metodo alternativo, ossia il metodo di confronto.
Metodo di confronto
Il metodo di confronto da noi utilizzato è il metodo delle aggiunte multiple di standard, in
alternativa esiste anche il metodo di confronto con uno standard e il metodo della retta di taratura,
che non andrò però ad analizzare.
Innanzitutto bisogna descrivere l’utilità dello standard; esso consiste in una soluzione a
concentrazione nota della specie ionica che dobbiamo analizzare, dunque il nostro analita, che
aggiungiamo ripetutamente al campione posto in analisi. La sua utilità sta nel fatto che
introducendo la stessa quantità di analita (una determinata aliquota a VST e CST), possiamo ricavare
dal polarogramma più volte Id (l’altezza del picco o dell’onda) in relazione ad una precisa
concentrazione, per cui, possedendo una serie di valori di entrambi i dati, posso tracciare un grafico
dell’intensità in funzione della concentrazione. Si traccia infine la retta interpolando i punti
sperimentali e si estrapola fino ad intersecare il semiasse negativo di C; quindi si legge direttamente
nel punto d’intersezione il valore della concentrazione dell’analita studiato.
Completando il discorso teorico iniziato in precedenza, la pendenza della retta definisce il valore
del coefficiente K dell’equazione di Ilkovic; si può, infatti, giungere allo stesso risultato
matematicamente formulando l’equazione Id(V0+Vst) = K.C0V0 +K.CstVst .
Standard 2
Standard 1
Analita
Derivata prima del grafico dell’intensità di corrente elettrica in funzione del potenziale elettrico di
un’analisi con aggiunte multiple di standard (2aggiunte).7
7
Immagine tratta dall’analisi del campione omeopatico digerito eseguita in laboratorio (vedi capitolo seguente).
33
Nicolò Tamà
IV N
LAM 2012/2013
Estrapolazione della retta, rapporto tra intensità di corrente e concentrazione dell’analita.8
Ulteriori accorgimenti
Il diossigeno (O2) disciolto in soluzione potrebbe influenzare i risultati in quanto tende a ridursi
come qualsiasi altro analita, il che provocherebbe nel polarogramma dei picchi non ricercati. Esso si
può ridurre ad H2O2 (perossido di idrogeno), in una prima fase, ad una differenza di potenziale pari
-0,14 V, ed a H2O a -0,9 V, per cui si avrebbero due onde di uguale lunghezza a tali potenziali.
Le reazione sono schematizzabili nelle seguenti equazioni:
-
1. O2 + 2H+ + 2e ⇆ H2O2
(ϕ0 = 0,68 V)
2. O2 + 4H+ + 4e- ⇆ 2H2O
(ϕ0 = 1,23 V)
La soluzione più adatta a tale problema consiste nel far gorgogliare per un certo lasso di tempo, nel
nostro caso 300s, del diazoto (N2) nella soluzione di modo da eliminarlo prima dell’analisi e tra
un’analisi e l’altra (per evitare il suo riassorbimento in soluzione).
Sensibilità e accuratezza
L’accuratezza di questa tecnica è particolarmente elevata; la presenza di incertezze dipende
principalmente dall’influsso di alcune delle variabili di K, come la temperatura, che deve rimanere
costante; il tempo di caduta della goccia di mercurio; gli strumenti utilizzati.
La sensibilità raggiunge concentrazioni in ppm (mg/L) e volumi in µL (10-6 L).
Metrohm 797 VA Computrace
Il macchinario utilizzato per le analisi svolge sia analisi voltammetriche sia analisi polarografiche;
la differenza sta nel funzionamento dell’elettrodo di lavoro (WE). Come già descritto nei paragrafi
precedenti, se si tratta di un elettrodo a goccia di mercurio, il capillare di tale elettrodo può essere
impostato per la caduta delle gocce di mercurio in diverse modalità. Nel caso della polarografia la
caduta è continua e l’elettrodo è definito DME (Dropping Mercury Electrode) nel caso la fuoriuscita
è continuata, oppure SMDE (Static Mercury Drop Electrode) se il tempo di sospensione è più
lungo; nella voltammetria una sola goccia può rimanere sospesa dal capillare per tutto il tempo di
reazione, dunque si tratta di HMDE (Hanging Mercury Drop Electrode). La modifica del tempo di
sospensione influenza anche il volume e la massa della sfera di mercurio e di conseguenza i
8
Immagine tratta dall’analisi dell’acido fosforico eseguita in laboratorio (vedi capitolo seguente).
34
Nicolò Tamà
IV N
LAM 2012/2013
parametri della reazione di ossidoriduzione. Sono inoltre disponibili per analisi voltammetriche
elettrodi a disco rotante composti da metalli nobili come oro, argento e platino.
L’elettrodo di riferimento (RE) è composto invece da un rivestimento contenente una soluzione di
cloruro di potassio (KCl) a concentrazione 3 mol/L con purezza del 99 % e una cella al cui interno
si trova una miscela di argento e cloruro d’argento (Ag/AgCl) tipica di elettrodi di questo tipi.
L’elettrodo mantiene le sue proprietà di riferimento, ovvero il fatto di non essere polarizzabile (ha
un potenziale elettrico costante) a differenza dell’elettrodo di lavoro. L’elettrodo ausiliario (AE), il
cui unico compito è quello di garantire il passaggio di corrente elettrica attraverso la cella
elettrochimica, è costituito da platino.
Sulla sinistra il sistema di pompaggio, sulla destra il voltametro.
Cella contenente i tre elettrodi.
35
Nicolò Tamà
3.2
IV N
LAM 2012/2013
Procedimento, risultati e conclusioni
La scelta del metodo d’analisi è correlata al ritrovamento di un campione omeopatico adatto al
analisi voltammetrica, ovvero il già menzionato Ferrum Phosphoricum. Esso può dissociarsi, a
partire dai composti che lo costituiscono, in ioni Fe2+ e Fe3+, per cui abbiamo cercato un metodo in
grado di determinare questo tipo di ione in tracce in diverse sostanze. L’offerta per lo studio del
ferro è molto ampia, però non vi è un metodo per la determinazione di ferro in acqua, quindi la
scelta è ricaduta sulla determinazione di ferro in acido fosforico (codice del metodo: V – 129), in
quanto è possibile rintracciare con questo metodo quantità molto piccole (ppm) di ferro sia nella
forma Fe2+ che Fe3+. Bisogna tuttavia considerare che il fosfato ferrico e il fosfato ferroso sono sali
poco solubili in acqua e che l’ossido ferrico è addirittura insolubile.
La diluizione di rimedio omeopatico utilizzata nelle analisi consiste in una 5 CH, la cui
concentrazione di principio attivo è pari a 10-10 g/mL (= 10-4 mg/L), per cui ancora all’interno di
quell’ipotetico intervallo di diluizioni in cui il principio attivo è ancora, anche se solo in parte,
presente nel campione.
Procedimento
Il metodo prevede l’utilizzo dell’elettrodo di lavoro in modalità SMDE, per cui si tratta di un analisi
polarografica. L’elettrolita di supporto necessario per la reazione consiste in ossalato d’ammonio
con concentrazione pari a 0,25 mol/L portato a pH 2 e con l’aggiunta di acido solforico. Per la sua
preparazione sono stati usati 8,88 g di ossalato d’ammonio idrato solido, ovvero (COONH4)2·H2O,
che abbiamo solubilizzato in 250 mL d’acqua precedentemente bidistillata. Dopo aver tarato il
piaccametro con un tampone pH 4, e aver opportunamente risciacquato la sonda, abbiamo aggiunto
alcune gocce di acido solforico (c(H2SO4) = 3M) fino a raggiungere pH 2.
Adottando il metodo delle aggiunte standard, abbiamo in seguito preparato lo standard; la prima
sostanza scelta per la sua preparazione è stata il fosfato ferroso Fe3(PO4)2, che tuttavia si è rivelato
essere poco adatto a tale compito, poiché si tratta di un sale poco solubile, la cui concentrazione non
può essere accertata se ridotto a minime quantità. Dopo aver notato che le analisi venivano di
conseguenza alterate, abbiamo deciso di utilizzare un altro standard, più solubile, ovvero un cloruro.
Siccome il metodo richiede uno standard con concentrazione pari a 5 ppm (mg/L), abbiamo
misurato 29,03 g di cloruro di ferro tatraidrato (FeCl3·4H2O) che abbiamo solubilizzato dapprima in
100 mL di acqua bidistillata. In seguito abbiamo prelevato 5 mL di soluzione, che abbiamo portato
nuovamente ad un volume pari a 100mL solubilizzandolo in acqua; in questo modo, con gli
adeguati calcoli stechiometrici risulta che la concentrazione di nuclei di ferro è pari a 5 ppm.
Preparazione dei campioni:
Per rendere l’analisi il più completo possibile abbiamo deciso di studiare 6 diversi tipi di campione.
Innanzitutto vi è il bianco, costituito soltanto da acqua, il cui scopo è la determinazione della
possibile presenza di ferro nell’acqua utilizzata come solvente e nell’elettrolita di supporto, ovvero
l’ossalato. Il risultato ottenuto verrà poi sottratto a quello dell’effettivo analita di modo da eliminare
le possibili impurezze presenti in esso. Un altro campione consiste nei granuli solubilizzati in
acqua: siccome la loro comune somministrazione prevede la dissoluzione di 3-5 granuli nella saliva
contenuta dalla bocca (4-5 mL), abbiamo simulato le condizione solubilizzandone uno ogni
millilitro d’acqua. Considerando una massa di circa 50 mg, la concentrazione è pari a 50 mg/mL.
Trattandosi come linea di principio della determinazione del ferro nell’acido fosforico (H3PO4),
abbiamo anche analizzato la sua presenza in acido fosforico (liquido) purissimo.
Giusto per verificare possibili cambiamenti nella determinazione abbiamo inoltre studiato un
campione composto da acido fosforico e granuli solubilizzati in acqua.
Infine, valutando la possibilità che il lattosio, diluito a sua volta insieme al principio attivo, possa
influenzare la determinazione, abbiamo sottoposto separatamente 10 mL di acqua, e 10 mL di
36
Nicolò Tamà
IV N
LAM 2012/2013
soluzione di granuli con concentrazione pari a 50 mg/mL ad un processo di digestione. Sono stati
aggiunti ai due campioni 100 µL di acido cloridrico 36% (HCl) e 100 µL di perossido di idrogeno
(H2O2) ed è stato allestito l’impianto di digestione. Il pallone contenente il campione è stato
riscaldato con un manto riscaldante, che ha favorito le reazioni tra i vari reagenti; i vapori prodotti
sono poi stati raffreddati dalla colonna di frazionamento montata sopra al pallone al cui interno
scorreva acqua a bassa temperatura, permettendo dunque la loro continua condensazione. Abbiamo
dunque ottenuto due diversi digeriti: uno, ovvero i granuli solubilizzati in acqua digeriti, contenente
principio attivo e le nuove sostanze prodotte (eventualmente anche i reagenti d’eccesso), ma privo
di lattosio, uno, ovvero il bianco digerito, contenente soltanto acqua e gli eventuali prodotti della
digestione (o eventualmente i reagenti d’eccesso). Abbiamo infine opportunamente filtrato entrambi
con carta assorbente per rimuovere i prodotti insolubili.
Il quantitativo di campione da porre nella cella elettrochimica ad ogni analisi corrisponde sempre a
10 µL, escluso il caso del campione formato da acido fosforico e granuli disciolti, in quanto
vengono utilizzati 10 µL di entrambi. L’elettrolita di supporto va aggiunto sempre in un quantitativo
di 10 mL e lo standard viene introdotto dopo l’analisi del campione, in due diversi momenti, in un
quantitativo di 5 µL (aliquota VST).
La reazione:
Innanzitutto viene svuotata la cella contenente cloruro di potassio (utilizzato per conservare gli
elettrodi) da parte del sistema di pompaggio collegato a due taniche contenenti gli scarti e il liquido
per il lavaggio; in seguito si aggiunge l’elettrolita e il campione. Dopo il test degli elettrodi, essi
vengono disaerati per mezzo di diazoto introdotto da una bombola ad una pressione di 1,5 atm per
300 secondi; viene inoltre utilizzato un agitatore. Si avvia dunque la reazione, che viene ripetuta
due volte: il potenziale di partenza è 0,12 V e la reazione si conclude a -0,3 V. A questo punto
avviene la prima aggiunta di standard, che verrà brevemente (∼10 sec) degassificato e poi due volte
analizzato; ciò si ripete per la seconda aggiunta. Terminata la reazione, la cella viene risciacquata
tre volte (25 secondi ognuna) con acqua proveniente dalla tanica contenente il liquido per il
lavaggio. Infine il computer esegue i calcoli che portano alla realizzazione del polarogramma
dell’intensità di corrente elettrica in funzione del potenziale elettrico (è visibile soltanto la derivata
prima del grafico) e dell’intensità in funzione della concentrazione.
Determiniamo dunque quantitativamente e qualitativamente il campione.
Risultati
Le analisi dei diversi campioni sono state eseguite senza particolari difficoltà; grazie ai primi test
con alcuni campioni di prova ed allo studio dei singoli componenti dello strumento abbiamo
acquisito sempre più praticità ed infine abbiamo potuto eseguire tutte le analisi in soltanto due
incontri (ogni analisi è durata all’incirca 15 minuti). La preparazione dei campioni ha impiegato
diverse ore di lavoro soprattutto a causa del lungo tempo di distillazione e digestione e dell’errore
nella scelta della sostanza da utilizzare come standard.
Al termine delle sei analisi il software ha prodotto una scheda riassuntiva dei risultati (allegata al
termine del lavoro), che indica essenzialmente concentrazione, intensità di corrente elettrica e
potenziale elettrico rilevati ad ogni reazione (campione, standard 1, standard 2). L’insieme dei dati
permette la realizzazione dei due grafici necessari per la determinazione del campione e della sua
concentrazione, ovvero quello dell’intensità di corrente elettrica in funzione del potenziale elettrico,
e quello dell’intensità di corrente elettrica in funzione della concentrazione (allegati).
Viene inoltre calcolata la deviazione standard di ogni analisi. La deviazione standard o scarto tipo
indica la dispersione dei valori attorno ad un valore atteso o ad una sua stima; un suo valore troppo
elevato è indice di errori o imprecisioni nelle analisi.
37
Nicolò Tamà
IV N
LAM 2012/2013
La troppo elevata deviazione standard dell’analisi del bianco e dei granuli solubilizzati in acqua ci
ha convinti a ripetere l’operazione di modo da osservare dei risultati più attendibili. Essi hanno
tuttavia mantenuto come nelle altre analisi una deviazione, seppur minore, molto alta.
Infine le sei schede sono state confrontate e ci hanno permesso di redigere la seguente tabella in
grado di riassumere i risultati nel loro insieme:
Concentrazione di
Deviazione Standard totale
elemento ferro (mg/L)
(mg/L)
%
34,256
Bianco
64,714
± 22,169
25,840
Granuli solubilizzati in acqua
64,719
± 16,723
Acido fosforico
40,127
13,030
± 5,228
Ac. fosforico e granuli solubilizzati in acqua
37,624
18,809
± 7,077
13,574
Bianco digerito
73,464
± 9,972
Granuli solubilizzati in acqua digeriti
62,003
21,689
± 13,448
Campione
Con l’estrapolazione della retta (nel grafico dell’intensità di corrente in funzione della
concentrazione) abbiamo ottenuto i valori delle concentrazioni dell’elemento ferro (sempre rilevato)
all’interno dei campioni; innanzitutto va osservato il fatto che il suo valore si colloca, come
previsto, all’interno della gamma ppm, il che indica una sua molto bassa presenza all’interno della
cella.
Confrontando le concentrazioni si osserva subito che il loro valore è molto simile: si possono
individuare due gruppi distinti, ovvero quei campioni contenenti acido fosforico e quelli privi di
acido fosforico. I primi hanno una concentrazione di ferro minore rispetto ai secondi collocandosi
rispettivamente intorno a ∼40 ppm e ∼65 ppm.
Il valore della deviazione standard non è inoltre mai inferiore al 10%, raggiungendo talvolta il 30%,
il che è molto elevato soprattutto per il fatto che abbiamo lavorato con concentrazioni molto basse.
Conclusioni
Per ottenere l’effettiva concentrazione dell’elemento ferro all’interno dei granuli dobbiamo sottrarre
il valore rilevato nel bianco a quello rilevato nella cella contenente i granuli, di modo dunque da
non considerare i possibili quantitativi di ferro presenti nel solvente e nella soluzione di misura. Da
ciò si ottiene che, sia per i granuli in relazione al bianco sia per i granuli digeriti in relazione al
bianco digerito, la concentrazione dell’elemento ferro è pari a zero o addirittura negativa con
mediamente una deviazione standard di ± 10 mg/L.
Tale risultato indica che le tracce dell’elemento ferro presenti nella cella sono già rilevabili nella
soluzione di misura o nell’acqua bidistillata. È infatti possibile che l’ossalato d’ammonio, l’acido
solforico e l’acqua contengano delle minime tracce di sali composti da ferro. Non è infatti da
escludere la possibilità che alcune tracce presenti nell’acqua deionizzata non siano scomparse
completamente con la bidistillazione oppure che l’ossalato d’ammonio e l’acido solforico
contengano già del ferro a partire dallo loro produzione o dalla loro conservazione (l’ossalato è
stato inoltre preparato con l’acqua bidistillata). La contaminazione, specialmente se si tratta di
quantitativi così piccoli, è infatti un fattore che può talvolta manifestarsi se non si presta l’adeguata
attenzione.
La diminuzione della concentrazione dovuta alla presenza di acido fosforico, che porta la differenza
tra la concentrazione di ferro nei granuli e nel bianco ad valore nettamente negativo, è invece
imputabile ad una sua possibile reazione con dei sali solubili, normalmente rilevabili dal
polarimetro, per renderli sali insolubili non più rintracciabili. In questo modo si verificherebbe la
costante diminuzione di concentrazione di ∼20 mg/L sia con la presenza di granuli sia con soltanto
acido fosforico disciolto. L’acido fosforico e i granuli disciolti, dunque, non interagiscono.
38
Nicolò Tamà
IV N
LAM 2012/2013
Tale risultato non permette però di concludere immediatamente che all’interno dei granuli non vi
siano tracce di principio attivo: il rimedio analizzato viene indicato con una diluizione 5 CH di
principio attivo, dunque con una concentrazione di 10-10 g/mL (= 10-4 ppm) che però non raggiunge
il limite di rivelabilità (LoD) del metodo, che consiste in 1 ppm, e di conseguenza il limite di
quantificazione (LoQ). Considerando questo fatto, risulta molto probabile che la reazione di
ossidoriduzione non sia avvenuta non a causa della totale assenza di sali composti da ferro, bensì a
causa di una loro concentrazione insufficiente per scatenare la reazione.
Bisogna inoltre ricordare che i sali che compongono il principio attivo, dunque il fosfato ferroso, il
fosfato ferrico e l’ossido di ferro, sono poco solubili o quasi insolubili.
Si pongono dunque due problemi:
• A causa della loro eterogenea distribuzione nel solvente dovuta alla quasi insolubilità è possibile
perdere principio attivo nel prelievo del campione (dopo aver disciolto i granuli in acqua);
• Perché avvenga la reazione di ossidoriduzione sono necessari dei sali solubili, dissociabili nei
rispettivi anioni e cationi e sollecitabili dal potenziale elettrico applicato all’elettrodo; essendo il
principio attivo quasi insolubile, esso non reagirà in quanto non dissociato nei componenti
ionici, e ridurrà ancora maggiormente la sua rintracciabilità da parte del polarimetro.
La presenza di una così elevata deviazione standard lascia intendere che vi siano delle imprecisione
nella preparazione dello strumento o dei reagenti; esse sono rintracciabili in diversi fattori:
• Errori nella preparazione delle varie soluzioni, ovvero l’ossalato e lo standard, dunque nei
quantitativi utilizzati;
• Parametri del polarimetro errati, come ad esempio la temperatura (che deve rimanere costante),
le dimensione delle gocce di mercurio e il loro tempo di sospensione (dunque relativi al
funzionamento dell’elettrodo di lavoro);
• Contaminazione con sostanze che possono influenzare l’analisi, ad esempio reagendo con sali
solubili per renderli insolubili e non più determinabili:
• Sostanze utilizzate non più pure, ad esempio l’acido fosforico presente nel reagentario
divenuto opaco;
• Contaminazione del materiale utilizzato per conservare o spostare le varie sostanze/soluzioni
attraverso il tatto o l’esposizione all’aria del laboratorio;
• Presenza del mercurio accumulato sul fondo della cella non rimosso al termine di ogni
determinazione, dunque potenziale solvente di sostanze contaminanti;
• Errata misura dei quantitativi di soluzione da analizzare, dunque l’ossalato, lo standard e i
campioni.
Infine, si deve ricordare che il metodo utilizzato non è prettamente indicato per le sostanze poste in
esame: tra i vari metodi questo sembrava essere quello che più si addiceva alle sostanze da
ricercare. Ipoteticamente, con un altro metodo avremmo potuto ottenere un risultato diverso.
39
Nicolò Tamà
4
4.1
IV N
LAM 2012/2013
Analisi di spettrofotometria IR
Funzionamento dello strumento e descrizione della tecnica
La tecnica analitica da cui abbiamo iniziato ad entrare in contatto con il laboratorio, su cui però non
abbiamo incentrato il lavoro è la spettrofotometria IR. A differenza della voltammetria, questa
branca dell’analisi si basa sull’interazione tra luce infrarossa e materia, dunque sull’assorbimento da
parte di molecole di radiazioni con lunghezze d’onda (λ) compresa tra 0,78 µm e 100 µm
(intervallo delimitato dalla luce visibile e dalle microonde). Nello spettro verrà però indicato il
numero d’onda (v) in cm-1 di tale luce, che corrisponde all’inverso della lunghezza d’onda (1/λ) e
che si situa per l’IR tra 10000 e 10 cm-1. Luce a tali lunghezze d’onda, se assorbita, provoca delle
transizioni energetiche che corrispondono a precisi movimenti della molecola/atomo. Poiché le
transizioni avvengono tra livelli vibrazionale, questi movimenti sono a loro volta di natura
vibrazionale, per cui coinvolgono i legami tra nuclei; si possono distinguere essenzialmente
movimenti di stretching, scissoring, rocking, twisting, wagging.
Agilent Technologies: Cary 640 FTIR Spectometer
Lo strumento utilizzato per le analisi si distingue dai normali spettrofotometri IR, in quanto consiste
in uno spettrofotometro in trasformata di Fourier (FT). Innanzitutto va descritto un comune
spettrofotometro: la luce proveniente dalla sorgente, solitamente del tipo a incandescenza, viene
convogliata verso il monocromatore, costituito da un reticolo di diffrazione, che è in grado di
separare la luce a seconda della lunghezza d’onda. Le varie luci proseguono il loro cammino
singolarmente in direzione del campione; esso, non potendosi trovare in una comune cuvetta porta
campione, in quanto il vetro e il quarzo non sono permeabili a queste lunghezze d’onda, deve essere
disposto tra due dischi di bromuro di potassio (KBr) se solido, oppure disciolto in olio di paraffina
se liquido. L’intensità della luce in uscita trasmessa dal campione, che può essere uguale o minore a
quella in entrata, viene poi condotta fino ad un rivelatore, in grado di trasformarla in corrente
elettrica. Il rapporto tra intensità della luce in uscita (I1) e l’intensità della luce in entrata (I0), uguale
al rapporto tra le corrispondenti correnti elettriche, conferisce il valore della trasmittanza: I1 / I0 = T
Attraverso la legge di Lambert-Beer, ovvero l’equazione A = log(1 / T) ,è inoltre possibile ricavare
l’assorbanza della sostanza posta in analisi. Tali valori sono importanti in quanto ci permettono di
realizzare lo spettro, in cui osserviamo il numero d’onda (cm-1) sull’asse delle ascisse, e
l’assorbanza o la trasmittanza percentuale (T%) sull’asse delle ordinate.
Nello spettro sono identificabili dei picchi che, se situati in precisi intervalli di numeri d’onda, ci
permettono di identificare un movimento molecolare tra due nuclei ben identificati. In questo modo
avviene l’analisi qualitativa della spettrofotometria IR, la quale ci permette inoltre di ricostruire un
modello di molecola attraverso l’identificazione dei legami e dei nuclei che la compongono.
Lo strumento utilizzato da noi differisce da quello tradizionale per il fatto che la scansione dello
spettro avviene in modo simultaneo alle varie lunghezze d’onda dell’intervallo spettrale, anziché in
modo sequenziale. Ciò è permesso dalla presenza di un interferometro, ossia un particolare sistema
di specchi che convoglia la luce in modo particolare, che porta alla creazione di un
interferogramma, che viene “trasformato” in uno spettro dalla trasformata di Fourier. I vantaggi
conferiti da questa variante sono essenzialmente una maggiore accuratezza ed un minor tempo di
analisi. Il campione non richiede inoltre l’utilizzo di bromuro di potassio o olio di paraffina per la
sua analisi, in quanto è disponibile un portacampioni che sfrutta la tecnica ATR (Attenuated Total
Reflectance). Nel nostro caso viene prodotto da PIKE Technologies (modello PIKE MIRacle™) ed
è composto da un cristallo attraverso il quale passano le radiazioni IR, le quali vengono riflesse più
40
Nicolò Tamà
IV N
LAM 2012/2013
volte ortogonalmente al suo interno in direzione del campione posto a stretto contatto con essa. La
luce riflessa dal campione viene poi restituita al rivelatore e si ottiene così uno spettro di riflettanza,
molto simile a quello di trasmittanza (e quindi di assorbanza). La differenza tra gli spettri viene poi
compensata dal software di gestione dello strumento. Questa tecnica permette di analizzare diversi
tipi di sostanze senza dover rimediare all’impossibilità di utilizzo di una comune cuvetta in vetro o
in quarzo attraverso la preparazione del campione.
Lo spettrofotometro FTIR con il portacampione ATR.
Portacampione ATR.
41
Nicolò Tamà
4.2
IV N
LAM 2012/2013
Procedimento, risultati e conclusioni
Procedimento
L’analisi spettrofotometrica FTIR si rivela essere nella sua esecuzione particolarmente semplice: i
requisiti necessari sono infatti soltanto la conoscenza del software per l’utilizzo dello strumento e la
preparazione dei campioni da utilizzare che, come già specificato, nel nostro caso non richiede
particolari attenzioni. I campioni da noi studiati consistono nei granuli omeopatici di Ferrum
Phosphoricum 5 CH pestati in un mortaio, dunque polverizzati, e nella soluzione dei granuli in
acqua bidistillata (1 granulo/mL).
Nell’utilizzare il software bisogna badare innanzitutto alla selezione dei vari parametri:
• il tipo di scansione (con lo strumento a disposizione vengono proposte analisi di assorbanza,
trasmittanza e riflettanza);
• la risoluzione dello spettro;
• l’intervallo spettrale in numeri d’onda;
• il numero di scansioni;
• la nominazione del campione analizzato e del “background”, ovvero la soluzione che il software
sottrae dal campione effettivo.
Nel nostro caso abbiamo optato per un’analisi di assorbanza attraverso 13 scansioni, il cui spettro ha
una risoluzione pari a 1 e intervallo spettrale tra 4000 e 750 cm-1.
Il “background” del campione solido è l’aria, per cui abbiamo inizialmente eseguito un’analisi
dell’aria da cui il software ha poi sottratto lo spettro del campione; per il campione disciolto il
“background” consiste invece nell’acqua bidistillata in cui abbiamo disciolto il campione, che
abbiamo dunque analizzato.
Dopo ogni scansione abbiamo confrontato gli spettri ottenuti con gli oltre 80000 spettri contenuti
nella banca dati a disposizione con il software d’analisi, di modo da ottenere dei riscontri delle
sostanze poste in esame.
Risultati
Nonostante vi abbiamo dedicato poco tempo e pochi approfondimenti, l’analisi spettrofotometrica
FTIR ha prodotto dei risultati soddisfacenti. La nostra previsione consisteva nell’ottenimento di uno
spettro molto simile a quello del lattosio, principale componente dei granuli in quanto eccipiente,
con la possibilità di osservare ulteriori bande che potessero indicare la presenza di altre sostanze,
magari quelle costituenti il principio attivo. Difatti, abbiamo ottenuto per entrambi i campioni il
riscontro nella banca dati con lo spettro del lattosio, tuttavia non trovato immediatamente nella
ricerca. In questo caso è stato essenziale essere a conoscenza della sua presenza in quanto abbiamo
potuto di conseguenza cercarlo tramite il software e confrontarlo a quelli proposti dalle analisi. Le
bande, seppur presenti con una minore intensità (lunghezza della banda), mostrano la stessa
collocazione e pressappoco la medesima larghezza. Le differenze tra lo spettro dei granuli disciolti
e quello dei granuli solidi stanno essenzialmente nella risoluzione: senza la dissoluzione del
campione si può osservare nello spettro una linea che per alcuni tratti pare priva dell’oscillazioni di
picchi, il confronto con le bande del lattosio è dunque più semplice; il campione disciolto presenta
invece numerosi picchi in tutta la lunghezza della linea. Tale differenza è da imputare alla presenza
del solvente, che è in grado di influenzare l’assorbimento della luce da parte del soluto.
42
Nicolò Tamà
IV N
LAM 2012/2013
A seguire gli spettri dei granuli solidi e disciolti posti a confronto con quello del lattosio:
In rosa il lattosio, in azzurro i granuli solidi.
In rosa il lattosio, in azzurro i granuli disciolti.
È inoltre sempre presente una banda tra 2300 e 2400 cm-1 che non può essere collegata al lattosio.
Per determinarne la natura bisogna effettuare la ricerca nella banca dati; il confronto con gli spettri
presenti nel sistema propone diverse somiglianze tra spettri, tuttavia, oltre al lattosio, solo uno di
essi vi si accosta con maggiore percentuale di somiglianza. Si tratta dello spettro dell’ematite.
L’ematite, con formula chimica Fe2O3, è un ossido di ferro appartenente al gruppo di minerali
dell’ematite (M2O3). Questo minerale è molto spesso presente in natura sotto forma di cristallo; la
sua origine può essere sia magmatica sia sedimentaria. Una sua particolarità à la colorazione rosa
che da ad alcune rocce in cui si trova, come ad esempio il granito rosa; la sua polvere viene infatti
utilizzata come colorante (ocra rossa).
Le sue proprietà chimiche sono magnetismo se riscaldato, solubilità solo in acido cloridrico
concentrato e assenza di radioattività. Viene inoltre utilizzata su scala industriale per l’estrazione di
ferro.
43
Nicolò Tamà
IV N
LAM 2012/2013
Di seguito lo spettro dell’ematite posto a confronto con quello dei granuli solidi:
In rosa l’ematite, in blu i granuli solidi.
Si possono notare alcune bande di entrambi gli spettri poste negli stessi intervalli, il che
indicherebbe la presenza di ematite all’interno del campione. Tra esse ve n’è una nell’intervallo tra
2300 e 2400 cm-1 che sarebbe collegabile soltanto parzialmente con quella del campione in quanto è
presente con un intensità molto minore. Essa sembrerebbe, dunque, essere causata da un’ulteriore
sostanza non rintracciabile dallo spettrofotometro.
Conclusioni
L’importanza del ritrovamento dell’ematite è notevole perché ci permette di rispondere in modo più
completo alla domanda posta all’inizio del lavoro sperimentale, ovvero se vi fosse o meno principio
attivo all’interno del rimedio. Ricordando quanto visto finora, tra le sostanze che compongono il
principio troviamo l’ossido di ferro (Fe2O3); dunque troviamo una sostanza che lo spettrofotometro
è in grado di rintracciare. Con gli opportuni calcoli, tramite il consulto dello spettro, avremmo
anche potuto ottenere la concentrazione di ematite nel campione; l’analisi quantitativa risultava però
complicata, perciò abbiamo deciso di limitare l’analisi alla determinazione qualitativa.
Le altre due sostanze che compongono il principio attivo sono il fosfato ferrico e il fosfato ferroso,
sostanze che però non appaiono nella banca dati degli spettri del software. La loro presenza non può
dunque essere né confermata né negata da parte dell’analisi; però il fatto che l’ossido di ferro sia
presente lascia intendere che anche queste due sostanze possano comporre il campione.
Come sottolineato in precedenza, è sempre possibile che sia avvenuta una contaminazione del
campione o dello strumento. La presenza di uno spettro molto simile sia per il campione solido che
per quello disciolto indica che il solvente, dunque l’acqua, non abbia influito; è invece possibile,
tuttavia poco probabile, che sia il porta campioni o lo strumento stesso ad essere stato contaminato
con dell’ematite, il che comprometterebbe i risultati.
44
Nicolò Tamà
5
IV N
LAM 2012/2013
Conclusioni
L’ottenimento di risultati contrastanti non indica un insuccesso; se si interpreta quanto accaduto si
può infatti trarre una conclusione che consideri entrambi.
Innanzitutto va confrontato il limite di rivelabilità degli strumenti o dei metodi: come ho già
precisato, il metodo adottato con il polarografo prevede la determinazione di sostanze la cui
concentrazione deve essere perlomeno pari a 1 ppm (mg/L); lo spettrofotometro FTIR necessita
invece di una concentrazione di sostanza da determinare minore perché essa interagisca con la luce
e influenzi l’andamento dello spettro. Il risultato ottenuto tramite il polarografo, dunque l’assenza
del principio attivo nel campione, viene perciò giustificato dal fatto che i sali composti da ferro non
possono essere rivelati a causa della loro troppo bassa concentrazione (10-4 ppm). Tale rimedio, con
diluizione 5 CH, non è dunque adatto al metodo scelto perché non permette al polarografo di
dedurre la presenza dell’analita, mentre si presta all’analisi spettrofotometrica, nella quale abbiamo
determinato la presenza di una delle sostanze costituenti il principio attivo.
Inoltre, bisogna considerare le proprietà che l’analita deve avere per interagire con lo strumento: nel
caso della polarografia il campione posto in analisi deve possedere un’elevata solubilità, mentre in
spettrofotometria FTIR deve essere una sostanza in grado di interagire con la luce infrarossa. È
dunque evidente che lo spettrofotometro non pone problemi con alcun tipo di sostanza, in quanto
l’interazione luce materia avviene per ogni tipo di sostanza; la determinazione polarografica viene
invece limitata se l’analita è poco solubile, fatto che accade proprio nel nostro caso.
Nel complesso si può dunque concludere che una minima traccia di principio attivo è presente nel
rimedio omeopatico; tuttavia, l’assenza di un risultato quantitativo impedisce di accertarne la
concentrazione indicata.
Sarebbe interessante, a questo punto, ripetere l’analisi con il medesimo rimedio ad una
concentrazione di principio attivo minore per determinare le eventuali (probabili) differenze.
45
Nicolò Tamà
IV N
LAM 2012/2013
Conclusioni generali
Questo lavoro di ricerca rappresenta a mio modo di vedere un viaggio, il cui merito è stato quello di
condurmi dalla più totale ignoranza in merito alla pratica terapeutica omeopatica ad una
consapevolezza della tradizione secolare che la precede, dei mezzi che essa ha oggi a disposizione,
degli scopi che si prefigge, delle problematiche che la circondano, degli studi che cercano di
supportarla e degli attriti nell’ambito scientifico che la vedono partecipe.
Nei primi cinque capitoli ho avuto modo di sintetizzare quanto possibile ogni aspetto teorico che
caratterizza l’omeopatia; avventurandomi nei principali avvenimenti storici che hanno permesso la
sua nascita e diffusione, ho tratto spunto per descrivere le regole base dettate da Hahnemann, suo
“padre” per concezione e creazione, che ancora oggi vengono applicate e insegnate ai suoi nuovi
esponenti. Metodi di preparazione e azione fisiologica e psicologica dei rimedi, visione del corpo
umano e degli strumenti che esso ha disposizione per fronteggiare gli stati d’alterazione e
concezione della malattia a livello fisico e psichico mi hanno di conseguenza condotto all’effettiva
cura. Nel contesto omeopatico sorge l’importanza del rapporto medico-paziente, dell’attenzione da
prestare all’individuo nel suo insieme e della concezione di cura del malato (insieme di sintomi),
anziché cura della malattia (singolo sintomo). Infine si giunge alle problematiche che più premono
l’ambiente scientifico e medico, ovvero l’assoluta necessità di una base scientifica che giustifichi la
solida efficacia pratica e la scelta del ruolo che l’omeopatia può e deve svolgere a livello
internazionale; dunque normative e sperimentazioni.
Il lavoro che in numerosi laboratori si sta compiendo proprio in questi istanti è molto e permette di
immaginare che in un futuro non troppo lontano anche i più scettici dovranno accettare che
l’omeopatia funziona (non solo per effetto placebo), e che forse vi è anche un principio scientifico
alla base. La strada è già stata trovata dai suoi primi e più intraprendenti sostenitori, il cammino è
però ancora lungo e tortuoso, per cui si prospettano anni di intensa attività.
Ad ogni modo, l’omeopatia oggigiorno è presente e con una sempre maggiore importanza; essa
veste però ancora il ruolo di medicina alternativa soprattutto per i continui contrasti con la pratica
terapeutica tradizionale, ovvero l’allopatia. È in atto, infatti, una vera e propria guerra che non giova
a nessuna delle due; è a mio modo vedere essenziale notare che entrambe le tecniche terapeutiche
mirano allo stesso obiettivo, ossia la cura del paziente, ed è per cui inutile insistere nel contrapporle.
Calcolando i rispettivi punti di forza e debolezze, dunque valutando il loro miglior contesto di
applicazione (quando adottare l’una, quando l’altra e quando entrambe, che sarebbe responsabilità
del medico), si giunge ad un’unica soluzione, già mostrata in rari casi come la Clinica Santa Croce,
che non limiti la cura dei pazienti, ovvero l’integrazione.
Il mio viaggio si è infine concluso negli ultimi quattro capitoli con la pratica vera e propria.
Nonostante l’impossibilità di ottenere risultati completi a causa della misera disposizione di tempo,
conoscenze degli strumenti e esperienze ad essi legate, la possibilità di assaporare la vita di
laboratorio è stata incredibile. Nel mio piccolo, grazie all’assistenza del professor Morini e del
professor Danani, sono riuscito a risolvere il quesito che mi ero originariamente posto, ovvero se la
ditta produttrice di rimedi (la Boiron) rispettasse l’indicazione di principio attivo presente
all’interno dei granuli, in questo caso Ferrum Phosphoricum 5 CH.
Gli strumenti a disposizione del laboratorio scolastico sono tra i più cari e performanti; tra essi
abbiamo individuato lo spettrofotometrio FTIR e il polarografo come strumenti più adatti alla
determinazione del principio attivo. Nonostante le due tecniche abbiano fornito risultati
contrastanti, è stato possibile supporre che all’interno del rimedio da noi analizzato vi siano delle
tracce minime, non quantificate, di principio attivo.
Benché io non abbia mai usufruito dell’omeopatia, e non abbia dunque potuto verificare la sua
efficacia su me stesso, ritengo ora di essere in grado di sostenerla come tecnica terapeutica efficace,
se utilizzata nel giusto contesto (tipo di malattia e tipo di approccio).
È dunque evidente che la medicina propone numerose tecniche terapeutiche e che ognuna di esse
manifesta debolezze e punti di forza: ve ne sono alcune più in uso e considerate più ufficiose e altre
46
Nicolò Tamà
IV N
LAM 2012/2013
che rimangono nell’ombra e vengono viste come alternativa a quelle più in voga. A mio modo di
vedere, i presupposti essenziali nella scelta del rimedio più adatto sono l’essere costantemente
informati su quanto viene offerto in mercato e la disposizione di un medico con il quale si possa
stringere un legame professionale solido e sincero.
Il mio lavoro di ricerca ha dunque l’ambizione di contribuire a questa campagna informativa con la
speranza di aver proposto nella più totale oggettività una tecnica terapeutica che, prima di
avventurarmi in questo viaggio, completamente ignoravo.
Ringraziamenti
Come già evidenziato nel corso del lavoro, ci tengo molto a ringraziare il professor Andrea
Danani dell’istituto SUPSI, il farmacista Pier Luigi Poletti della farmacia Solari e il Dottor
Dario Spinedi della Clinica Santa Croce per il contributo datomi nella raccolta delle
informazioni, nell’impostazione della stesura e più in generale nella comprensione della dottrina
omeopatica. Inoltre ringrazio il professor Paolo Morini per il tempo e le attenzioni che mi ha
dedicato nel corso di questo lungo anno di ricerca e che hanno permesso il compimento del
lavoro di maturità.
47
Nicolò Tamà
IV N
LAM 2012/2013
Bibliografia e webliografia
Bibliografia
Libri:
• Cozzi Renato, Protti Pierpaolo, Rauro Tarcisio (1997), Analisi chimica strumentale: Volume
A: Metodi elettrochimici, seconda edizione, Bologna, Zanichelli
• Cozzi Renato, Protti Pierpaolo, Rauro Tarcisio (1997), Analisi chimica strumentale: Volume
B: Metodi ottici, seconda edizione, Bologna, Zanichelli
• Hahnemann Samuel C. / Riccamboni Giuseppe (1985), Organon dell’arte del guarire,
quinta edizione, Como, Red Edizione (L’altra medicina; Studio/14)
• Lockie Andrew e Geddes Nicola (2001), Il novo libro dell’omeopatia: tutti i principi, i
rimedi, le terapie, seconda edizione, Como, Mondadori (Illustrati. Salute e bellezza)
• Masci Walter (2003), Omeopatia; tradizioni e attualità, terza edizione, Milano, Tecniche
Nuove
• Negro Francesco E. e De Filippo Antonio (1995), Dizionario di omeopatia, prima edizione,
Milano, Sperling & Kupfer (Dizionari & Atlanti)
• Spinedi Dario (2011), L’omeopatia in oncologia: accompagnamento e cura del malato
oncologico, prima edizione, Milano, Tecniche Nuove
Articoli:
• Montagnier L. et al. (2011), “DNA waves and water”, Journal of Physics: Conference
Series, Londra, IOP Publishing, 306, 012007, 22 giugno (online: 8 luglio)
Webliografia
Nozioni generali:
• http://medicinanaturale.pro/omeopatia-2/, alla voce: “Le costituzioni omeopatiche”
• http://www.homeopathyeurope.org/, alle voci: “Practice” e “Research”
• http://www.apoitalia.it/index.html, alle voci: “I principi della Medicina Omeopatica” e “La
parola ai medici”
• www.rimediomeopatici.com, alla voce: “Approfondimenti”
• http://www.farmacialamarmora.it/omeopatia1.htm
Studi scientifici:
• http://www.brainmindlife.org/benveniste.htm
• http://www.acquainformata.eu/archivio/la-stampa-perche-montagnier-crede-alla-memoriadellacqua/
• http://iopscience.iop.org/1742-6596/306/1/012007 (articolo di J. Phys.: Conf. Ser.)
Altro:
• http://www.omeopatia.clinicasantacroce.ch/it/, alla voce: “Trattamento”
• http://www.liceorodolico.it/appunti/potred_alfa.pdf
• http://toppara.ma/homeopathie/2049-ferrum-phosphoricum-5ch-boiron.html
48
Scarica

Nicolò Tamà