Chemistry and businnes OMEOPATIA E MEMORIA DELL’ACQUA: ALLA SCOPERTA DI UNA TERAPEUTICA TRA STORIA, SVILUPPO, APPLICAZIONE E RICERCA Nicolò Tamà IV N Anno 2012/2013 Liceo Lugano 1 Nicolò Tamà IV N LAM 2012/2013 Lavoro di maturità “Chemistry and business”, docente responsabile Professor P. A. Morini, liceo Lugano 1. OMEOPATIA E MEMORIA DELL’ACQUA: ALLA SCOPERTA DI UNA TERAPEUTICA TRA STORIA, SVILUPPO, APPLICAZIONE E RICERCA Abstract Il mio lavoro di ricerca si sviluppa su due diversi binari, il cui fine è il medesimo, ovvero descrivere nel modo più completo possibile la pratica terapeutica omeopatica. Inizialmente mi sono concentrato sull’evoluzione storica di questa terapeutica attraverso lo studio dei principi basilari su cui essa si fonda, quali il principio di similitudine, il concetto di dosi infinitesimali e la visione olistica di individuo da cui scaturisce la concezione di malattia e cura. I principi della metodologia mi hanno poi condotto allo studio di un rimedio omeopatico, dunque alla sua preparazione, sperimentazione e prescrizione condotte secondo norme e tradizione. L’approccio teorico è infine terminato con la descrizione dei più recenti studi scientifici intenzionati a rispondere ai quesiti riguardanti il funzionamento dell’omeopatia, i cui risultati hanno introdotto il concetto di memoria dell’acqua. Parallelamente ho svolto il lavoro di ricerca sperimentale, il cui scopo era l’ottenimento di una prova o controprova dell’efficacia dei rimedi omeopatici. Usufruendo degli strumenti forniti dall’istituto scolastico, quali uno spettrofotometro FTIR e un voltametro, ho analizzato la presenza di principio attivo all’interno del rimedio Ferrum Phosphoricum 5 CH. I risultati ottenuti tramite l’analisi spettrofotometrica hanno confermato che il rimedio contiene minime tracce di principio attivo; la polarografia non ne ha invece rilevato la presenza. Nicolò Tamà IV N LAM 2012/2013 Indice: Parte teorica 1 1 Introduzione 1 2 Storia dell’omeopatia 2 3 Principi della metodologia 4 4 5 3.1 Legge di similitudine 4 3.2 Diluizioni e dinamizzazione 4 3.3 Energia vitale 8 3.4 Le costituzioni 9 3.5 Diatesi e miasmi Cura del malato 12 14 4.1 L’anamnesi 14 4.2 Preparazione, sperimentazione e prescrizione del rimedio omeopatico 15 4.3 Cura e Effetto Placebo 19 Studi scientifici e Memoria dell’acqua 22 5.1 Jacques Benveniste 22 5.2 Luc Montagnier 23 Parte sperimentale 27 1 Introduzione 27 2 Preparazione dei campioni 28 3 4 5 2.1 Bidistillazione di acqua deionizzata 28 2.2 Selezione del rimedio omeopatico da analizzare 29 Analisi di voltammetria e polarografia 30 3.1 Funzionamento dello strumento e descrizione della tecnica 30 3.2 Procedimento, risultati e conclusioni 36 Analisi di spettrofotometria IR 40 4.1 Funzionamento dello strumento e descrizione della tecnica 40 4.2 Procedimento, risultati e conclusioni 42 Conclusioni 45 Conclusioni generali 46 Ringraziamenti 47 Bibliografia e Webliografia 48 Nicolò Tamà IV N LAM 2012/2013 Parte teorica 1 Introduzione L’omeopatia, da sempre oggetto di discussione tra sostenitori e oppositori, è ancora al giorno d’oggi un argomento in grado di suscitare notevole interesse nella gente comune, ovvero i consumatori, e tra gli esperti del settore, in quanto avvolto da dubbi e domande prive di risposta. Da molti considerata pratica pseudoscientifica, da altri comunemente utilizzata sotto prescrizione medica, l’omeopatia dei giorni nostri è ancora incerta del suo futuro. Il mio interesse si focalizza dunque su questa branca della medicina alternativa per porre rimedio ad una certa confusione dovuta alla moltitudine di opinioni circolanti e per ottenere alcune prove o controprove della sua effettiva efficacia come medicamento. Il termine “omeopatia”, dal greco homos – simile e pathos – malattia, vede le sue origini nell’Antica Grecia grazie al medico Ippocrate (460-377 a.C.) e ricompare nell’Epoca Moderna attraverso il medico svizzero Paracelso (1493-1541); esso prende però le sembianze che noi oggi conosciamo solo a partire dal XIX secolo, quando il medico tedesco Samuel Hahnemann (1755-1843) rivoluziona e propone al mondo questa pratica attraverso articoli e libri. Dopo due secoli in cui l’omeopatia viene utilizzata in parallelo alla medicina tradizionale, acquisendo una notevole valenza pratica, senza però mai rivelare le regioni del suo funzionamento, si giunge agli anni ’80 del XX secolo, periodo in cui il medico e immunologo Jacques Benveniste avvia il primo studio scientifico interessato a giustificare il funzionamento di questa pratica. Attraverso il suo lavoro, tuttavia talvolta oscurato da ambigui retroscena, egli individua il concetto di “memoria dell’acqua” come possibile base scientifica dell’omeopatia. La sua cattiva fama lo porta però a venire ignorato e screditato dalla comunità scientifica. Solo a partire dal nuovo millennio, grazie al lavoro di alcuni tra i massimi esponenti di fisica, chimica e biologia, si ottengono le prime prove concrete in grado di spiegare il funzionamento di medicamenti omeopatici. Il principale contributo è stato dato dal virologo francese Luc Montagnier, i cui esperimenti sulla memoria dell’acqua, che sviluppano il lavoro di Benveniste, non sono stati ancora confutati. La storia dell’omeopatia copre dunque un ruolo fondamentale nella comprensione del suo significato, per cui approfondirò alcuni suoi aspetti a partire dal capitolo seguente (“Storia dell’omeopatia”). Come si comprende dai più recenti cenni storici, non solo l’omeopatia è al centro del mio interesse; vi è infatti anche un’altra componente strettamente connessa al suo funzionamento il cui ruolo nella vita sta venendo negli ultimi anni sempre più ridiscusso: l’acqua. Alcuni esponenti della comunità scientifica si sono resi conto che le nostre conoscenze nei riguardi di questa sostanza sono limitate e non sono in grado di spiegare una serie di avvenimenti che comportano la sua presenza; uno di questi è infatti il funzionamento della cura attraverso prodotti omeopatici. L’acqua, trovandosi al centro della questione, diventa la componente da analizzare: a partire dal già citato lavoro di Benveniste e proseguendo con gli studi bio-fisici di Montagnier e di altri laboratori sono state osservate nuove ed interessanti proprietà di questa sostanza (capitolo “Studi scientifici e memoria dell’acqua”). La figura dell’acqua sta assumendo una sempre più complessa ed affascinante articolazione; una rivalutazione del suo ruolo nella vita potrebbe addirittura portare ad una revisione delle nostre conoscenze biologiche. Dall’evolvere dell’omeopatia nella storia si trae spunto, inoltre, per descrivere tutti quei principi metodologici che stanno alla base della sua applicazione contemporanea, applicazione che non riesce a convincere su tutti i fronti: da un lato osserviamo un suo diffusissimo impiego dovuto alla notevole percentuale di funzionamento, ai bassi costi di produzione e distribuzione e al basso tasso di effetti collaterali; d’altro canto viene imputato ai produttori di farmaci omeopatici il fatto che, dopo le numerose diluizioni a cui è sottoposto il principio attivo, nel rimedio è presente solo eccipiente e che nel paziente in cura prevalga il cosiddetto “effetto placebo” (capitoli “Principi della metodologia” e “Cura del malato”). 1 Nicolò Tamà 2 IV N LAM 2012/2013 Storia dell’omeopatia Il personaggio a cui viene attribuita la nascita dell’omeopatia è il medico germanico Samuel Hahnemann, nato a Massen nel 1755 e deceduto a Parigi nel 1843; per descrivere questo fenomeno bisogna tuttavia iniziare dal lavoro condotto dal medico greco Ippocrate (460-377 a.C.), considerato da molti padre della medicina, da cui Hahnemann trae notevole ispirazione. Nell’Antica Grecia era comunemente diffusa l’idea che la causa dei malanni fosse di natura sopranaturale; perciò si ricercava la cura di queste disfunzioni nella preghiera e nei sacrifici alle divinità. Con l’avvenire dei filosofi sorsero anche le prime teorie scientifiche in campo medico: secondo una di esse bisognava somministrare al malato un rimedio che scatenasse nel corpo una reazione contraria a quella della malattia; da ciò essa prende il nome di “dottrina dei contrari”. Ippocrate fu grande sostenitore di questa dottrina, ma ne proponeva un’ulteriore diametralmente opposta; essa consisteva nel curare il paziente attraverso un rimedio in grado di provocare dei sintomi simili a quelli riscontrati su una persona malata. Con Ippocrate la medicina si trasforma nella cura di una malattia causata da agenti naturali basandosi su una diagnosi dei sintomi specifici nel malato. Nel corso del periodo romano la teoria di Ippocrate non venne tenuta in considerazione in quanto ritenuta meno convincente della “dottrina dei contrari”, in questo modo si diffuse il salasso, metodo curativo risalente alla Grecia Antica che consisteva nella rimozione di notevoli quantità di sangue dal malato; esso era utilizzato per curare gran parte delle malattie conosciute all’epoca. Con la caduta dell’Impero Romano e l’avvento delle invasioni barbariche, la medicina non ebbe ulteriori sviluppi e riprese la sua evoluzione solo a partire dal XVI secolo. Nel corso del Medioevo erano infatti risorte le teorie secondo le quali le cause delle malattie fossero legate a qualcosa di mistico; soltanto grazie all’intervento del medico svizzero Paracelso (1493-1541), dunque con l’avvenire del Rinascimento e della ricerca del sapere nell’antichità, si ripercorsero gli studi di Ippocrate e venne reintrodotta la medicina dei simili. Paracelso diffuse anche un’ulteriore concetto in futuro fondamentale per Hahnemann, ossia la somministrazione del rimedio in piccole dosi: a suo modo di vedere la prescrizione in piccole dosi di una sostanza nociva all’organismo è in grado di curare i sintomi che aveva provocato tenendo conto della capacità di auto-guarigione del corpo. I tre secoli a seguire videro due sviluppi paradossalmente opposti: nonostante i notevoli progressi medici avvenuti tra XVI e XIX (i medici optarono per la “dottrina dei contrari” e continuarono ad ignorare l’omeopatia), le terribili condizioni igieniche provocarono un grave peggioramento delle condizioni salutari della popolazione, a cui furono nuovamente applicate salassi e purghe come potenziali rimedi. In questo contesto sorse dunque l’omeopatia, teoria trasformata da Samuel Hahnemann in vera e propria dottrina e in stile di vita in grado di modificare permanentemente le condizioni di vita dell’epoca. Fu proprio Hahnemann a introdurre l’importanza dell’igiene, di una corretta alimentazione e dell’esercizio fisico alla base di una vita sana ed equilibrata, proponendo dunque l’idea di prevenzione in partenza e di cura in seguito. Egli si schierava apertamente anche contro le allora attuali metodiche terapeutiche e le modalità con cui le malattie venivano curate, essendo sicuro dell’inefficacia della cura dei pazienti attraverso i metodi della medicina tradizionale, che egli chiamava allopatia. Ciò lo portò dopo anni di pratica della sua attività ad allontanarsi dal sapere ufficiale ed in seguito ad abbandonare tale professione per dedicarsi alla traduzione di testi scientifici; egli era infatti conoscitore di varie lingue. Fu proprio a partire dalla traduzione di un testo del inglese William Cullen intitolato “Materia Medica”, che il suo lavoro da omeopata ebbe inizio. Alla voce Cortex Peruvianis (Corteccia di China) Hahnemann fu incuriosito dal fatto che gli operai costretti a lavorare la corteccia di china manifestavano alcuni sintomi, tra i quali febbri periodiche, che erano propri della malaria; ciò gli risultò immediatamente insolito, in quanto la corteccia di china era utilizzata comunemente come rimedio contro la malaria. Secondo Cullen ciò era dovuto al suo “effetto tonico sullo stomaco”; Hahnemann rifiutò questa idea, in quanto sostanze molto più astringenti del chinino non curavano la febbre. La sua intuizione fu di associare la relazione tra i diversi effetti della sostanza con la legge 2 Nicolò Tamà IV N LAM 2012/2013 dei simili: la somministrazione in dosi minime di quella sostanza che in dosi tossiche avrebbe causato la malattia, sarebbe stata in grado di curare la malattia stessa. Da ciò nascono le prime basi della sua teoria scientifica, che necessitava ancora della conferma della pratica; decise dunque di avviare la sperimentazione dell’effetto del chinino su sé stesso, nonostante godesse di un ottimo stato di salute. Assunse due dracme (dodici grammi) di china due volte al giorno per cinque giorni e annotò scrupolosamente tutti gli effetti riscontrati. Gli effetti che si manifestavano, nonostante la durata di alcune ore, erano i medesimi causati dalla malaria, ossia febbri intermittenti, mani e piedi freddi, stanchezza e sonnolenza, ansia, tremore, prostrazione, mal di testa pulsante, arrossamento delle guance e sete. La tappa seguente era la sperimentazione su pazienti sani, dunque la comparazione degli effetti tra diversi individui, in seguito definito proving omeopatico; ciò fu una importante intuizione di Hahnemann, in quanto permise di descrivere i sintomi d’ordine psicologico, generale e fisico che un rimedio produce su di un gruppo di volontari esenti da patologie. La medicina ufficiale dei tempi (e dei giorni nostri) prevedeva invece la sperimentazione dei farmaci su cavie di laboratorio di diverse specie. Siccome il metabolismo di questi animali è troppo diverso da quello umano, risulta un rischio passare alla sperimentazione animale, per cui Hahnemann abbandonò definitivamente questa pratica per iniziare la sperimentazione su umani sani. Egli reclutò dunque un gruppo di volontari, tra cui amici, famigliari e allievi, a cui somministrò alcuni farmaci da lui preparati. Hahnemann decise di ridurre sempre più le dosi di sostanza curante per evitare gli effetti collaterali delle componenti tossiche; proseguendo con la sua lunga serie di analisi, egli si accorse però che l’effetto del farmaco variava se “dinamizzato” ad ogni diluizioni, riuscì dunque a formulare una tesi, ossia il “Principio delle diluizioni infinitesimali”. Secondo Hahnemann, ad ogni diluizione bisogna accostare una “Dinamizzazione”, ossia una serie di scosse energiche della soluzione, per così potenziare la sua azione terapeutica. La serie di risultati ottenuti lo portarono a pubblicare nel 1796 i suoi due primi pilastri teorici, ovvero la legge dei simili e il principio delle diluizioni infinitesimali, che dalle sue analisi uscivano infatti rinforzati. Nel suo primo testo, intitolato “Saggio su un primo principio per dimostrare il valore curativo delle sostanze medicinali”, si può dunque individuare, oltre a questi due primi fondamenti della sua dottrina, l’importante concetto, secondo cui solo osservando l'azione dei farmaci sull’organismo è possibile usarli in maniera razionale e che tale metodo è l'unico modo di osservare direttamente le azioni specifiche dei rimedi. Dal 1800 si susseguirono anni di duri attacchi da parte dell’allopatia e Hahnemann dovette difendere la propria reputazione in svariate occasioni fino alla pubblicazione nel 1810 della prima edizione dell’Organon. In questo periodo proseguirono ad ogni modo i provings su pazienti sani e iniziò la sperimentazione su pazienti malati, che permetterà il confronto dell’efficacia di farmaci simili. Nelle sei edizioni dell’Organon, le prime cinque pubblicate tra 1810 e 1833 e la sesta solo dopo la morte di Hahnemann, è presente nella sua completezza la dottrina omeopatica, dunque le basi di una filosofia medica in grado di fornire i mezzi della guarigione di un malato, anziché della cura di una malattia. Cominciando con l’importanza dell’osservazione dei fenomeni della natura, Hahnemann giunge per la prima volta nella storia alla standardizzazione della produzione di un farmaco. In esso si possono anche trovare la catalogazione delle malattie descritte insieme alla lunga serie di rimedi sperimentati da Hahnemann e alcuni suggerimenti su come deve essere condotto l’esame del malato: questi riguardano l’empatia verso il paziente, l’osservazione, la registrazione dei dati e il trattamento terapeutico. In esso Hahnemann espone infine concetti d’igiene e prevenzione e conclude con una severa critica alla medicina tradizionale e ai sistemi medici contemporanei come risposta agli attacchi compiuti alla sua dottrina nel corso delle sue ricerche. Nonostante l’impossibilità di provare le sue teorie a causa della mancanza di adeguate conoscenze scientifiche, il lavoro di Hahnemann viene sempre ritenuto di notevole successo, in quanto i risultati ottenuti nei suoi test e nella cura effettiva di suoi pazienti fu nella maggior parte dei casi positiva. 3 Nicolò Tamà 3 3.1 IV N LAM 2012/2013 Principi della metodologia Legge di similitudine Il primo e più antico principio dell’omeopatia consiste nella legge di similitudine. Come descritto nelle parte storica, essa nacque nell’Antica Grecia e, solo grazie alla sua sopravvivenza nel corso di oltre duemila anni, poté infine giungere nelle mani di Hahnemann, il quale la inserì per la prima volta in un contesto più esteso, ossia l’omeopatia. Da essa prende anche forma il motto di Hahnemann “similia similibus curantur” (letteralmente “I simili si curino con i simili”) risalente all’epoca di Ippocrate (460-377 a.C.), che si contrappone a “contraria contrariis curantur” (dal latino “curino i contrari con i contrari”), che sta invece alla base di quell’altra branca della medicina, da Hahnemann denominata allopatia, sviluppatasi in parallelo con l’omeopatia sempre a partire dal lavoro di Ippocrate. Nelle mani del medico germanico la legge dei simili si trasforma per assumere dei contorni più scientifici: esprime dunque il concetto che per curare una malattia il medico deve utilizzare una medicina che sia in grado di produrre una malattia artificiale ad essa molto simile, che si sostituisce ad essa per poi scomparire. Questo principio, insieme ad una lunga lista di esempi è presente in particolare nella più importante pubblicazione di Hahnemann, ovvero l’Organon; in esso si comprende come essa, oltre ad essere una legge fondamentale dell’omeopatia, sia una legge generale di natura che governa le affezioni, cioè le alterazioni dinamiche della forza vitale, causa invisibile da cui risultano effetti visibili. La malattia è secondo Hahnemann affezione di natura dinamica, immateriale; come anche la paura, il dolore e l’eccesiva gioia. Tutte le affezioni dinamiche sono regolate dal principio di similitudine. In un estratto (il ventisettesimo paragrafo) di questo volume si possono intravvedere questi concetti: “Il potere di guarigione delle medicine si basa quindi sui loro sintomi, di forza superiore simili a quelli della malattia, cosicché ogni singolo caso di malattia viene rimosso e distrutto nel modo più sicuro, più radicale, più rapido e più duraturo soltanto da un medicamento che sia capace di produrre nell’organismo umano la totalità dei sintomi nel modo più simile e più completo e nel medesimo tempo superi in forza la malattia.” 3.2 Diluizioni e dinamizzazione La legge dei simili si situa alla base di questo principio, in quanto pose ad Hahnemann due domande cruciali per l’elaborazione della sua teoria omeopatica: come era possibile che un farmaco in grado di provocare nel paziente un reazione simile a quella causata della malattia non ne aumentasse l’effetto e come somministrare rimedi omeopatici contenenti dei veleni. La soluzione al problema si presentò durante le sue prime sperimentazioni di farmaci su se stesso. Egli notò infatti che somministrando dosi più tenui di preparato omeopatico riusciva a eliminare gli effetti nocivi del veleno e a rendere più efficace l’azione del rimedio, che infatti aumentava progressivamente con il diminuire della concentrazione; a questo punto l’ostacolo da oltrepassare era il modo per ottenere dosi ridotte. All’inizio del XVIII secolo la scienza non aveva ancora in dotazione strumenti adeguatamente sensibili da quantificare un grammo di sostanza, per cui Hahnemann dovette adottare un’altra tattica, ossia diluire il principio attivo in un acqua o alcool, ripetendo l’operazione a seconda della concentrazione ricercata. Il primo metodo di diluizione che andrò ad analizzare é per l'appunto quello ideato da Hahnemann, perciò denominato hahnemanniano; tuttavia furono creati altri metodi di diluizione, come spiegherò in seguito. 4 Nicolò Tamà IV N LAM 2012/2013 Hahnemann iniziava dalla tintura madre, ossia quella miscela di sostanze d’origine vegetale, animale o minerale diluite in soluzione alcolica che racchiudevano il principio attivo. Le tecniche di diluizione da lui create furono: • Centesimali (x C, x CH) • Decimali (x D, x DH) • Cinquantesimali (LM) Per i primi due tipi di diluizione si utilizza una soluzione idroalcolica, chiamata tintura madre, la cui preparazione verrà poi descritta in seguito (capitolo 4.2). Per la preparazioni di soluzioni centesimali, é necessario predisporre una serie di flaconi di vetro e di tappi inerti in quantità corrispondente al grado di diluizione desiderato. Nel primo flacone si introducono 99 parti, in volume, (oppure gocce) di solvente e una parte, in massa, di tintura madre. La diluizione così ottenuta é la prima centesimale (1 CH). Per ottenere la seconda diluizione centesimale (2 CH) é necessario aggiungere, in un secondo flacone, una parte della diluizione 1 CH alle previste 99 parti di veicolo. Per raggiungere il grado di diluizione voluto, é necessario operare allo stesso modo, tante volte quanto é la diluizione richiesta. Se il rimedio consiste in globuli o granuli (in seguito descritti), si impregna l’eccipiente, solitamente lattosio o saccarosio, con la tintura madre opportunamente diluita. Il fatto che il lattosio costituisca l’eccipiente può causare un problema se non indicato nel libretto informativo del farmaco, in quanto l’intolleranza a questa sostanza è abbastanza diffusa nella popolazione. Per le diluizioni decimali, si esegue nella stessa maniera, ma secondo la serie decimale; per ottenere dunque un preparato 2 DH bisogna diluire una parte di principio attivo in 9 parti di solvente, per poi diluire una parte di primo preparato decimale in 9 parti di veicolo. Secondo la chimica delle soluzioni, la concentrazione di una soluzione 1 CH equivale a quella di una soluzione 2 DH; l’omeopatia ritiene invece che esse agiscano diversamente sul paziente, in quanto sono state sottoposte ad una differente dinamizzazione. Hahnemann ideò infatti di accompagnare ogni diluizione con delle energiche scosse, sempre in direzione verticale, di modo da “frantumare” la goccia di principio attivo per rendere il rimedio il più omogeneo possibile. In questo modo anche soluzioni che contengono una quantità di principio attivo non quantificabile (ad esempio un preparato 200 CH) sono in teoria sufficientemente “amalgamate” (omogenee) da mantenere l’effetto terapeutico. Si comprende ora il motivo della differenza tra soluzioni 1 CH e 2 DH, ossia la diversa dinamizzazione dei due preparati. Diluizione 1/10 1/100 1/1000 1/10000 1/100000 1/1000000 1/1060 1/10400 Concentrazione (g/mL) 10-1 10-2 10-3 10-4 10-5 10-6 10-60 10-400 Decimali 1 DH 2 DH 3 DH 4 DH 5 DH 6 DH (60 DH) (400 DH) Centesimali 1 CH 2 CH 3 CH 30 CH 200 CH 1 1 Immagine tratta dal sito: <<http://rimediomeopatici.com/approfondimenti/rimedi-omeopatici-origine/>> 5 Nicolò Tamà IV N LAM 2012/2013 Tra le diluizioni hahnemanniane va citato anche il metodo delle diluizioni cinquantesimali (LM oppure 50M), descritto per la prima volta da Hahnemann nella VI edizione dell'Organon, pubblicata nel 1921. Schematicamente la diluizione si può rappresentare suddivisa in varie fasi: innanzitutto si procede a tre triturazioni centesimali successive, normalmente in lattosio, utilizzando come prodotto di partenza 1 parte di ceppo solido o liquido. Si prelevano 0,05 g di questa triturazione centesimale, 3CH, che vengono sciolti in 500 gocce di una soluzione idroalcolica, preparata con una parte di alcool 90% e quattro parti di acqua; si preleva una goccia di questa soluzione e la si versa in un flacone contenente 100 gocce di alcool al 95%, si agita almeno 100 volte, ottenendo così la prima diluizione 50 millesimale 1 LM. Una goccia di questa diluizione viene usata per impregnare 500 globuli che rappresentano il punto di partenza per le successive diluizioni. Per ottenere la seconda diluizione 50millesimale, si preleva un globulo che viene introdotto in un flacone con 100 gocce di alcool al 95% V/V, agitando ancora per 100 volte; tale operazione si può ripetere fino alla diluizione desiderata, anche se Hahnemann ha utilizzato tali diluizioni non oltre la 30 cinquanta millesimale (30/LM o 30/50M). Il nome 50 millimesimale, deriva proprio dalle due fasi precedentemente descritte: la prima con un rapporto di diluizione di 1 a 500 e la seconda con un ulteriore rapporto di 1 a 100, pari a 1/500 x 1/100 = 1/50000. 2 Questa tecnica di diluizione non influenzò mai la pratica dei medici omeopati, nonostante la sua efficacia nella cura di malattie croniche descritta da Hahnemann, in quanto in seguito alla sua tardiva pubblicazione nel 1921 risultò più complicata delle pratiche allora in uso. Egli considerava 2 Immagine tratta dal sito: <http://www.farmacialamarmora.it/omeopatia1.htm> 6 Nicolò Tamà IV N LAM 2012/2013 queste diluizioni particolarmente attive nelle forme croniche, mentre riservava le centesimali per le forme acute e transitorie. Un altro metodo per preparare le diluizioni omeopatiche è quello del flacone unico di Korsakoff. Il Conte Simeon Nicolaievitch Korsakoff (1788-1853) era un medico russo contemporaneo di Hahnemann. Egli ebbe nel 1829, ovvero 14 anni prima della morte di Hahnemann, l’idea di utilizzare un solo flacone per preparare tutte le diluizioni. In questo modo il problema di dover sempre utilizzare vetreria inerte era risolto. Il suo metodo è semplice: si versano 5 mL di tintura madre in un flacone di vetro capiente 15 mL, si agita 100 volte e si svuota il contenitore fino all’ultima goccia. Si riempie il recipiente con 5 mL di acqua distillata, ossia circa 99 volte il volume del residuo di tintura madre sulle pareti del contenitore e si dinamizza nuovamente; si ottiene così una soluzione con la prima diluizione korsakoviana (1 K). Per produrre la seconda diluizione korsakoviana bisogna nuovamente svuotare il flacone, riempirlo con acqua distillata e dinamizzare. A seconda della diluizione korsakoviana che si necessita ripetere l’operazione nuovamente. Il limite del metodo Korsakoviano è rappresentato dall’approssimazione con cui vengono condotte le diluizioni, visto l'utilizzo di un unico contenitore, insieme alla soggettività marcata delle operazioni e alla impossibilità di comparare le preparazioni ottenute con quelle realizzate con il metodo di Hahnemannn considerando l'utilizzo di solventi diversi. Questa tecnica di diluizioni non viene perciò accettata da numerose Farmacopee Ufficiali (descritte nella sezione “Tipi di rimedio e somministrazione”). Nonostante le diversità tra le tre tipologie di diluizioni, è possibile la composizione di una tabella che le ponga a confronto matematicamente, senza dunque tenere conto delle varie dinamizzazioni: decimali 2 DH 4 DH 6 DH 10 DH 14 DH 18 DH 24 DH 60 DH 146 H centesimali 1 CH 2 CH 3 CH 5 CH 7 CH 9 CH 12 CH 30 CH 73 CH korsakoviane cinquantesimali 6K 30 K 200 K 1000 K 1/LM 4/LM 12/LM 30/LM Assenza di principio attivo Non tenendo conto delle dinamizzazioni, questa tabella non ha un vero e proprio valore medico; i calcoli matematici permettono però di capire da quale diluizione non è più presente sostanza all’interno, cioè da quale diluizione si ha superato la costante di Avogadro. Costante di Avogadro: NA = 6,02.1023 e.e./1 mol e.e. La costante di Avogadro, così denominata in onore del chimico Amedeo Avogadro, equivale al numero di entità elementari contenute in una mole di entità elementare. Si può dire, accostando il livello concettuale molecolare a quello di sostanza, che una mole di tintura madre (considerandola come una sostanza pura, che in realtà non é) contiene tutte le molecole previste da Avogadro e per approssimazione che ne contiene 1023. La diluizione 1 CH contiene 1/100 di tintura madre, quindi 1023. 10-2 = 1021 molecole (e.e.) 7 Nicolò Tamà IV N LAM 2012/2013 La diluizione 2 CH contiene invece 1/10000 della soluzione di tintura madre, per cui un quantitativo di molecole per mole pari a 1019. Proseguendo con i calcoli si osserva che la diluizione 11 CH dovrebbe contenere 10 molecole per ogni mole, di conseguenza a partire dalla diluizione 12 CH non dovrebbe esservi più principio attivo disciolto nella soluzione. La dissoluzione di quantità così ridotte di sostanza è possibile solo grazie ai metodi precedentemente citati, in cui non si discioglie direttamente il quantitativo di principio attivo per ottenere la concentrazione ricercata, ma si sfruttano delle continue diluizioni. Al giorno d’oggi le bilance analitiche più performanti raggiungono una sensibilità di 10-6g (1 microgrammo [µg]); per cui se volessimo solubilizzare la minor massa possibile di principio attivo dovremmo ricorrere ad 1 µg. In questo caso, solubilizzando 1 µg in 1 mL di solvente, otterremmo al massimo una concentrazione pari a 10-6 g/mL, corrispondente ad un grado CH 3 nella scala omeopatica. I vantaggi delle metodiche hahnemanniane si possono essenzialmente ricondurre all'alta velocità di esecuzione, che consente di ottenere potenze più alte delle altre tecniche, con una maggior precisione e con pochissimo consumo di materiali e solventi. I limiti si possono individuare nella scarsa precisione delle diluizioni dei materiali di partenza, che rende difficile ogni rapporto con deconcentrazioni ottenute diversamente e impossibile ogni scala di corrispondenza. 3.3 Energia vitale L’Omeopatia fa parte delle cosiddette “Medicine energetiche”, ovvero di quelle discipline terapeutiche che si basano sulla “Forza od Energia Vitale”. Questo concetto viene già ipotizzato da Ippocrate, che parlava di Physis, da Paracelso, che descriveva l’Archeo, ed infine da Hahnemann, che lo definiva Dynami. È opportuno precisare sin dal principio che il concetto qui citato di “Forza o Energia Vitale” non si riferisce in alcun caso alle grandezze fisiche utilizzate in meccanica e in termodinamica. Nei paragrafi 63 e 64 dell’Organon, Hahnemann spiega come l’effetto terapeutico e medicamentoso dei rimedi omeopatici, ottenuti attraverso i vari passaggi di diluizione e dinamizzazione ed adeguatamente usati secondo la individualizzazione del caso, sia capace di ripristinare un assetto energetico ottimale in un organismo malato. Nel dodicesimo paragrafo dell’Organon si può leggere: “Unica la Forza Vitale morbosamente perturbata provoca la malattia, in modo che le manifestazioni di malattia percettibili dai nostri sensi, come pure tutte le alterazioni interne, esprimono la perturbazione totale morbosa del principio dinamico e rappresentano tutta la malattia.” Dall’estratto si comprende come la malattia non sia altro che un indebolimento della “Forza Vitale” e come essa faccia parte di un equilibrio all’interno della “Forza Vitale” stessa. Dal momento che l’“Energia Vitale” inizia ad esaurirsi, compare, o per meglio dire si sviluppa, la malattia già presente nel corpo. L’effetto terapeutico si ottiene, dunque, attraverso la cessione di “Energia medicamentosa” dei vari rimedi, all’“Energia Vitale” alterata, che viene così corroborata progressivamente fino a riportarla al massimo valore possibile. Il rimedio omeopatico ha dunque il compito di stimolare il corpo ad autocurarsi. Questo processo allontana i sintomi clinici, espressione vera ed unica della malattia stessa, descrivendo non solo i sintomi della malattia, ma anche le sue cause, sia esterne che interne. Lo stesso Hahnemann, essendo anche farmacista, si rese conto che i preparati omeopatici, dopo le numerose diluizioni, non dovevano contenere più tracce di materia curante, per cui il loro raggio d’azione non doveva agire per vie materiali. La teoria della “Forza Vitale” spiega quindi come il 8 Nicolò Tamà IV N LAM 2012/2013 rimedio possa ancora avere effetto sul corpo malato, sebbene non avvengano legami materiali; creando perciò un’interazioni tra diversi tipi di “energie”. Con l’avvento della biologia cellulare verso la fine del secolo, questo dogma dell’omeopatia viene sempre più ignorato, in quanto discordante con le nuove teorie riguardo il funzionamento del corpo (ad esempio il sistema circolatorio). Esso viene nuovamente considerato dagli omeopati soltanto nel corso del XX secolo; quando diviene “Principio Vitale”, ossia uno strumento del corpo per regolare e controllare alcune sue funzioni, come ad esempio la temperatura corporea. 3.4 Le costituzioni Come descritto in precedenza, la malattia viene interpretata dall’omeopatia come un indebolimento dell’“Energia Vitale” provocato da cause sia interne che esterne. Componenti fondamentali della diagnosi omeopatica sono lo stato d’animo del paziente, che costituisce uno dei sintomi più importanti, e il “terreno”, ovvero le caratteristiche generali definite dalla “costituzione” di appartenenza e dalla “diatesi”. La costituzione è l’insieme dei caratteri psicofisici di un soggetto, mentre per diatesi si intende la predisposizione di un certo organismo a contrarre certe malattie. Le due classi sono correlate perché ogni costituzione tende preferibilmente ad una certa diatesi, anche se è molto difficile trovare individui che appartengano del tutto ad una sola delle costituzioni omeopatiche. L’individuazione delle costituzioni omeopatiche risale ai tempi di Ippocrate, quando si distingueva tra quattro tipologie di soggetti corrispondenti ai quattro umori del corpo, teoria che dominò incontrastata fino alla metà dell’Ottocento: il Melanconico, che si riteneva caratterizzato da un eccesso di bile nera, il Collerico da un eccesso di bile gialla, il Flemmatico da eccesso di flegma, il Sanguigno da eccesso di sangue. Questa distinzione, ovviamente molto antica, richiama le varie teorie filosofiche dell’Antica Grecia, che vedevano il mondo come un insieme di quattro elementi, che Hahnemann accostò alle costituzioni, ovvero aria (sangue), fuoco (bile gialla), terra (bile nera) e acqua (flegma). Il buon funzionamento del corpo consisterebbe nel corretto equilibro tra questi quattro elementi, mentre la malattia nel sopravvento di uno di essi sugli altri, definito eucrasia. Con questa distinzione Ippocrate provò a definire anche una teoria delle personalità: la predisposizione all'eccesso di uno dei quattro umori definirebbe un carattere, un temperamento e insieme una costituzione fisica detta complessione: • • • • il malinconico, con eccesso di bile nera, è magro, debole, pallido, avaro, triste; il collerico, con eccesso di bile gialla, è magro, asciutto, di bel colore, irascibile, permaloso, furbo, generoso e superbo; il flemmatico, con eccesso di flegma, è beato, lento, pigro, sereno e talentuoso; il tipo sanguigno, con eccesso di sangue, è rubicondo, gioviale, allegro, goloso. Dopo essere state analizzate e rielaborate nel corso della storia, le idee di Ippocrate giungono infine ad alcuni discepoli di Hahnemann, i quali riescono ad inserirle nella contesto omeopatico creato dal loro maestro ed in seguito a svilupparle. Un importante fattore, già sostenuto da Hahnemann, accomuna tutte le diverse correnti di pensiero sorte nel corso del XIX e XX secolo; esso consiste nel fatto che per determinare la tipologia di malattia manifestata dal paziente, non bastano i soli sintomi, ma occorre tenere conto di tutte le altre peculiarità che rendono il soggetto unico rispetto a tutti gli altri affetti dalla stessa malattia. Valutando nel contempo le componenti fisiche, psichiche, chimiche e ambientali che possono aver scatenato la malattia, e considerando sempre il malato e mai la singola malattia, è possibile stabilire la cura. 9 Nicolò Tamà IV N LAM 2012/2013 Le varie correnti di pensiero hanno preso in considerazione vari metodi classificativi, ma di base corrispondono a quattro costituzioni omeopatiche principali che traggono il loro nome dal rimedio caratteristico più simile al soggetto: Sulfurica (dallo zolfo), Carbonica (dal carbonato di calcio), Fosforica (dal fosfato di calcio), Fluorica (dal fluoruro di calcio). Una breve descrizione delle costituzioni da un punto di vista fisico, psichico e patologico permette una loro migliore comprensione. Carbonica (Il Carbonico) Il rimedio costituzionale di base da usare è la calcarea carbonica, che si ricava dal guscio sminuzzato delle ostriche, ed è principalmente costituita da carbonato di calcio. In generale altera il metabolismo del calcio all’interno del corpo. Tipologia: • Soggetto tendenzialmente basso e grasso; • Articolazione rigide (aspetto stanco, gesti lenti e goffi); • Mano quadrata; • Angolo braccio-avambraccio aperto verso l'alto; • Denti e unghie tendenzialmente quadrati; • Bambino: testa grossa, ventre prominente, vorace. Psiche: • Ordinato e disciplinato; • Rispettoso, responsabile, coscienzioso; • Calmo, sedentario, apatico e pigro. Predisposizioni morbose: • Eczema e diarrea; • Arteriosclerosi; • Artrosi; • Malattie metaboliche. Sulfurica (Il Sulfurico) Prende il nome dallo zolfo, il quale, nella forma di radicale solforico, costituisce il rimedio base. Nei suoi composti l’elemento zolfo partecipa a reazioni biochimiche fondamentali dell’organismo, soprattutto nei processi di detossicazione, ed è un rimedio di modulazione che accelera o rallenta il metabolismo. Nella costituzione sulfurica si distinguono due sottotipi: il Sulfurico grasso e il Sulfurico magro. Tipologia: • Tendenzialmente è un soggetto di media statura; • Colorito rosso, cute calda; • Ipertrofia muscolare ed ipertricosi; • Corpo, viso e mani quadrate; • Denti e unghie quadrate; • Angolo braccio-avambraccio non in linea (formato un angolo < 180°). 10 Nicolò Tamà IV N LAM 2012/2013 Psiche: • Soggetto equilibrato dal punto di vista psichico, talvolta impulsivo, ipercritico e nervoso; • Reagisce bene a qualsiasi stimolo esterno. Predisposizioni morbose: • Soffre spesso di sintomi alternanti e recidivanti: prurito, secrezioni, bruciori, cefalee e nevralgie; • Presenta, in genere, solo problemi cutanei e a volte metabolici (specie il sulfurico grasso con l'avanzare dell'età), ad esempio diabete, gotta, calcolosi epatica e renale, obesità. Fosforica (Il Fosforico) Il fosfato di calcio, rimedio della costituzione fosforica, è presente in tutti i tessuti organici ed è utilizzato in medicina nella cura dei difetti ossei o come sostituto ad un innesto osseo quando il trapianto non è possibile. Tipologia: • Alto e sottile; • Articolazioni flessibili; • Mano allungata con dita sottili; • Unghie e denti lunghi; • Angolo braccio- avambraccio tendenzialmente in linea; • Muscoli molto deboli, ossatura indebolita; • Bambini: magrolini, appetito alterno, insonnia, umore variabile. Psiche: • Intelligente, sentimentale, insoddisfatto; • Elegante ed armonioso; • Si esaurisce facilmente, vita interiore domina su quella di relazione. Predisposizioni morbose: • Spesso malaticcio (anemia, dimagrimento, demineralizzazione progressiva), di rado soffre di gravi malattie; • Rinofaringiti, bronchiti, asma bronchiale, pertosse; • Cistiti recidivanti; • Dalla debole ossature possono derivare: scoliosi, cifosi, piedi piatti, petto scavato, ptosi viscerali e lassità legamentosa. Fluorica (Il Fluorico) Il fluoruro di calcio è il rimedio della costituzione fluorica, che non è considerata una costituzione normale ma una deviazione patologica della costituzione fosforica. La sua azione principale è l’aumento di flessibilità dei tessuti, per cui esso si trova spesso nei tessuti con funzione strutturale. Tipologia: • Soggetto con dimorfismi; • Esostosi; • Grande lassità delle articolazione; • Dentizione irregolare; • Dita mano asimmetriche e flessuose; • Angolo braccio-avambraccio aperto verso il basso. 11 Nicolò Tamà IV N LAM 2012/2013 Psiche: • Instabilità e indecisione; • Ritardo mentale o intelligenza intuitiva. Predisposizioni morbose: • Scoliosi, cifosi; • Malattie ulceranti, es. rettocolite ulcerosa; • Paranoia o sindrome maniaco-depressiva; • Ipercalcificazioni, osteofiti, osteoporosi, ernie, varici. 3.5 Diatesi e miasmi Hahnemann riuscì a definire per la prima volta le diatesi nella sua opera “Le malattie croniche: la loro natura specifica e il trattamento omeopatica” del 1828, in cui le nominò miasmi. Egli le definì come le vere responsabili delle ricadute delle malattie durante la cura omeopatica. Esse sono caratterizzate da segni peculiari, descritti in seguito, e si distinguono in quattro tipi, tre dei quali proposti da Hahnemann: la psorica (dalla psora, termine che in greco indicava la scabbia), la sicotica (dal greco sycon, fico, nome di una dermatosi genitale) e la luesinica (dalla lue, ovvero la sifilide). Nebel (1870-1940) e Vannier (1880-1963), due tra i numerosi discepoli di Hahnemann, aggiunsero in seguito anche la tubercolinica (TBC). Il Tubercolinismo sarebbe più precisamente da classificarsi come sotto-diatesi psorica. Di ogni diatesi viene fatto un quadro preciso che si basa sulla genesi delle patologie, sulle caratteristiche di esse e sui rimedi omeopatici collegati ad esse. Ogni costituzione tenderà preferibilmente ad una certa diatesi: la Carbonica sarà più della diatesi Sicotica, quella Sulfurica della Psorica, quella Fosforica della Tubercolinica, quella Fluorica della Luesinica. Per non generare confusione, è importante sottolineare che la nozione di diatesi supera la nozione classica di malattia; essa è una storia patologica, una catena di malattie e malesseri strettamente legati al “terreno” del soggetto, di cui può interessare tutta la vita o solo parte di essa. Sicotica • Accostamento alla blenorragia (infiammazione acuta o cronica delle vie urinarie, anche chiamata gonorrea) e alla crescita di vegetazioni verrucose sui genitali esterni; • Associata all’eccesso, alla iperfunzione: esprime un rallentamento degli scambi e la tendenza all’accumulo delle tossine, con conseguente formazione in zona di vere e proprie escrescenze; • Le predisposizioni patologiche sono le forme catarrali croniche (ad esempio bronchite cronica), uretrite cronica (infiammazione del breve canale di collegamento della vescica con l’esterno), ritenzione idrica, arteriosclerosi, obesità, cellulite, neoformazioni benigne dalle semplici verruche ai fibromi e papillomi (entrambi tumori benigni della cute); • A livello mentale si caratterizza per ambizione, eccesso di audacia, impazienza, inquietudine, autoritarietà, fissazioni, fobie, depressione; • Presenta aggravamento con l’umidità e miglioramento con il movimento lento; • Cause della sicosi: Hahnemann riconduceva l'eziologia della sicosi alla presenza di blenorragia negli antecedenti familiari, attualmente si dà molta importanza anche all'abuso di vaccinazioni e all'uso indiscriminato di farmaci come il cortisone; • Prevale nel soggetto carbonico o nel soggetto sulfurico. 12 Nicolò Tamà IV N LAM 2012/2013 Psorica • Accostamento alla scabbia (malattia contagiosa della pelle provocata dall’acaro sarcoptes scabiei); • Associata all’inibizione, all’ipofunzione; esprime la tendenza ad eliminare le tossine attraverso la cute, le mucose o gli emuntori fisiologici (reni, fegato, ecc.); • Manifestazioni pruriginose periodiche e alternanti soprattutto a livello cutaneo con tendenza alla parassitosi; • A livello psichico tende alla depressione; • Stato cronico di intossicazione determinato da svariate patologie sia ereditarie che acquisibili; • Due modi di manifestarsi: • Fase iniziale (detta attiva o stenica): eliminazione all’esterno delle tossine, per cui troviamo patologie come eczema, foruncoli, diarrea, rinite allergica; • Fase successiva, astenica (detta passiva): non c’è possibilità di eliminazione verso l’esterno delle tossine che vengono convogliate verso organi interni , per cui è possibile arrivare a disturbi lesionali come ad esempio il diabete o la cirrosi; • In genere appartiene al soggetto di costituzione carbonica o sulfurica. Luesinica • Accostamento alla sifilide (malattia infettiva a prevalente infezione sessuale); • Associata alla perversione, alla distruzione, alla disfunzione: esprime la fissazione delle tossine o degli agenti patogeni in una zona del corpo con conseguente alterazione e/o distruzione dei tessuti interessati; • Predisposizioni morbose: ptosi viscerali (abbassamento del colon in correlazione all’abbassamento di tutti i visceri addominali), rettocolite ulcerosa (infiammazione cronica intestinale che coinvolge la mucosa del retto e del colon), scarlattina, stomatiti, varici, disfunzioni ormonali, disturbi della dentizione; • A livello mentale: aggressività, violenza, irrequietezza, angoscia, pessimismo, rancore, invidia, instabilità psichica, disturbi del sonno; • Aggravamenti al mare, per gli eccessi di temperatura e di notte; miglioramenti in montagna; • Eziologia: da ricercare la sifilide o l'alcolismo negli antecedenti familiari; • In genere presente nel soggetto di costituzione fluorica. Tubercolinica • Condivide la gran variabilità morbosa e comportamentale del miasma psorico (deriva da esso); • Disposizioni patologiche: malattie broncopolmonari, i disturbi da difettosa circolazione venosa periferica e i dimagrimenti; • Esprime la tendenza dell’organismo ad accelerare i processi catabolici, cioè ad attivare i processi di degradazione delle tossine; • A livello mentale provoca introversione, instabilità emotiva, alternanza dell’umore (dall’euforia alla depressione), tendenza alla malinconia, difficoltà di concentrazione; • Aggravamento con il freddo e miglioramento con il riposo, all’aria aperta e con il movimento moderato; • Eziologia: avi con problemi tubercolari; • In genere presente nella costituzione fosforica; • Diatesi introdotta dallo svizzero Nebel e sviluppata dal francese Leon Vannier. 13 Nicolò Tamà 4 4.1 IV N LAM 2012/2013 Cura del malato L’anamnesi Alla base della cura omeopatica, che ricordo prevede inizialmente l’individuazione della costituzione e della diatesi, si situa il rapporto tra medico e paziente; è infatti fondamentale l’instaurazione di tale legame, in quanto il medico dovrà analizzare attentamente il passato del malato per potersene “impossessare” ed in seguito poter definire la malattia. L’omeopatia si propone infatti di curare il malato, non la malattia. Per cui, come primo passo della cura vi è l’anamnesi, ovvero un colloquio in cui il presunto malato viene interrogato dall’omeopata. La visita omeopatica si suddivide essenzialmente in due tempi principali: nella prima parte il medico rivolge al paziente una serie di domande, il cui scopo è di indagare sugli antecedenti familiari e su quelli legati al periodo dello sviluppo, nonché sulle eventuali malattie del passato e le relative cure effettuate; la seconda parte, invece, consiste in un esame fisico, di organi e apparati, molto simile alla visita medica tradizionale. L’unico aspetto che la differenzia da questa, però, è l’insieme di domande riguardanti i sintomi attuali, quelli cioè che hanno condotto il paziente a rivolgersi al medico. A partire dalle domande poste si intravede come la cura sia incentrata sul malato nella sua interezza. Proprio per questo motivo il medico omeopata indaga inizialmente alla ricerca di quei sintomi psicologici (paure, ansie, irritabilità, ecc.) e dell’intelletto (deficit di memoria, comprensione, ecc.) che più affliggono il paziente, e passa poi a verificare le sue reazioni ad alcuni fattori, esterni ed interni, che potrebbero influenzare il suo stato d’animo: le diverse condizioni atmosferiche, l’effetto del riposo, del movimento e di soggiorni al mare o in montagna, le preferenze alimentari, la facilità o meno ad addormentarsi, eventuali risvegli notturni e sogni (o incubi) ricorrenti, eventuali problematiche della vita sessuale. A questa prima fase seguono le analisi fisiche del paziente, che condurranno poi alla diagnosi della problematica da curare. Il medico agirà poi sempre considerando quella visione olistica dell’essere umano, proposta dalla medicina omeopatica, secondo la quale, quando un organo od una funzione sono alterati è in realtà l’organismo intero ad essere malato: la malattia è dunque solo la localizzazione finale di questo squilibrio generale, che ci riconduce al concetto, secondo il quale la guarigione consista nella cura del malato nella sua interezza. Con l’individuazione della costituzione d’appartenenza e del miasma da curare, la cura ha modo di iniziare; il medico prescrive dunque il rimedio più appropriato e il paziente prosegue il trattamento individualmente. È tuttavia necessario effettuare una visita omeopatica tutte quelle volte che il disturbo, o la malattia da cui si è affetti, abbiano tendenza a recidivare con frequenza , ovvero a ripresentarsi in seguito alla scomparsa dei sintomi, o comunque a cronicizzare: questo andamento, infatti, indica che l’organismo, a causa di una perturbazione permanente del suo funzionamento fisiologico, non è più in grado di giungere spontaneamente alla guarigione. La visita, allora, ha lo scopo proprio di individuare tale perturbazione che, se opportunamente trattata, permetterà alla persona di tornare in buona salute come effetto della ritrovata armonia funzionale dei suoi organi e dei suoi apparati, ovvero della sua “Energia Vitale”. Il paziente che ritorna in buona salute deve inoltre considerare un discorso di prevenzione; essendo a conoscenza della costituzione d’appartenenza l’individuo è in grado, con l’aiuto del medico omeopata, di monitorare l’equilibrio interno, e di conseguenza d’intervenire prontamente nel caso compaiano nuovi sintomi. Si consigliano dunque un paio di controlli annui da parte del medico curante. 14 Nicolò Tamà 4.2 IV N LAM 2012/2013 Preparazione, sperimentazione e prescrizione del rimedio omeopatico Preparazione Le sostanze attive da cui traggono origine i rimedi omeopatici provengono dai tre regni della natura: vegetale, animale e minerale. Tra essi i rimedi di origine vegetale rappresentano più del 70%. Ricordando che l’omeopatia si prefigge di curare il malato nella sua interezza, il rimedio dovrà tener conto oltre dei sintomi fisici, di un quadro molto più ampio ed articolato, che comprende le modalità di comparizione dei sintomi, la loro localizzazione, le sensazioni, gli aggravamenti ed i peggioramenti, le manifestazioni tipiche, gli aspetti psicologici ed emotivi, i comportamenti, la sfera di azione, la compatibilità con altri rimedi, dunque quanto emerso nell’anamnesi. Seguendo il principio di similitudine di Hahnemann, la scelta del rimedio omeopatico “giusto” deve essere fatta cercando di sovrapporre il più possibile l’insieme dei sintomi fisici e delle caratteristiche individuali con le caratteristiche del rimedio. Solo in questo modo tra i tanti rimedi omeopatici potenzialmente in grado di curare la stessa patologia, si sarà individuato quello più adatto alla persona che ne è affetta. La preparazione del rimedio consiste, come già descritto in precedenza, nella diluizione e dinamizzazione della droga d’origine naturale in seguito all’elaborazione, ovvero l’estrazione, della sostanza attiva. L’elaborazione preventiva della sostanza attiva di base, che forma il cosiddetto ceppo omeopatico, si rende indispensabile per portare correttamente in soluzione i principi attivi. Tale trattamento si differenzia a seconda della natura della materia prima utilizzata e tiene principalmente in considerazione il grado di solubilità della sostanza in acqua o in alcool. Più usualmente per le sostanze di origine vegetale, abbastanza solubili, si ricorre alla Tintura Madre, per quelle di origine minerale o animale, in genere solide non completamente solubili, si ricorre alla triturazione con lattosio. La Tintura Madre è una preparazione liquida ottenuta mediante l’azione estrattiva delle sostanze interessate dalla pianta intera o da sue parti, ovvero per macerazione. Essa consiste in un processo estrattivo in cui la sostanza vegetale contenente il principio attivo (la droga) viene posta per un determinato periodo di tempo in un solvente, tenuto in continuo movimento per velocizzare l’estrazione. Nel caso della Tintura Madre il solvente è una soluzione idroalcolica, la cui gradazione dipende dalla freschezza della pianta macerata (la pianta attiva può essere fresca oppure secca). Questa tecnica d’estrazione è comunemente utilizzata anche in fitoterapia, ovvero nella preparazione di rimedi naturali a partire dall’estrazione del principio attivo dalla parte con azione farmacologica della pianta (la droga). In questa fase omeopatia e fitoterapia non si possono infatti distinguere. Vi è tuttavia un ulteriore stadio che costituisce l’enorme differenza tra queste due branche della medicina alternativa: la diluizione e la dinamizzazione. Per ottenere il rimedio omeopatico vero e proprio dunque atossico e con l’adeguata “Energia Medicamentosa”, è necessario infatti procedere con le successioni e le dinamizzazioni descritte nel capitolo “Diluizioni e Dinamizzazione". Purtroppo molte persone non sono a conoscenza di tale differenza, per cui tendono a generalizzare con il termine di “medicina naturale” e spesso consumano un preparato omeopatico senza sapere di cosa si tratti realmente. Sperimentazione La ricerca clinica e la sperimentazione di rimedi omeopatici caratterizza l’omeopatia sin dalla sua nascita, in quanto la gran quantità di sperimentazioni eseguite da Hahnemann su se stesso e su volontari diede l’impulso a numerosi medici (sia omeopati che medici tradizionali) di attuare gli stessi procedimenti. Infatti, avendo in un qualche modo creato il primo metodo standard per la produzione e la sperimentazione di un farmaco, il contributo che Hahnemann diede alla medicina fu notevole. 15 Nicolò Tamà IV N LAM 2012/2013 La prima fase della sperimentazione di farmaci omeopatici consiste nella somministrazione in doppio cieco della sostanza dinamizzata ad individui apparentemente sani già sottoposti ad un periodo d’analisi da parte del ricercatore. Ciò è essenziale in quanto egli deve conoscere i sintomi e le sensazioni del paziente prima che la sperimentazione cominci. Questa fase è definita sperimentazione pura o proving. Né il paziente né il medico conoscono dunque l’effetto della sostanza assunta, o nel caso si tratti di un test per determinare l’effetto placebo, quale gruppo abbia assunto il placebo e quale il farmaco. I soggetti che vi si sottopongono devono annotare con precisione ogni più piccolo cambiamento nelle sensazioni, nonché i sintomi morbosi che la sostanza può provocare nel corso dell'esperimento. Tra di essi vi saranno alcuni più sensibili al medicamento ed altri meno sensibili, se non addirittura del tutto insensibili. Coloro che presentano reazioni fisiologiche e psichiche proseguono la sperimentazione, aumentando però la diluizione del rimedio, per evidenziare altri sintomi. Tra i sintomi raccolti dal ricercatore vanno poi distinti i sintomi primari dai sintomi secondari; i primi rappresentano l’effetto primario del rimedio sull’organismo, mentre i secondi si manifestano in un secondo momento, e consistono nella reazione dell’organismo allo stimolo subito, sono cioè una manifestazione del potere reattivo della “Forza Vitale” e della sua capacità di superare l’impatto del medicamento assunto durante la sperimentazione. Si tiene dunque conto dei sintomi primari. Alla fine, tutti i particolari riscontrati dalle varie persone vengono raggruppati e catalogati ed andranno a far parte delle "Materie Mediche", ossia testi di consultazione necessari al medico omeopata per individuare il rimedio adatto al malato. Oggi esistono varie "Materie Mediche", pubblicate da vari omeopati in oltre duecento anni, cioè dall'epoca di Hahnemann ad oggi. La seconda fase consiste nell’esecuzione di test su pazienti malati, ovvero nella ricerca clinica controllata, che consiste in una verifica di quanto fin’ora registrato. Seguendo i principi di Hahnemann, bisogna dunque accostare un rimedio in grado di provocare determinati sintomi nell’organismo ad un paziente, la cui sintomatologia è quanto più simile ad essi. I risultati ottenuti non sono però sempre attendibili, in quanto il rimedio non cura precisamente una malattia, bensì l’insieme dei sintomi, per cui non si può basare l’evidenza clinica esclusivamente sull’efficacia del medicinale sulla malattia. Pertanto potranno essere somministrati medicinali diversi per una determinata malattia diagnosticata, a seconda dei sintomi del paziente. Ricordo infine che la sperimentazione non coinvolge minimamente animali, in quanto l’analisi dei sintomi risulterebbe incompleta e priva di senso (si pensi all’effetto psichico generato da essi); per cui per una volta è l’uomo a testare dei farmaci per gli animali. L’efficacia dell’omeopatia viene quindi principalmente confermata dalla pratica, perciò dai numerosi successi di casi clinici, piuttosto che dai risultati delle sperimentazioni, che rimangono ancora troppo vaghi e incerti. Normative Attualmente l’omeopatia non è riconosciuta ufficialmente come tecnica terapeutica, in quanto le evidenze cliniche, dunque la percentuale di test clinici di successo, non sono sufficienti per garantire l’efficacia del rimedio omeopatico. Non essendo dimostrata la loro efficacia, ma essendo stato provato il fatto che essi non nuocciono alla salute del paziente, essi sono comunque accettati dalle farmacopee ufficiali. La farmacopea ufficiale è un testo normativo che contiene un complesso di disposizioni tecnico/scientifiche ed amministrative di cui il farmacista si serve per il controllo della qualità dei farmaci. Esso viene compilato da organismi statali di controllo delle varie nazioni a partire da ricerche condotte da istituti farmaceutici, dunque dalla sperimentazione dei farmaci. Vengono descritti i requisiti di qualità delle sostanze ad uso farmaceutico, le caratteristiche che i medicinali 16 Nicolò Tamà IV N LAM 2012/2013 preparati devono avere, ed elenca composizione qualitativa e talvolta quantitativa di ogni farmaco galenico che le farmacie di quel paese sono autorizzate a preparare. A differenza di numerosi farmaci tradizionali, per cui vigono norme alquanto severe (che però non considerano sempre gli effetti collaterali che essi possono provocare), essi sono dunque acquistabili in farmacia senza ricetta medica. Un ulteriore fattore che impedisce la loro accettazione è l’assenza di foglietto illustrativo; ciò è dovuto al fatto che il rimedio non è specifico per una malattia, ma mira alla cura di un insieme di sintomi specifici nel paziente, per cui è impossibilitata una sua prescrizione generica. Per queste ragioni essi vengono classificati come rimedi, non come farmaci. Prescrizione La Dose Unica: Un solo tipo di disordine, cioè una sola malattia, alla volta colpisce l'uomo; il medico omeopatico, tenendone sempre ben presente i connotati, deve essere in grado di selezionare, tra gli oltre duemila rimedi omeopatici, quello perfettamente corrispondente alla totalità dei sintomi caratteristici manifestatisi nell'individuo ammalato. Le caratteristiche principali che il medico deve tenere in considerazione nella scelta del rimedio sono: I. L’azione svolta: ogni rimedio agisce differentemente nell’organismo: • • • • • • • • • • rimedi omeopatici sinergici (migliorano e completano l’effetto del rimedio che li ha preceduti), rimedi omeopatici asinergici (controllano o annullano l’effetto di un altro rimedio), rimedi omeopatici antidoti (controllano e attenuano l’effetto del rimedio che li ha preceduti in caso di eccesso della sua azione), rimedi omeopatici incompatibili (attenua o annulla l’effetto di un rimedio complementare), rimedi omeopatici sintomatici o ad azione locale (correlato al quadro sintomatologico del paziente), rimedi omeopatici costituzionali o di fondo (le loro caratteristiche principali corrispondono ai caratteri morfologici, fisiologici e psicologici della costituzione del paziente), rimedi omeopatici simillimum (sono altamente personalizzati in quanto si considera la globalità delle manifestazioni del paziente), rimedi omeopatici acuti (in grado di curare meglio i sintomi di una malattia che induce reazioni forti e/o improvvise, tipiche degli stati acuti), rimedi omeopatici cronici (in grado di curare meglio i sintomi di una malattia quando questi hanno superato la fase acuta), rimedi omeopatici policresti (ad ampia azione, cioè un rimedio che ha un’azione generale riequilibrante utilizzabile per curare varie patologie). II. La galenica, ovvero le varie forme medicamentose dei rimedi disponibili sul mercato (descritta nel capitolo seguente). III. La Potenza: Nella scelta della Potenza o Diluizione del rimedio, l'omeopata deve essere attento a prescrivere la giusta dose in grado di attivare la “Forza Vitale”; una potenza insufficiente non innescherà il processo di cura, mentre una troppo forte procurerà uno spreco di “Energie” con inutili sofferenze, 17 Nicolò Tamà IV N LAM 2012/2013 anche se di breve durata. A scopo puramente indicativo, e quindi con la dovuta flessibilità, è possibile distinguere schematicamente tre fasce di diluizione dei rimedi omeopatici: Diluizione Decimale Centesimale Bassa D2 – D8 1CH – 4CH Media D9 – D23 5CH – 11CH Alta > D24 > 12CH Tipi di rimedio e posologia La nomenclatura internazionali dei rimedi è data in latino, essi sono disponibili in commercio in diverse concentrazioni e sotto varie forme. Se si considerano i preparati contenenti una sola sostanza in soluzione, ovvero gli unitari, vi sono: • Forme più utilizzate: Granuli: Sono piccole sfere di saccarosio e lattosio impregnate della sostanza medicinale omeopatica diluita (solitamente a diluizioni medio-basse). Sono contenute in un tubo si circa 4 g in una quantità di circa 80 granuli (ognuno ha massa di 50 mg). Da assumere più volte al giorno in numero da 3 a 5 per via perlinguale. • Globuli: Sono sfere di saccarosio e lattosio simili ai granuli, ma con massa di 5 mg. Il contenuto di un tubo (solitamente 200 globuli) viene assunto in un'unica dose (per esempio un tubo, quindi 1 g, al dì) per via perlinguale, in quanto solitamente le diluizioni sono medie o alte. Si parla perciò di tubo-dose. • Gocce: Solitamente realizzate con una soluzione alcolica 30% di volume, sono la forma più utilizzata per somministrare rimedi omeopatici a diluizioni molto basse. Sono disponibili in flaconi di 15 o 30 mL e vanno assunte direttamente dal flacone o in un po’ d’acqua 2-4 volte al giorno e alla dose media di 15-20 gocce per volta. • Forme meno utilizzate: Pomate (eccipiente composto vaselina con talvolta l’aggiunta di lanolina), fiale orali (fiale da 1 o 2 mL di soluzione idroalcolica 15%), supposte (eccipienti composti da gliceridi solidi, grassi, di 2 g di massa), compresse (simili a granuli e globuli, ma con massa 100 mg), sciroppi, creme, ovuli, gel, spray, polvere, colliri e ampolle. Esistono inoltre altre forme di rimedio: i composti (o specialità) e i rimedi basati sul principio di identità. I primi consistono in miscele di sostanze che condividono un tropismo d’organo, che dunque tendono a localizzarsi ed accumularsi in determinati organi o apparati, o che presentano indicazioni cliniche simili. Nel caso delle specialità, ovvero i rimedi le cui formule sono messe a punto direttamente dai laboratori omeopatici, possono inoltre essere associati rimedi omeopatici in bassa diluizione a farmaci tradizionali. Il secondo tipo di rimedio è fondato invece sul principio di identità, anziché su quello di similitudine, in quanto viene somministrato al paziente un prodotto direttamente responsabile della malattia. Essi si suddividono a loro volta in isoterapici e bioterapici. Gli isoterapici consistono in diluizioni di sostanze direttamente responsabili della malattia o del fastidio (ad esempio pollini e allergeni), mentre i bioterapici sono isoterapici non individualizzati, dunque ad uso generico. 18 Nicolò Tamà IV N LAM 2012/2013 Al fine di sfruttare al meglio l'azione del prodotto è consigliabile rispettare alcuni semplici accorgimenti: assumere il rimedio lontano dai pasti o da sapori forti, come menta, canfora o dentifrici (almeno un’ora prima o due ore dopo), in quanto alcuni sapori potrebbero influenzarne l’effetto; limitare l'uso di sostanze nervine (tè, caffè, fumo di sigaretta). Si consiglia inoltre di non toccare i granuli con le mani: il sudore delle dita, infatti, potrebbe provocare lo scioglimento di una loro parte, e ridurre così la quantità di medicamento assunto, e di assumere i granuli (o altri) per via perlinguale aspettandone lo scioglimento, senza dunque masticarli. Per i bambini che non sono capaci di succhiare i granuli, questi vengono di norma diluiti in acqua. In presenza del ciclo mestruale è sempre meglio sospendere la terapia omeopatica, salvo diversa indicazione. E' consigliabile, infine, tenere i rimedi lontano da odori forti e fonti di calore, luce intensa ed eccessiva umidità: in tali condizioni la loro efficacia si mantiene anche oltre la data di scadenza indicata. 4.3 Cura e Effetto Placebo La cura omeopatica appare non solo come la risoluzione di un problema istantaneo, ovvero la malattia, attraverso la scomparsa dei sintomi fisici, bensì come la cura psicologica del paziente attraverso il suo coinvolgimento in un’indagine interiore che mette a nudo le disarmonie e i contrasti che da tempo lo affliggono. In un primo tempo il rimedio stimola la sfera psichica del soggetto e fa riaffiorare le problematiche ed i conflitti più profondi e nascosti, rendendo così l’ammalato consapevole di quanto lo turba. In un secondo tempo, dopo essersi reso conto del proprio “funzionamento” psichico, grazie alla cura riesce ad acquisire una nuova consapevolezza di sé e modifica il modo in cui egli “funziona” nella vita, che é alla base degli scompensi, i quali hanno causato i corrispondenti disturbi. Il soggetto comprende il suo modo di essere e i suoi limiti, si confronta in questo modo con ciò che è la causa della sua malattia superando la sua disarmonia. Ciò avviene tuttavia solo se il medico che prescrive il rimedio e il paziente sono consapevoli dell’azione che vanno a compiere con l’assunzione di un determinato farmaco; è infatti possibile consumare e prescrivere un rimedio omeopatico allo stesso modo di un farmaco tradizionale senza quindi considerare minimamente la dimensione psichica omeopatica e limitando in un certo modo la sua azione. Numerosi medici tradizionali che hanno introdotto nella pratica clinica l’omeopatia, prescrivono infatti rimedi omeopatici con superficialità, rendendo nel tempo la cura omeopatica meno efficace di quanto potrebbe in realtà essere. Nelle cure più efficaci assistiamo invece ad una più profonda azione del medicamento che può anche non essere indolore. Nella fase iniziale della cura può difatti avvenire il cosiddetto aggravamento iniziale (o aggravamento omeopatico). L'Aggravamento iniziale consiste in quel processo secondo il quale in seguito all’assunzione di un rimedio omeopatico può manifestarsi un aggravamento dei sintomi. Il che, nonostante possa sembrare un effetto negativo, significa al contrario che l'organismo sta rispondendo all'impulso del rimedio somministrato e che, quindi, la scelta terapeutica è corretta. Dopo qualche giorno questo aggravamento scompare e sopraggiunge un miglioramento ed un benessere generale non solo fisico ma anche psichico, che progressivamente porta alla guarigione. Il superamento della patologia è determinato non da un'aggressione esterna, ma da una forza interna all'organismo, la “Forza Vitale”, la quale, stimolata dal rimedio simile, è capace di ristabilire l'equilibrio psico-fisico integrale. In questo modo la guarigione si manifesta in modo indolore, tanto da far dimenticare al soggetto di essere stato malato. 19 Nicolò Tamà IV N LAM 2012/2013 Altre volte il percorso terapeutico, innescato dal medicamento omeopatico, è più semplice e diretto. L'ammalato non percepisce tensioni e non si accentuano i sintomi, ma c'è un immediato e progressivo miglioramento che porta benessere psichico e fisico. Questa modalità reattiva si osserva molto spesso nei bambini, i quali, rispetto agli adulti, sono meno stratificati nelle difese psicologiche e nei comportamenti nevrotici. I risultati positivi di cure omeopatiche su bambini, e addirittura animali, allontana perciò in parte il principale dubbio relativo all’omeopatia, ovvero l’efficacia dovuta all’effetto placebo. Effetto placebo L’efficacia dovuta ad effetto placebo è la critica principale mossa contro l’omeopatia ormai da decenni. Esso esiste nella medicina, e intendo sia quella tradizionale allopatica che quella omeopatica, da sempre. Con questo termine viene inteso un effetto specifico psicologico e psicofisiologico prodotto da un placebo, ovvero una sostanza inattiva che viene somministrata al paziente come se fosse un vero farmaco ed allo scopo di soddisfarlo. Da questa definizione, si deduce che, se sosteniamo che il farmaco omeopatico è un placebo, gli unici effetti del farmaco stesso sono di natura psicologica, cioè dipendono in sostanza dal rapporto medico-paziente, e dalla convinzione di assumere un medicinale. Imputare la totalità dell’efficacia dell’omeopatia all’effetto placebo e ritenere che esso non ne sia minimamente responsabile sono entrambe delle scorrettezze: é ipocrita un medico tradizionale che sostiene che i risultati di due secoli di pratica omeopatica siano totalmente dovuti ad un effetto di autoconvinzione, quanto lo è un omeopata che allontana l’efficacia di questa tecnica terapeutica nella sua completezza dall’effetto placebo. È infatti evidente che, nonostante non vi siano ancora delle certezze scientifiche riguardo l’omeopatia, le basi cliniche, dunque i risultati positivi di 200 anni di cure, siano oggigiorno concrete. È tuttavia difficile, come in alcuni casi dell’allopatia, distinguere i due frangenti. Due esempi in cui questo dubbio è stato parzialmente chiarito sono le ricerche cliniche effettuate su bambini e animali. Se in un adulto è possibile effettuare un condizionamento mentale dovuto alla consapevolezza dell’assunzione di un farmaco, ciò è più difficile nel caso in cui un bambino assuma il farmaco, e ancor meno se il soggetto è un animale. Nonostante la possibilità di infondere in un bambino la sicurezza dell’assunzione di un farmaco quando un adulto si prende cura di lui a sua insaputa, perciò di provocare indirettamente un effetto placebo, un bambino non si rende normalmente conto delle aspettative della cura con farmaci, perciò appare immune a tale effetto. Nel caso dell’omeopatia veterinaria il risultato è ancor più lampante in quanto è improbabile una suggestione di tali proporzioni. Tempo di cura Il tempo di cura dei rimedi omeopatici è il tempo necessario alla persona per guarire, per liberarsi cioè definitivamente dai suoi disturbi, mentre il prolungarsi o meno delle cure, dipende da altri e molteplici fattori: età (i bambini, ad esempio, rispondono più prontamente degli adulti), esposizione ripetuta ai fattori scatenanti e grado d’intossicazione chimica, farmacologica e voluttuaria (alcool, fumo, caffè, ecc.) del paziente. Va inoltre posta una distinzione per il tipo di disturbo: un disturbo acuto necessita di breve tempo (poche ore) perché il rimedio abbia effetto e di pochi giorni perché la guarigione si completi; un rimedio per un disturbo cronico agisce nel giro di qualche giorno o addirittura di qualche settimana e la sua assunzione può protrarsi per un lungo periodo. Con la scomparsa dei sintomi si assiste normalmente alla guarigione; solo nei casi di disturbi cronici che potrebbe recidivare bisogna poi proseguire la cura. 20 Nicolò Tamà IV N LAM 2012/2013 Accompagnamento a cure mediche tradizionali L’omeopatia può inoltre dare un ottimo contributo a cure mediche tradizionali sotto forma di terapia d’accompagnamento a livello clinico. Un esempio lampante è il lavoro svolto dalla Clinica Santa Croce di Orselina, sotto la direzione del Dr. Dario Spinedi, primo e finora unico centro di cura in cui i pazienti vengono curati con l’omeopatia unicista (da sola o in accompagnamento alle cure mediche convenzionali). La clinica si è specializzata nel trattamento di pazienti oncologici sia per la cura profonda della patologia di base, sia per un sostegno durante la chemioterapia e la radioterapia. Il centro si occupa inoltre di malattie croniche, come malattie autoimmuni, malattie dermatologiche, reumatiche, epilessia, sclerosi multipla, diabete mellitus, morbo di Crohn, colite ulcerosa ecc. Il Dr. Spinedi si è gentilmente messo a disposizione sia per fornire informazioni riguardo all’attività condotta nella clinica, sia per rispondere ad alcune mie domande di natura teorica nei confronti dell’omeopatia. La collaborazione, seppur breve, è stata di grande aiuto per il mio lavoro, per cui mi sento in dovere di porgere al Dr. Spinedi i miei più sinceri ringraziamenti e i complimenti per i successi raccolti negli anni. Bisogna difatti ricordare che la clinica ha raccolto una notevole fama a livello internazionale soprattutto per il fatto che la percentuale di paziente curati, o la cui speranza di vita è stata allungata e la cui qualità di vita è migliorata, specialmente in relazione alla diminuzione degli inevitabili effetti collaterali della chemioterapia e della radioterapia, è strabiliante. L’allungamento della speranza di vita nei pazienti in cura oncologica può talvolta protrarsi fino a una decina di anni rispetto le previsioni antecedenti la cura omeopatica. Nella raccolta di casi oncologici sotto la cura del Dr. Spinedi e di alcuni suoi colleghi, pubblicata nel 2011 e intitolata “L’omeopatia in Oncologia”, alcuni dettagli di questi risultati sono ben descritti. Tra le pagine di questo manuale, che consiste essenzialmente in una guida per colleghi del settore nell’affrontare la cura di patologie tramite l’omeopatia (non si considera soltanto l’oncologia), sorge un ulteriore concetto, alquanto singolare in medicina, già citato nel capitolo precedente, ovvero la considerazione di ogni individuo come entità diversa da tutte le altre, la quale richiede di conseguenza un trattamento specifico, che curi la persona nella sua totalità. Nella conclusione del manuale il Dr. Spinedi evidenzia tale concetto, sostenendo che: “Nessun sistema statistico è in grado di tener conto dell’individualizzazione e della nobiltà dell’omeopatia. Allo stesso modo fallirà ogni tentativo di voler ridurre l’omeopatia a un “protocollo” di cura.” La possibilità di instaurare tale legame tra medico e paziente è ulteriormente amplificata dal ricovero all’interno della clinica, generalmente per un periodo di 14 giorni, dove il team avrà modo di analizzare a fondo i singoli casi e ottenere infine la cura adatta. In seguito alla dimissione dalla clinica vengono consegnati i rimedi con cui il paziente potrà completare la cura a domicilio, sempre tenendosi in contatto con l’istituto. 21 Nicolò Tamà 5 IV N LAM 2012/2013 Studi scientifici e Memoria dell’acqua Un grande difetto dell’omeopatia sta nel fatto che nonostante l’esistenza di prove della sua efficacia a livello clinico, non vi sono ancora delle basi scientifiche in grado di motivare tale efficacia. Il quesito riguardo l’esistenza di un meccanismo biologico, fisico o chimico in grado di spiegare il funzionamento di tale pratica terapeutica, da sempre utilizzato per discreditarla, sta però ottenendo nel corso degli ultimi anni delle risposte alquanto sorprendenti. Il primo ricercatore a concentrare il suo interesse su tale questione fu, negli anni ’80, il medico ed immunologo francese Jacques Benveniste, il quale, avendo strumenti sufficientemente tecnologici e i fondi necessari, avviò una serie di ricerche finalizzate a “spiegare” l’omeopatia. I risultati ottenuti, pur essendo stati pesantemente criticati dalla comunità scientifica, stimolarono la curiosità di altri ricercatori su quella che si rivelerà essere una questione parecchio controversa. 5.1 Jacques Benveniste Jacques Benveniste (1935-2004) fu un medico e immunologo francese, professore all’Université Paris-Sud, di Clamart, noto per aver pubblicato su Nature i risultati di una ricerca dai contenuti scioccanti per tutta la comunità scientifica. Nel lavoro, pubblicato il 30 giugno 1988, e dal titolo: Human basophil degranulation triggered by a very dilute antiserum against IgE, si sosteneva che estreme diluizioni in acqua di un antisiero (diluito oltre 120 volte), un particolare anticorpo, producevano esattamente lo stesso effetto causato dall’antisiero in condizioni normali e cioè determinavano la degranulazione dei granulociti basofili (una classe di globuli bianchi del sangue che interviene nei meccanismi di difesa immunitaria). Una soluzione estremamente diluita di antisiero, considerabile esente da quest’ultimo, poteva quindi, secondo Benveniste, attivare i granulociti basofili, e provocare una risposta immunologica. Le molecole d’acqua in qualche modo sembrava possedessero una specie di memoria degli anticorpi con cui erano precedentemente venute in contatto, cosicché anche quando essi non erano praticamente più presenti in soluzione si manifestava l’effetto biologico. Il principio delle dosi infinitesimali di Hahnemann sembrava essere convalidato da tali risultati per la prima volta su base scientifica. Le sconvolgenti conclusioni suscitarono l’incredulità di molti scienziati, compresi alcuni membri del comitato di controllo della rivista Nature, i quali, dopo aver revisionato l’articolo, proposero che i risultati sperimentali di Benveniste dovessero essere sottoposti ad un rigoroso controllo prima di essere pubblicati. Benveniste non accettò la proposta opponendosi fermamente, per cui si giunse ad un compromesso: Nature pubblicò l’articolo in questione accompagnato però da una nota dell’editore, la quale sosteneva che i lettori avrebbero potuto condividere l’incredulità della rivista stessa, la quale riteneva che al momento l’attività biologica ipotizzata non potesse essere spiegata su basi fisiche. Benveniste avrebbe inoltre ripetuto l’esperimento sotto la supervisione di alcuni qualificati ricercatori, i quali avrebbero pubblicato al più presto un rapporto. Fu così costituita una commissione di controllo, la quale, avendo concluso che gli esperimenti di Benveniste non fossero attendibili e temendo addirittura una consapevole falsificazione dei dati, redasse un rapporto che fu pubblicato su Nature dal titolo: “High-dilution” experiments: a delusion. Si scoprirono successivamente conflitti di interesse tra il medico francese e alcune industrie di prodotti omeopatici, come la LHF e la Boiron, dalle quali Benveniste aveva ricevuto sovvenzioni e pagamenti non dichiarati. Per questo motivo fu allontanato dall'istituto in cui lavorava non appena il contratto giunse a scadenza. 22 Nicolò Tamà IV N LAM 2012/2013 Malgrado ciò, Benveniste era intenzionato a spiegare come tale effetto, ovvero una possibile memoria dell’acqua, potesse essere prodotto; egli cominciò con l’ipotizzare che l’acqua poteva agire come uno stampo per le molecole (anticorpi, come riportato nel suo lavoro), grazie ad una rete di ponti idrogeno, oppure grazie a non ben specificati campi elettromagnetici. Una tale ipotesi permise a fisici, chimici e biologi di intensificare le loro ricerche sulle proprietà dell’acqua, che ancora oggi rimangono in parte sconosciute. Per quanto riguarda le ricerche tendenti a convalidare l’originario esperimento di Benveniste, non essendosi ottenute prove definitive e soddisfacenti, nel dicembre del 1993 fu pubblicato su Nature uno studio dal titolo provocatorio: Human basophil degranulation is not triggered by very dilute antiserum against human IgE. Sembrava così che si fosse posto definitivamente fine alla controversa questione della memoria dell’acqua. La “questione Benveniste” racchiude ancora oggi retroscena ambigui e dubbi, che però non devono porre nel ombra la vita e il genio del medico francese: nonostante una possibile manipolazione dei dati, e quindi l’ottenimento di falsi risultati, l’intuizione di Benveniste rimane estremamente importante per l’impulso che diede alla ricerca. Senza il suo contributo non si sarebbe infatti mobilitata una così gran quantità di squadre di ricercatori e non si disporrebbe oggi di risultati concreti. 5.2 Luc Montagnier Nel corso degli anni ’90 vennero dunque avviati diversi progetti interessati ad uno sviluppo della teoria di Benveniste; di risultati se ne videro però pochi. Anche nel nuovo millennio gli studi proseguono, senza però mostrare novità rilevanti. Il colpo di scena avviene solo nel 2009, quando il virologo francese Luc Montagnier, professore presso l’Istituto Pasteur di Parigi, premio Nobel per la medicina nel 2008 per la scoperta nel 1983 del virus HIV, pubblica i risultati di sue ricerche in grado di fornire una giustificazione teorica dell’omeopatia. L’elemento alla base dei suoi esperimenti è sempre il quesito sull’esistenza della memoria dell’acqua, rivisitata però da un punto di vista fisico grazie alla collaborazione dei fisici Emilio Del Giudice e Giuseppe Vitiello (oltre a numerosi ulteriori collaboratori). La novità proposta dai ricercatori è il ruolo dell’elettromagnetismo nelle interazioni biologiche: esso viene descritto come un’ulteriore base della biologia in aggiunta alla già note basi chimiche. Secondo Montagnier, le molecole hanno la capacità di mantenere inalterate le proprie capacità biologiche anche se fortemente diluite nell’acqua, grazie alle proprietà elettromagnetiche dell’acqua. Le conclusioni a cui sembra essere giunto Montagnier essenzialmente derivano da quanto riportato in due suoi lavori, pubblicati nel giugno e nel settembre 2009, che rispettivamente si intitolano: Electromagnetic Signals Are Produced by Aqueous Nanostructures Derived from Bacterial DNA Sequeces ed Electromagnetic Detection of HIV DNA in the Blood of AIDS Patients Treated by Antiretroviral Therapy. Tali lavori sono stati pubblicati dalla rivista: Interdisciplinary Sciences: Computational Life Sciences, stampata in Cina, il cui direttore editoriale è lo stesso Montagnier. Il lavoro Nei menzionati lavori è stato studiato il comportamento di un piccolo batterio, Mycoplasma pirum, che solitamente si accompagna all’HIV (esso è stato già studiato da Montagnier nel corso delle sue ricerche sull’HIV). Dopo essere stato isolato e purificato da una coltura di cellule mononucleate di sangue periferico (linfociti e monociti, PBMCs) ottenute da sangue di pazienti infetti dal virus d’immunodeficienza umana tipo 1, esso viene filtrato attraverso filtri Millipore aventi una porosità di 100 nm o di 20 nm; il batterio, dalle dimensioni di circa 300 nm, non dovrebbe dunque essere 23 Nicolò Tamà IV N LAM 2012/2013 presente nel filtrato. La prima osservazione sorprendente sarebbe costituita dal fatto che nel filtrato, teoricamente sterile, quando incubato con linfociti T umani attivi non infetti, si rigenerava il batterio originario entro 2-3 settimane. Come conferma della sterilità del filtrato sono state effettuate delle reazioni a catena della polimerasi (PCR e PCR nested) a partire da primer ottenuti dal gene codificante per l’adesina (del batterio), polipeptide che media l’aderenza del batterio ai linfociti. I risultati sono stati negativi e ciò conferma l’assenza di DNA batterico nel filtrato. L’analisi è stata analogamente ripetuta con l’utilizzo di particelle responsabili dell’HIV del diametro di 100-120nm e di filtri aventi una porosità di 20 nm; il risultato era anche in questo caso medesimo. Questi inspiegabili risultati hanno portato Montagnier a chiedersi quali informazioni venissero trasmesse nel filtrato acquoso. Secondo quanto ipotizzato dal ricercatore, i filtrati in questione avrebbero la capacità di produrre onde elettromagnetiche di bassa frequenza (EMS o electromagnetic signals). Tali onde potrebbero essere emesse a causa di un fenomeno di risonanza stimolato da uno sfondo elettromagnetico ambientale, per cui viene ipotizzata la presenza nei filtrati di nanostrutture polimeriche di definita dimensione capaci di generare EMS misurabili e associabili alle onde registrate. L’apparecchiatura impiegata per studiare la produzione di segnali elettromagnetici comprende un solenoide (bobina cilindrica solitamente utilizzate come induttore per lo studio e le applicazioni dell’elettromagnetismo), il quale cattura la componente magnetica delle onde prodotte dai filtrati in esame posti in una provetta e converte tali segnali in correnti elettriche che vengono opportunamente amplificate ed analizzate con uno specifico software. Proseguendo le sue ricerche, Montagnier avrebbe trovato che anche frammenti di DNA di alcuni batteri patogeni sono capaci di generare EMS. Nel caso del Mycoplasma pirum, non soltanto il gene che codifica per l’adesina, utilizzato in precedenza per determinare la sterilità dei filtrati, sarebbe stato in grado di generare EMS, ma anche dei suoi frammenti. Tale caratteristica sembrerebbe possa essere estesa ad altri DNA batterici e virali, anche se non a tutti; alcuni batteri, in particolare i batteri probiotici come il Lactobacillus, non produrrebbero EMS. Nei virus (ad esempio virus dell’influenza oppure dell’epatite C) non sarebbe ancora chiaro se l’RNA virale e in generale particelle virali siano o meno capaci di generare EMS. Nel caso dell’HIV, gli EMS non sarebbero prodotti dall’RNA oppure da particelle virali, ma dal DNA provirale presente nelle cellule infette. Secondo quanto riportato da Montagnier, sarebbero state dunque registrate onde elettromagnetiche di frequenza molto bassa (ULF, Ultra Low Frequency, 400-3000 Hz) solo in alcune diluizioni di filtrati (100 nm, 20 nm) di colture di microrganismi (virus, batteri) e in alcune diluizioni in acqua di DNA estratto dai microrganismi in precedenza saggiati. I segnali elettromagnetici sarebbero stati rilevati solo in alcune alte diluizioni acquose dei filtrati, diluizioni comprese tra 10-9 e 10-18; essi non sarebbero inoltre correlati linearmente con il numero iniziale di cellule batteriche prima della loro filtrazione e sarebbero Lo stesso risultato si ottiene con l’analisi del plasma infettato con gli stessi agenti. Il trattamento dei filtrati esaminati con RNasi A, DNasi I, lisozima e proteinasi K in sodio dodecilsolfato 1% a 56°C per un’ora (tutti enzimi in grado di degradare la catena di RNA o di DNA) sembrerebbe non sopprimere l’emissione di segnali elettromagnetici. Come controllo sono stati inoltre utilizzati filtrati derivati da cellule non infetti: il fatto che essi non producano EMS, avvalora l’ipotesi che i segnali elettromagnetici registrati siano generati da nanostrutture derivate da microrganismi patogeni piuttosto che dai linfociti. Un ulteriore esperimento è stato la riproduzione delle EMS in un campione di acqua “pura”. Dopo aver determinato che solo alcune diluizioni di DNA virale producono le EMS tipiche del rumore elettromagnetico di sottofondo, una provetta contenente una di queste soluzioni è stata inserita insieme ad una provetta con dell’acqua pura in un contenitore in grado di registrare le onde 24 Nicolò Tamà IV N LAM 2012/2013 elettromagnetico. Esse vengono poi filtrate attraverso filtri 450 nm e 20 nm, per poi essere diluite, ed in seguito sottoposte ad un campo elettrico di 7 Hz provocato da un solenoide. Dopo un eccitazione dei campioni di 18 ore, anche il campione contenente acqua pura inizia a produrre EMS. Infine si riproduce la sequenza di DNA, inizialmente estratta dalle sequenze terminali lunghe ripetute (LTR) del DNA del virus, attraverso PCR, dunque fornendo tutti gli “ingredienti” essenziali alla reazione, quali i nucleotidi, la taq polimerasi e i primer. Si conclude l’amplificazione con l’elettroforesi su gel delle varie sequenze, che ha riportato i risultati sperati, ovvero il ritrovamento del DNA inizialmente estratto. L’esperimento è stato ripetuto con successo ben 12 volte in altrettanti tentativi. Conclusioni Da questi risultati Montagnier ha ipotizzato che il DNA dei microrganismi studiati, presente nei filtrati, avrebbe la capacità di generare nanostrutture in soluzioni acquose emittenti per risonanza specifiche onde elettromagnetiche a bassa frequenza, con bande presenti nel “rumore” elettromagnetico di fondo. Inoltre, il fatto che il trattamento enzimatico distruttivo delle sequenze polinucleotidiche (DNA e RNA) sembrerebbe non inibire la produzione di onde elettromagnetiche sarebbe una ulteriore prova, secondo Montagnier, del fatto che le nanostrutture prodotte non sono aggredibili da enzimi che degradano il DNA, quindi non si tratterebbe della presenza di impurezze dovute ad una scorretta filtrazione. L’emissione di onde elettromagnetiche sarebbe invece irreversibilmente eliminata dal riscaldamento dei filtrati (70°C per 30 minuti), mentre non avrebbe effetto il raffreddamento a -20°C o -60°C, così come il trattamento con DMSO (dimetilsolfossido) al 10% ed una soluzione di formaldeide al 10% (entrambi in grado di interferire con legami tra nucleotidi nel DNA). Il trattamento con cationi di litio, che incide sui legami idrogeno delle molecole di acqua, riduce ma non abolisce l’emissione di segnali elettromagnetici. Secondo Montagnier, pertanto, il DNA avrebbe la capacità di inviare una sorta di impronta elettromagnetica di se stesso a fluidi e a cellule, sfruttando la struttura dell’acqua. Si concretizza dunque l’ipotesi avanza da Benveniste riguardo la capacità dell’acqua di memorizzare le “informazioni” provenienti dai soluti in essa disciolti. Grazie a queste proprietà, alcuni enzimi sarebbero poi in grado di riprodurre per il 98% copie del DNA originario partendo da questa impronta e dai reagenti necessari per la sua amplificazione (PCR). Conseguenze L’ambiente scientifico internazionale, in particolar modo i biologi, ha subito reagito con un piuttosto diffuso scetticismo, dovuto alla difficoltà di verifica del contenuto delle affermazioni di Montagnier. Le critiche principali mosse nei confronti dei risultati ottenuti sono la quantità insufficiente di dati affidabili e di prove incontrovertibili di riproducibilità e la non adeguata strumentazione. Inoltre, quanto sostenuto da Montagnier è in contrasto con alcuni principi basilari della chimica e della fisica, e muterebbe completamente alcuni dogmi della biologia. Alcuni ricercatori, in particolar modo chimici e fisici hanno invece intrapreso ricerche tendenti a confermare la tesi di Montagnier. Fra essi vi è Emilio del Giuidice, operante presso l’Istituto di Fisica Nucleare dell’Università di Milano, il quale, già collaboratore di Montagnier in occasione dei primi lavori, ha sviluppato una teoria in grado di sostenere i risultati del 2009. Nel 2011 viene dunque pubblicato sul prestigioso Journal of Physics un lavoro in cui viene riassunto quanto scoperto in precedenza da Montagnier, con però l’aggiunta di un’ampia descrizione fisica dei 25 Nicolò Tamà IV N LAM 2012/2013 risultati. La squadra che ha portato avanti la ricerca comprende L. Montagnier, J. Aissa, E. Del Giudice, C. Lavallee, A. Tedeschi e G. Vitiello. Tenuto conto che alcuni studi di fisica indicano che le molecole d’acqua possono formare labili aggregati o polimeri attraverso legami idrogeno, oppure potrebbero anche organizzarsi in cluster in base ai campi elettromagnetici ai quali vengono esposte, Del Giudice e collaboratori hanno proposto che l’acqua possa essere organizzata in reti di domini di coerenza che coinvolgono milioni di molecole di acqua che potrebbero avere le dimensioni delle proposte nanostrutture di Montagnier. Secondo il fisico italiano, questi dati sorprendenti sono dunque spiegabili con il concetto di coerenza della “Teoria quantistica dei campi”, in particolar modo con lo sviluppo che ebbe negli anni ’90 con gli studi del fisico Giuliano Preparata (suo collaboratore all’epoca). Una molecola, entrando in contatto con delle molecole d’acqua, dunque istaurando legami idrogeno con esse, sarebbe in grado di modificarne la geometria intermolecolare. Sempre secondo la teoria quantistica dei campi, in questi domini di coerenza, che avrebbero una dimensione di decine di micron (10-6 m), milioni di molecole oscillerebbero all’interno di un campo elettromagnetico di tipo coerente, protetto da legami di idrogeno con entropia (qui per entropia ci si riferisce al grado di organizzazione intermolecolare) costante all’interno. Inoltre, il fatto che le molecole d’acqua, legate alla doppia elica di DNA attraverso legami idrogeno, contribuiscono alla stabilità di quest’ultimo mediante interazioni diverse per ciascuna base, ha portato Del Giudice a ipotizzare che le nanostrutture di Montagnier potrebbero automantenersi attraverso le onde elettromagnetiche che emettono conservando l’informazione genetica del DNA. Per quanto riguardo lo scetticismo concettuale scaturito in seguito alle pubblicazioni, sembra dunque assurdo, ad esempio, l’ipotesi che le molecole di acqua, collegate da legami idrogeno che durano soltanto circa un pirosecondo (10-12 secondi) prima di rompersi e di riformarsi, possano in qualche modo aggregarsi in durevoli strutture aventi l’impronta del DNA. Contestualizzazione nell’ambito omeopatico Grazie ai risultai ottenuti, l’omeopatia assume dei contorni scientifici più concreti; sono infatti evidenti le possibili applicazioni della memoria dell’acqua nel contesto omeopatico. Tuttavia, tali risultati non sono sufficientemente resistenti per sostenere da soli l’enorme peso della critica ad essi avversa, e rischiano di conseguenza di non venire accettati dalla comunità scientifica. Per questa ragione l’omeopatia necessita adesso più che mai del contributo di tutti i ricercatori disposti a mettersi al lavoro nella ricerca di una concretizzazione delle teorie di Montagnier. Alcuni chimici e biologi si sono infatti immediatamente attivati e sono state condotte negli ultimi anni diverse ricerche indirizzate in questo verso. Le analisi effettuate concernono specialmente il confronto tra le proprietà di soluzioni estremamente diluite (di rimedi omeopatici e non) ed acqua pura; si ricorre spesso alla titolazione pH metrica, misura del pH della soluzione, alla titolazione conduttimetrica, che guarda alla variazione di conducibilità in relazione al titolante aggiunto, alla calorimetria isotermica di titolazione, che permette di determinare quantitativamente l'entalpia di unione di una molecola o di un complesso molecolare, alla misura della densità ed all’analisi della luminescenza. Di particolare rilievo sono le pubblicazioni del chimico italiano Vittorio Elia del dipartimento di chimica dell’università Federico II di Napoli, il quale ha ottenuto alcune conferme dei risultati degli esperimenti di Montagnier nell’analisi delle proprietà fisico-chimiche delle soluzioni da lui selezionate. 26 Nicolò Tamà IV N LAM 2012/2013 Parte sperimentale 1 Introduzione Prendendo spunto dalle ricerche condotte nel passato, e avendo la possibilità di usufruire degli strumenti messi a disposizione dalla scuola, è nato all’interno del mio lavoro di maturità un piccolo progetto di ricerca. Determinante è stato il contributo di Andrea Danani, professore e capo progetto presso la Scuola universitaria professionale della Svizzera italiana (SUPSI), il quale, oltre ad aver indirizzato la mia ricerca nel campo degli studi scientifici finora condotti, ha inizialmente proposto diverse analisi da condurre in collaborazione con l’istituto da lui rappresentato. Il contatto tra le due parti si è creato grazie al comune interesse di indagare sul funzionamento dell’omeopatia e sulla scoperta di nuove proprietà dell’acqua; tale collaborazione è inoltre nata dalla disposizione del liceo Lugano 1 di strumenti d’analisi all’avanguardia che hanno suscitato l’interesse del prof. Danani. L’ambiente scientifico ticinese, in questo caso rappresentato dalla SUPSI, sembra intenzionato a promuovere questo campo della ricerca; una testimonianza è proposta dal convegno internazionale (organizzato dal professor Danani e dalla SUPSI) tenutosi il 18 e 19 maggio 2012 presso il Palazzo dei Congressi di Lugano, durante il quale sono stati approfonditi alcuni aspetti della biofisica applicata alla medicina grazie al contributo dei massimi esperti del settore. Vi hanno infatti preso parte personaggi del calibro di Emilio del Giudice, già citato in precedenza in quanto collaboratore di Montagnier, e di Gerald Pollack, professore e ricercatore presso la University of Washington noto per gli studi sulle proprietà dell’acqua da molti definiti rivoluzionari. Le notevoli aspettative incentrate sul lavoro sono però, purtroppo, state limitate dalla strettezza del tempo a disposizione, per cui si è optato per la riduzione del quantitativo di test da effettuare, di modo da ottenere risultati sufficientemente concreti. Trattandosi di un lavoro incentrato sull’omeopatia, lo scopo prefissato in partenza è stato dunque il tentativo di ricercare nei preparati omeopatici dei segni della loro efficacia, tra i quali, ad esempio, la presenza di principio attivo. Il laboratorio scolastico dispone di macchinari recentemente acquistati finalizzati a ricerche di tipo analitico (sia quantitativo che qualitativo), quindi tra essi sono stati selezionati i due più interessanti per il fine del mio lavoro, ovvero un voltametro e uno spettrofotometro FTIR. La prima parte sperimentale consiste dunque, oltre che nell’impostazione del lavoro, nello studio degli strumenti e in un loro primo utilizzo finalizzato all’acquisizione di maggiore pratica in vista delle analisi effettive. Tale ostacolo non è da sottovalutare, in quanto, nonostante la facilità di utilizzo dei macchinari, per comprendere il loro funzionamento, ed interpretare correttamente i risultati ottenuti, bisogna possedere le adeguate conoscenze chimiche teoriche. In seguito proporrò infatti una loro breve descrizione. Il passaggio successivo è stata l’esecuzione delle analisi, che hanno portato, come si presupponeva, all’ottenimento di parziali risultati; le due tecniche utilizzate si prestano infatti solo in parte allo scopo da noi ricercato. 27 Nicolò Tamà 2 2.1 IV N LAM 2012/2013 Preparazione dei campioni Bidistillazione di acqua deionizzata Per preparare le soluzioni d’analizzare è stata necessaria la scelta di un solvente che simulasse il più possibile le condizioni di assunzione dei rimedi omeopatici. Osservando il fatto che i granuli vengono solubilizzati in bocca, dunque nella saliva, si è optato per l’acqua. Per eliminare le possibili impurezze presenti in essa, quindi per evitare che esse influenzino le analisi, abbiamo deionizzato ed in seguito bidistillato (distillata due volte) dell’acqua corrente. L’acqua corrente viene deionizzata da uno strumento presente nel laboratorio scolastico che indica anche la sua conducibilità dopo la deionizzazione, che nel nostro caso vale 0,10 µS/cm. La distillazione è poi avvenuta in due tappe, a cavallo tra le vacanze estive: il primo distillato, ottenuto a giugno e conservato nel corso dell’estate in un pallone da laboratorio in vetro duran, è stato nuovamente sottoposto alla tecnica a settembre, producendo 1 L di acqua bidistillata, anch’essa conservata in un pallone da laboratorio. La pressione atmosferica a cui sono avvenute entrambe le distillazioni era di 985 mbar. L’utilizzo di un pallone in vetro duran come contenitore permette di ipotizzare che alcuni silicati solubili costituenti il pallone si siano disciolti nel corso della conservazione del solvente; potendo trattarsi di sostanze in grado di influenzare la determinazione polarografica (per la quale abbiamo utilizzato l’acqua bidistillata come solvente), abbiamo deciso di eseguire l’analisi dell’acqua di modo da sottrarre i risultati ottenuti a quelli dell’analita, ovvero l’analisi del bianco. Il materiale utilizzato consiste nei classici componenti della distillazione frazionata, quali una colonna di frazionamento per la distillazione frazionata, un pallone contenente l’acqua da distillare e delle sfere di vetro per evitare la formazione di grandi bolle durante la fase di ebollizione del liquido, un tubo di raffreddamento contenente acqua corrente collegato a tubi in entrata e in uscita, un manto riscaldante, le varie guarnizioni, i vari tappi di vetro opportunamente fissati con mollette di sicurezza, un termometro, un matraccio per la raccolta del liquido distillato e un foglio di alluminio per diminuire le perdite di calore. Il tutto viene sostenuto da due supporti con le relative pinze. 3 3 Fotografia del processo di distillazione avvenuto a scuola. 28 Nicolò Tamà 2.2 IV N LAM 2012/2013 Selezione del rimedio omeopatico da analizzare Nella scelta del rimedio più consono alle due tecniche d’analisi è stato determinante il contributo della farmacia Solari, in particolar modo del farmacista Pier Luigi Poletti, che merita i miei personali ringraziamenti per l’interesse mostrato nei confronti del mio progetto. Essi sono stati molto disponibili nel fornire le informazioni relative all’offerta di prodotti omeopatici in commercio, e hanno inoltre permesso il contatto con la ditta Boiron, la quale ha gentilmente messo a disposizione alcune pubblicazioni scientifiche di ricercatori degli ultimi anni. Il principale criterio da soddisfare nella scelta del rimedio è stata la ricerca di un principio attivo che potesse essere rintracciato dal voltametro. Disponendo di una lista di tutti i possibili test eseguibili con questa tecnica, la scelta è ricaduta sul prodotto Ferrum Phosphoricum. La tecnica d’analisi voltammetrica si basa, come verrà descritto in seguito, sulla reazione di ossidoriduzione di ioni; per cui il campione da noi analizzato, se disciolto in acqua, deve dissociarsi nei rispettivi cationi ed anioni. Questo rimedio contiene come principio attivo una miscela di fosfato ferrico (FePO4), ossido di ferro idrato (Fe2O3·3H2O) e fosfato ferroso idrato (Fe3(PO4)2·8H2O), o vivianite, che impregna dei granuli di lattosi di massa 50 mg; la diluizione selezionata per le analisi è la 5 CH. Il fosfato di ferro può, come viene indicato dalla stessa Boiron (la ditta che ha prodotto i granuli), anche essere prodotto chimicamente facendo reagire solfato di ferro (FeSO4), fosfato di sodio (Na3PO4) e acetato di sodio (CH3COONa). Tutti i tre tipi di sostanze, in quanto sali, possono dare vita a ioni Fe2+ e Fe3+ in grado di reagire nel voltametro. Tale rimedio viene utilizzato in omeopatia nel corso di infezioni ed infiammazioni, in particolar modo nella cura di malattie bronchiali e polmonari, febbre, cefalee, mal d'orecchie e in alcuni disturbi reumatologici. Si riscontra una maggiore efficacia all’inizio dell’infiammazione. 4 5 A destra un contenitore di Ferrum Phosphoricum 5 CH prodotto da Boiron, a destra un cristallo di fosfato di ferro. 4 5 Fotografia scattata in laboratorio. Immagine tratta dal sito: << http://toppara.ma/homeopathie/2049-ferrum-phosphoricum-5ch-boiron.html>> 29 Nicolò Tamà IV N LAM 2012/2013 3 Analisi di voltammetria e polarografia 3.1 Funzionamento dello strumento e descrizione della tecnica La tecnica analitica su cui ho principalmente incentrato il lavoro di maturità è la voltammetria. Il laboratorio scolastico dispone di un voltametro Metrohm 797 VA Computrace, recentemente acquistato, che permette di effettuare analisi quantitative e qualitative particolarmente accurate; introducendo la tecnica nel contesto delle nostre analisi, lo scopo consisterebbe nella ricerca della presenza di principio attivo e della sua concentrazione. La voltammetria e la polarografia sono tecniche d’analisi elettrolitica che si basano sulla misura della corrente che attraversa un elettrodo immerso in una soluzione contenente specie elettroattive, che dunque reagiscono ad un potenziale elettrico applicato all’elettrodo. Ci si trova quindi nel contesto della chimica elettroanalitica, nel quale viene studiato il comportamento di alcune sostanze sottoposte al passaggio di elettricità; in particolar modo avviene, come nel nostro caso, lo studio delle reazione di ossidoriduzione. Queste due tecniche si distinguono per il funzionamento degli elettrodi, che variano da due a tre; nel nostro caso disponiamo dell’elettrodo di lavoro, dell’elettrodo di riferimento e dell’elettrodo ausiliare, o controelettrodo. La differenza sta nel funzionamento dell’elettrodo di lavoro (Working Electrode, WE): esso consiste nella parte del macchinario dove avviene la reazione ed è formato in voltammetria da un microelettrodo solido o a singola goccia di mercurio pendente da un capillare (HDME), mentre in polarografia dal medesimo capillare da cui avviene la ritmica caduta di gocce di mercurio(DME). Oltre a questo tipo di elettrodo vi sono dunque gli altri due elettrodi di supporto che permettono il controllo del potenziale dell’elettrodo di lavoro; ovvero l’elettrodo ausiliario (Auxiliar Electrode, AE) e l’elettrodo di riferimento (Reference Electrode, RE), che in caso di assenza dell’elettrodo ausiliario funge da controelettrodo. Un circuito elettrico esterno è dunque collegato ai tre elettrodi, che trasferiscono la sollecitazione elettrica proveniente dal circuito alla soluzione contenuta nella cella a tre elettrodi, che risponde con una reazione chimica e la formazione di una corrente elettrica. Al circuito elettrico sono evidentemente collegati un amperometro e un voltmetro per la misura dell’intensità di corrente elettrica e del potenziale elettrico. La tecnica da noi utilizzata è quella più antica, ovvero la polarografia, la quale permette di descrivere al termine dell’analisi un polarogramma (anche denominato onda polarografica), che ci rende le informazioni necessarie per la determinazione quantitativa e qualitativa del campione analizzato. La reazione L’agente chimico rintracciato nell’analisi è sempre uno ione (Aox/Ared) in grado di: • ridursi grazie al prelevamento di elettroni provenienti dall’elettrodo di lavoro (dal mercurio, che si ossida) nella sua forma ridotta (Ared); • ossidarsi cedendo elettroni al mercurio (che si riduce) nella forma ossidata (Aox). Ciò dipende chiaramente dallo ione analizzato, che chiameremo analita. La reazione di ossidoriduzione può essere riassunta nella formula - Aox + ne ⇆ Ared Siccome nel nostro caso analizzeremo un catione con l’elettrodo di lavoro impostato come DME, verrà descritta in questo capitolo l’analisi polarografica di una specie ossidata (Aox), dunque la sua riduzione. Determinante perché avvenga la reazione è il potenziale elettrico imposto all’elettrodo: affinché avvenga lo spostamento ionico verso l’elettrodo e si generi una corrente elettrica, all’elettrodo deve 30 Nicolò Tamà IV N LAM 2012/2013 essere imposto un potenziale nettamente riducente rispetto al potenziale standard di riduzione (ϕ0) della specie Aox. Esso consiste in un potenziale elettrico che determina la spontaneità della reazione all’elettrodo; nel nostro caso, dunque per la reazione di ossidoriduzione degli ioni Fe2+ (e Fe3+), ovvero Fe2+(aq) + 2e- → Fe(s), otteniamo un potenziale di riduzione pari a -0,41V. Il processo di scarica è governato da due fattori cinetici, che consistono nella velocità con cui le specie chimiche arrivano sulla superficie dell’elettrodo, e nella velocità di scambio degli elettroni fra l’elettrodo e la soluzione. Il confronto tra queste due grandezze determinerà poi l’andamento del polarogramma. I processi che sono alla base della scarica di Aox sull’elettrodo di lavoro, e quindi della corrente che viene misurata, sono essenzialmente tre: • Convezione: spostamento dell’analita insieme al solvente dovuto all’agitazione della soluzione; • Migrazione: movimento che si crea dalla forza di attrazione del campo elettrico generato dall’elettrodo nei confronti di ogni ione di carica opposta alla propria; • Diffusione: movimento spontaneo delle specie chimiche in soluzione generato dal gradiente di concentrazione. Siccome in polarografia viene monitorata la corrente di diffusione (Id), in quanto è proporzionale alla concentrazione ionica nella soluzione, bisogna eliminare tutti quei fattori che provocherebbero uno spostamento di ioni non dovuto al gradiente di concentrazione, dunque i movimenti di migrazione e convezione. Per far avvenire la reazione correttamente si devono dunque adottare alcuni accorgimenti: • La temperatura deve rimanere costante nel tempo e in tutti i punti della soluzione; • Non si deve agitare la soluzione per tutta la durata dell’analisi, di modo da eliminare la convezione; • Si neutralizza il campo elettrico generato dall’elettrodo di lavoro introducendo nella soluzione particolari elettroliti, denominati elettroliti di supporto, che devono essere inerti all’analita, non devono ostacolare la diffusione dell’analita e lo scambio elettronico, devono avere un potenziale di scarica molto diverso da quello del depolarizzante e devono avere un elevata conducibilità elettrica. La loro presenza è essenziale, in quanto riducono al minimo l’attrazione elettrostatica dell’elettrodo di lavoro e limitano la migrazione. Il gradiente di concentrazione di Aox è dunque generato dalla riduzione degli ioni a contatto con l’elettrodo di lavoro, in quanto si viene a creare una zona priva di ioni in contrapposizione ai punti della soluzione con alta concentrazione di ioni; in questo modo si attiva lo spostamento, che inseguito si autoalimenta. Ciò verrà spiegato nel paragrafo seguente. Polarogramma In un polarogramma troviamo: • nell’asse delle ascisse la differenza di potenziale elettrico (∆ϕ) tra potenziale all’elettrodo e potenziale standard di riduzione; • nell’asse delle ordinate l’intensità di corrente elettrica (I). In esso si possono individuare tre fasi distinte: A. Nel tratto iniziale si manifesta la corrente residua (nel grafico corrente di carica), che viene prodotta da fenomeni esterni allo spostamento ioni (come la corrente generata dall’elettrolita di supporto o da altre impurezze della soluzione), in quanto il potenziale elettrico applicato 31 Nicolò Tamà IV N LAM 2012/2013 all’elettrodo è troppo alto rispetto al potenziale standard di riduzione per far si che la riduzione avvenga con sufficiente velocità; B. Diminuendo il potenziale elettrico (cioè rendendolo più riducente), esso si avvicina sempre di più al potenziale standard di riduzione della coppia redox, per cui prende il via la riduzione. Diminuendo la concentrazione di analita vicino all’elettrodo, si crea un gradiente di concentrazione, che genera lo spostamento ionico spontaneo. Il numero di ioni che raggiunge l’elettrodo nell’unità di tempo (cioè la velocità di diffusione) è infatti proporzionale al gradiente di concentrazione. Di conseguenza, sempre più ioni si ridurranno all’elettrodo nell’unità di tempo, sempre più analita in forma ridotta sarà presente nei pressi dell’elettrodo e sempre più piccolo sarà il rapporto Aox/Ared. Quando la metà degli ioni che raggiungono l’elettrodo si scaricano, e quindi il rapporto precedentemente citato diventa uguale a 1, la differenza di concentrazione è pari alla metà della concentrazione stessa. La corrente che attraversa il circuito in questo momento è dunque la metà della corrente massima e il potenziale corrispondente viene detto potenziale mezz’onda ϕ1/2 (il punto di flesso nel grafico, V1/2). Questo valore è molto importante, perché non si discosta molto dal potenziale standard di riduzione della coppia redox, quindi è un parametro in grado di caratterizzare qualitativamente una coppia redox e di riconoscerne la presenza in soluzione. In questo modo avviene l’analisi qualitativa dell’analita. C. Superato il punto ϕ1/2 (punto di flesso del grafico) la crescita della curva rallenta fino a stabilizzarsi e raggiungere un plateau in cui la corrente, chiamata corrente limite, non aumenta più in funzione della differenza di potenziale (il potenziale è adesso molto negativo rispetto al potenziale standard della coppia). In questa fase ogni ione che giunge all’elettrodo viene immediatamente scaricato, quindi la sua concentrazione intorno all’elettrodo è pari a 0; di conseguenza, la differenza di concentrazione rispetto al resto della soluzione raggiunge il valore massimo, che dipende solo dalla concentrazione iniziale, che non cambia durante la scarica perché il processo coinvolge una quantità ridotta di ioni rispetto al totale. La riduzione è ora spontanea. C B A Polarogramma in cui sono evidenti le tre fasi (A,B,C).6 La corrente limite risulta direttamente proporzionale alla concentrazione delle specie elettroattive, il che permette di calcolare la concentrazione a partire dalla corrente misurata e da K, che consiste in una costante dipendente da molteplici fattori, quali il coefficiente di proporzionalità, il numero di elettroni scambiati dallo ione in esame, la costante di Faraday, il coefficiente di diffusione, la massa 6 Polarogramma ideale tratto dal sito: <<http://it.wikipedia.org/wiki/File:Polarogramma.gif>> 32 Nicolò Tamà IV N LAM 2012/2013 di mercurio fuoriuscita nell’unità di tempo e il tempo occorrente per la formazione e il distacco di una goccia. Fissate tutte le condizioni operative, si possono raccogliere tutte le costanti in un’unica costante K che, introdotta nell’equazione di Ilkovic, porta alla relazione: Id = K.[Aox] La curva sigmoidale può essere elaborata matematicamente per ottenere la funzione derivata prima, che consiste in un tracciato a forma di picco, di cui è possibile rintracciare con più facilità sia l’altezza, ossia Id, sia il potenziale di picco, che corrisponde a ϕ1/2. Nel nostro caso, tutti i polarogrammi saranno nella loro forma derivata. Questo metodo, denominato assoluto, è rigoroso però soltanto se vengono utilizzati i valori standard reperibili in letteratura delle costanti di K, sempre che essi siano tutti conosciuti; altrimenti bisogna utilizzare un metodo alternativo, ossia il metodo di confronto. Metodo di confronto Il metodo di confronto da noi utilizzato è il metodo delle aggiunte multiple di standard, in alternativa esiste anche il metodo di confronto con uno standard e il metodo della retta di taratura, che non andrò però ad analizzare. Innanzitutto bisogna descrivere l’utilità dello standard; esso consiste in una soluzione a concentrazione nota della specie ionica che dobbiamo analizzare, dunque il nostro analita, che aggiungiamo ripetutamente al campione posto in analisi. La sua utilità sta nel fatto che introducendo la stessa quantità di analita (una determinata aliquota a VST e CST), possiamo ricavare dal polarogramma più volte Id (l’altezza del picco o dell’onda) in relazione ad una precisa concentrazione, per cui, possedendo una serie di valori di entrambi i dati, posso tracciare un grafico dell’intensità in funzione della concentrazione. Si traccia infine la retta interpolando i punti sperimentali e si estrapola fino ad intersecare il semiasse negativo di C; quindi si legge direttamente nel punto d’intersezione il valore della concentrazione dell’analita studiato. Completando il discorso teorico iniziato in precedenza, la pendenza della retta definisce il valore del coefficiente K dell’equazione di Ilkovic; si può, infatti, giungere allo stesso risultato matematicamente formulando l’equazione Id(V0+Vst) = K.C0V0 +K.CstVst . Standard 2 Standard 1 Analita Derivata prima del grafico dell’intensità di corrente elettrica in funzione del potenziale elettrico di un’analisi con aggiunte multiple di standard (2aggiunte).7 7 Immagine tratta dall’analisi del campione omeopatico digerito eseguita in laboratorio (vedi capitolo seguente). 33 Nicolò Tamà IV N LAM 2012/2013 Estrapolazione della retta, rapporto tra intensità di corrente e concentrazione dell’analita.8 Ulteriori accorgimenti Il diossigeno (O2) disciolto in soluzione potrebbe influenzare i risultati in quanto tende a ridursi come qualsiasi altro analita, il che provocherebbe nel polarogramma dei picchi non ricercati. Esso si può ridurre ad H2O2 (perossido di idrogeno), in una prima fase, ad una differenza di potenziale pari -0,14 V, ed a H2O a -0,9 V, per cui si avrebbero due onde di uguale lunghezza a tali potenziali. Le reazione sono schematizzabili nelle seguenti equazioni: - 1. O2 + 2H+ + 2e ⇆ H2O2 (ϕ0 = 0,68 V) 2. O2 + 4H+ + 4e- ⇆ 2H2O (ϕ0 = 1,23 V) La soluzione più adatta a tale problema consiste nel far gorgogliare per un certo lasso di tempo, nel nostro caso 300s, del diazoto (N2) nella soluzione di modo da eliminarlo prima dell’analisi e tra un’analisi e l’altra (per evitare il suo riassorbimento in soluzione). Sensibilità e accuratezza L’accuratezza di questa tecnica è particolarmente elevata; la presenza di incertezze dipende principalmente dall’influsso di alcune delle variabili di K, come la temperatura, che deve rimanere costante; il tempo di caduta della goccia di mercurio; gli strumenti utilizzati. La sensibilità raggiunge concentrazioni in ppm (mg/L) e volumi in µL (10-6 L). Metrohm 797 VA Computrace Il macchinario utilizzato per le analisi svolge sia analisi voltammetriche sia analisi polarografiche; la differenza sta nel funzionamento dell’elettrodo di lavoro (WE). Come già descritto nei paragrafi precedenti, se si tratta di un elettrodo a goccia di mercurio, il capillare di tale elettrodo può essere impostato per la caduta delle gocce di mercurio in diverse modalità. Nel caso della polarografia la caduta è continua e l’elettrodo è definito DME (Dropping Mercury Electrode) nel caso la fuoriuscita è continuata, oppure SMDE (Static Mercury Drop Electrode) se il tempo di sospensione è più lungo; nella voltammetria una sola goccia può rimanere sospesa dal capillare per tutto il tempo di reazione, dunque si tratta di HMDE (Hanging Mercury Drop Electrode). La modifica del tempo di sospensione influenza anche il volume e la massa della sfera di mercurio e di conseguenza i 8 Immagine tratta dall’analisi dell’acido fosforico eseguita in laboratorio (vedi capitolo seguente). 34 Nicolò Tamà IV N LAM 2012/2013 parametri della reazione di ossidoriduzione. Sono inoltre disponibili per analisi voltammetriche elettrodi a disco rotante composti da metalli nobili come oro, argento e platino. L’elettrodo di riferimento (RE) è composto invece da un rivestimento contenente una soluzione di cloruro di potassio (KCl) a concentrazione 3 mol/L con purezza del 99 % e una cella al cui interno si trova una miscela di argento e cloruro d’argento (Ag/AgCl) tipica di elettrodi di questo tipi. L’elettrodo mantiene le sue proprietà di riferimento, ovvero il fatto di non essere polarizzabile (ha un potenziale elettrico costante) a differenza dell’elettrodo di lavoro. L’elettrodo ausiliario (AE), il cui unico compito è quello di garantire il passaggio di corrente elettrica attraverso la cella elettrochimica, è costituito da platino. Sulla sinistra il sistema di pompaggio, sulla destra il voltametro. Cella contenente i tre elettrodi. 35 Nicolò Tamà 3.2 IV N LAM 2012/2013 Procedimento, risultati e conclusioni La scelta del metodo d’analisi è correlata al ritrovamento di un campione omeopatico adatto al analisi voltammetrica, ovvero il già menzionato Ferrum Phosphoricum. Esso può dissociarsi, a partire dai composti che lo costituiscono, in ioni Fe2+ e Fe3+, per cui abbiamo cercato un metodo in grado di determinare questo tipo di ione in tracce in diverse sostanze. L’offerta per lo studio del ferro è molto ampia, però non vi è un metodo per la determinazione di ferro in acqua, quindi la scelta è ricaduta sulla determinazione di ferro in acido fosforico (codice del metodo: V – 129), in quanto è possibile rintracciare con questo metodo quantità molto piccole (ppm) di ferro sia nella forma Fe2+ che Fe3+. Bisogna tuttavia considerare che il fosfato ferrico e il fosfato ferroso sono sali poco solubili in acqua e che l’ossido ferrico è addirittura insolubile. La diluizione di rimedio omeopatico utilizzata nelle analisi consiste in una 5 CH, la cui concentrazione di principio attivo è pari a 10-10 g/mL (= 10-4 mg/L), per cui ancora all’interno di quell’ipotetico intervallo di diluizioni in cui il principio attivo è ancora, anche se solo in parte, presente nel campione. Procedimento Il metodo prevede l’utilizzo dell’elettrodo di lavoro in modalità SMDE, per cui si tratta di un analisi polarografica. L’elettrolita di supporto necessario per la reazione consiste in ossalato d’ammonio con concentrazione pari a 0,25 mol/L portato a pH 2 e con l’aggiunta di acido solforico. Per la sua preparazione sono stati usati 8,88 g di ossalato d’ammonio idrato solido, ovvero (COONH4)2·H2O, che abbiamo solubilizzato in 250 mL d’acqua precedentemente bidistillata. Dopo aver tarato il piaccametro con un tampone pH 4, e aver opportunamente risciacquato la sonda, abbiamo aggiunto alcune gocce di acido solforico (c(H2SO4) = 3M) fino a raggiungere pH 2. Adottando il metodo delle aggiunte standard, abbiamo in seguito preparato lo standard; la prima sostanza scelta per la sua preparazione è stata il fosfato ferroso Fe3(PO4)2, che tuttavia si è rivelato essere poco adatto a tale compito, poiché si tratta di un sale poco solubile, la cui concentrazione non può essere accertata se ridotto a minime quantità. Dopo aver notato che le analisi venivano di conseguenza alterate, abbiamo deciso di utilizzare un altro standard, più solubile, ovvero un cloruro. Siccome il metodo richiede uno standard con concentrazione pari a 5 ppm (mg/L), abbiamo misurato 29,03 g di cloruro di ferro tatraidrato (FeCl3·4H2O) che abbiamo solubilizzato dapprima in 100 mL di acqua bidistillata. In seguito abbiamo prelevato 5 mL di soluzione, che abbiamo portato nuovamente ad un volume pari a 100mL solubilizzandolo in acqua; in questo modo, con gli adeguati calcoli stechiometrici risulta che la concentrazione di nuclei di ferro è pari a 5 ppm. Preparazione dei campioni: Per rendere l’analisi il più completo possibile abbiamo deciso di studiare 6 diversi tipi di campione. Innanzitutto vi è il bianco, costituito soltanto da acqua, il cui scopo è la determinazione della possibile presenza di ferro nell’acqua utilizzata come solvente e nell’elettrolita di supporto, ovvero l’ossalato. Il risultato ottenuto verrà poi sottratto a quello dell’effettivo analita di modo da eliminare le possibili impurezze presenti in esso. Un altro campione consiste nei granuli solubilizzati in acqua: siccome la loro comune somministrazione prevede la dissoluzione di 3-5 granuli nella saliva contenuta dalla bocca (4-5 mL), abbiamo simulato le condizione solubilizzandone uno ogni millilitro d’acqua. Considerando una massa di circa 50 mg, la concentrazione è pari a 50 mg/mL. Trattandosi come linea di principio della determinazione del ferro nell’acido fosforico (H3PO4), abbiamo anche analizzato la sua presenza in acido fosforico (liquido) purissimo. Giusto per verificare possibili cambiamenti nella determinazione abbiamo inoltre studiato un campione composto da acido fosforico e granuli solubilizzati in acqua. Infine, valutando la possibilità che il lattosio, diluito a sua volta insieme al principio attivo, possa influenzare la determinazione, abbiamo sottoposto separatamente 10 mL di acqua, e 10 mL di 36 Nicolò Tamà IV N LAM 2012/2013 soluzione di granuli con concentrazione pari a 50 mg/mL ad un processo di digestione. Sono stati aggiunti ai due campioni 100 µL di acido cloridrico 36% (HCl) e 100 µL di perossido di idrogeno (H2O2) ed è stato allestito l’impianto di digestione. Il pallone contenente il campione è stato riscaldato con un manto riscaldante, che ha favorito le reazioni tra i vari reagenti; i vapori prodotti sono poi stati raffreddati dalla colonna di frazionamento montata sopra al pallone al cui interno scorreva acqua a bassa temperatura, permettendo dunque la loro continua condensazione. Abbiamo dunque ottenuto due diversi digeriti: uno, ovvero i granuli solubilizzati in acqua digeriti, contenente principio attivo e le nuove sostanze prodotte (eventualmente anche i reagenti d’eccesso), ma privo di lattosio, uno, ovvero il bianco digerito, contenente soltanto acqua e gli eventuali prodotti della digestione (o eventualmente i reagenti d’eccesso). Abbiamo infine opportunamente filtrato entrambi con carta assorbente per rimuovere i prodotti insolubili. Il quantitativo di campione da porre nella cella elettrochimica ad ogni analisi corrisponde sempre a 10 µL, escluso il caso del campione formato da acido fosforico e granuli disciolti, in quanto vengono utilizzati 10 µL di entrambi. L’elettrolita di supporto va aggiunto sempre in un quantitativo di 10 mL e lo standard viene introdotto dopo l’analisi del campione, in due diversi momenti, in un quantitativo di 5 µL (aliquota VST). La reazione: Innanzitutto viene svuotata la cella contenente cloruro di potassio (utilizzato per conservare gli elettrodi) da parte del sistema di pompaggio collegato a due taniche contenenti gli scarti e il liquido per il lavaggio; in seguito si aggiunge l’elettrolita e il campione. Dopo il test degli elettrodi, essi vengono disaerati per mezzo di diazoto introdotto da una bombola ad una pressione di 1,5 atm per 300 secondi; viene inoltre utilizzato un agitatore. Si avvia dunque la reazione, che viene ripetuta due volte: il potenziale di partenza è 0,12 V e la reazione si conclude a -0,3 V. A questo punto avviene la prima aggiunta di standard, che verrà brevemente (∼10 sec) degassificato e poi due volte analizzato; ciò si ripete per la seconda aggiunta. Terminata la reazione, la cella viene risciacquata tre volte (25 secondi ognuna) con acqua proveniente dalla tanica contenente il liquido per il lavaggio. Infine il computer esegue i calcoli che portano alla realizzazione del polarogramma dell’intensità di corrente elettrica in funzione del potenziale elettrico (è visibile soltanto la derivata prima del grafico) e dell’intensità in funzione della concentrazione. Determiniamo dunque quantitativamente e qualitativamente il campione. Risultati Le analisi dei diversi campioni sono state eseguite senza particolari difficoltà; grazie ai primi test con alcuni campioni di prova ed allo studio dei singoli componenti dello strumento abbiamo acquisito sempre più praticità ed infine abbiamo potuto eseguire tutte le analisi in soltanto due incontri (ogni analisi è durata all’incirca 15 minuti). La preparazione dei campioni ha impiegato diverse ore di lavoro soprattutto a causa del lungo tempo di distillazione e digestione e dell’errore nella scelta della sostanza da utilizzare come standard. Al termine delle sei analisi il software ha prodotto una scheda riassuntiva dei risultati (allegata al termine del lavoro), che indica essenzialmente concentrazione, intensità di corrente elettrica e potenziale elettrico rilevati ad ogni reazione (campione, standard 1, standard 2). L’insieme dei dati permette la realizzazione dei due grafici necessari per la determinazione del campione e della sua concentrazione, ovvero quello dell’intensità di corrente elettrica in funzione del potenziale elettrico, e quello dell’intensità di corrente elettrica in funzione della concentrazione (allegati). Viene inoltre calcolata la deviazione standard di ogni analisi. La deviazione standard o scarto tipo indica la dispersione dei valori attorno ad un valore atteso o ad una sua stima; un suo valore troppo elevato è indice di errori o imprecisioni nelle analisi. 37 Nicolò Tamà IV N LAM 2012/2013 La troppo elevata deviazione standard dell’analisi del bianco e dei granuli solubilizzati in acqua ci ha convinti a ripetere l’operazione di modo da osservare dei risultati più attendibili. Essi hanno tuttavia mantenuto come nelle altre analisi una deviazione, seppur minore, molto alta. Infine le sei schede sono state confrontate e ci hanno permesso di redigere la seguente tabella in grado di riassumere i risultati nel loro insieme: Concentrazione di Deviazione Standard totale elemento ferro (mg/L) (mg/L) % 34,256 Bianco 64,714 ± 22,169 25,840 Granuli solubilizzati in acqua 64,719 ± 16,723 Acido fosforico 40,127 13,030 ± 5,228 Ac. fosforico e granuli solubilizzati in acqua 37,624 18,809 ± 7,077 13,574 Bianco digerito 73,464 ± 9,972 Granuli solubilizzati in acqua digeriti 62,003 21,689 ± 13,448 Campione Con l’estrapolazione della retta (nel grafico dell’intensità di corrente in funzione della concentrazione) abbiamo ottenuto i valori delle concentrazioni dell’elemento ferro (sempre rilevato) all’interno dei campioni; innanzitutto va osservato il fatto che il suo valore si colloca, come previsto, all’interno della gamma ppm, il che indica una sua molto bassa presenza all’interno della cella. Confrontando le concentrazioni si osserva subito che il loro valore è molto simile: si possono individuare due gruppi distinti, ovvero quei campioni contenenti acido fosforico e quelli privi di acido fosforico. I primi hanno una concentrazione di ferro minore rispetto ai secondi collocandosi rispettivamente intorno a ∼40 ppm e ∼65 ppm. Il valore della deviazione standard non è inoltre mai inferiore al 10%, raggiungendo talvolta il 30%, il che è molto elevato soprattutto per il fatto che abbiamo lavorato con concentrazioni molto basse. Conclusioni Per ottenere l’effettiva concentrazione dell’elemento ferro all’interno dei granuli dobbiamo sottrarre il valore rilevato nel bianco a quello rilevato nella cella contenente i granuli, di modo dunque da non considerare i possibili quantitativi di ferro presenti nel solvente e nella soluzione di misura. Da ciò si ottiene che, sia per i granuli in relazione al bianco sia per i granuli digeriti in relazione al bianco digerito, la concentrazione dell’elemento ferro è pari a zero o addirittura negativa con mediamente una deviazione standard di ± 10 mg/L. Tale risultato indica che le tracce dell’elemento ferro presenti nella cella sono già rilevabili nella soluzione di misura o nell’acqua bidistillata. È infatti possibile che l’ossalato d’ammonio, l’acido solforico e l’acqua contengano delle minime tracce di sali composti da ferro. Non è infatti da escludere la possibilità che alcune tracce presenti nell’acqua deionizzata non siano scomparse completamente con la bidistillazione oppure che l’ossalato d’ammonio e l’acido solforico contengano già del ferro a partire dallo loro produzione o dalla loro conservazione (l’ossalato è stato inoltre preparato con l’acqua bidistillata). La contaminazione, specialmente se si tratta di quantitativi così piccoli, è infatti un fattore che può talvolta manifestarsi se non si presta l’adeguata attenzione. La diminuzione della concentrazione dovuta alla presenza di acido fosforico, che porta la differenza tra la concentrazione di ferro nei granuli e nel bianco ad valore nettamente negativo, è invece imputabile ad una sua possibile reazione con dei sali solubili, normalmente rilevabili dal polarimetro, per renderli sali insolubili non più rintracciabili. In questo modo si verificherebbe la costante diminuzione di concentrazione di ∼20 mg/L sia con la presenza di granuli sia con soltanto acido fosforico disciolto. L’acido fosforico e i granuli disciolti, dunque, non interagiscono. 38 Nicolò Tamà IV N LAM 2012/2013 Tale risultato non permette però di concludere immediatamente che all’interno dei granuli non vi siano tracce di principio attivo: il rimedio analizzato viene indicato con una diluizione 5 CH di principio attivo, dunque con una concentrazione di 10-10 g/mL (= 10-4 ppm) che però non raggiunge il limite di rivelabilità (LoD) del metodo, che consiste in 1 ppm, e di conseguenza il limite di quantificazione (LoQ). Considerando questo fatto, risulta molto probabile che la reazione di ossidoriduzione non sia avvenuta non a causa della totale assenza di sali composti da ferro, bensì a causa di una loro concentrazione insufficiente per scatenare la reazione. Bisogna inoltre ricordare che i sali che compongono il principio attivo, dunque il fosfato ferroso, il fosfato ferrico e l’ossido di ferro, sono poco solubili o quasi insolubili. Si pongono dunque due problemi: • A causa della loro eterogenea distribuzione nel solvente dovuta alla quasi insolubilità è possibile perdere principio attivo nel prelievo del campione (dopo aver disciolto i granuli in acqua); • Perché avvenga la reazione di ossidoriduzione sono necessari dei sali solubili, dissociabili nei rispettivi anioni e cationi e sollecitabili dal potenziale elettrico applicato all’elettrodo; essendo il principio attivo quasi insolubile, esso non reagirà in quanto non dissociato nei componenti ionici, e ridurrà ancora maggiormente la sua rintracciabilità da parte del polarimetro. La presenza di una così elevata deviazione standard lascia intendere che vi siano delle imprecisione nella preparazione dello strumento o dei reagenti; esse sono rintracciabili in diversi fattori: • Errori nella preparazione delle varie soluzioni, ovvero l’ossalato e lo standard, dunque nei quantitativi utilizzati; • Parametri del polarimetro errati, come ad esempio la temperatura (che deve rimanere costante), le dimensione delle gocce di mercurio e il loro tempo di sospensione (dunque relativi al funzionamento dell’elettrodo di lavoro); • Contaminazione con sostanze che possono influenzare l’analisi, ad esempio reagendo con sali solubili per renderli insolubili e non più determinabili: • Sostanze utilizzate non più pure, ad esempio l’acido fosforico presente nel reagentario divenuto opaco; • Contaminazione del materiale utilizzato per conservare o spostare le varie sostanze/soluzioni attraverso il tatto o l’esposizione all’aria del laboratorio; • Presenza del mercurio accumulato sul fondo della cella non rimosso al termine di ogni determinazione, dunque potenziale solvente di sostanze contaminanti; • Errata misura dei quantitativi di soluzione da analizzare, dunque l’ossalato, lo standard e i campioni. Infine, si deve ricordare che il metodo utilizzato non è prettamente indicato per le sostanze poste in esame: tra i vari metodi questo sembrava essere quello che più si addiceva alle sostanze da ricercare. Ipoteticamente, con un altro metodo avremmo potuto ottenere un risultato diverso. 39 Nicolò Tamà 4 4.1 IV N LAM 2012/2013 Analisi di spettrofotometria IR Funzionamento dello strumento e descrizione della tecnica La tecnica analitica da cui abbiamo iniziato ad entrare in contatto con il laboratorio, su cui però non abbiamo incentrato il lavoro è la spettrofotometria IR. A differenza della voltammetria, questa branca dell’analisi si basa sull’interazione tra luce infrarossa e materia, dunque sull’assorbimento da parte di molecole di radiazioni con lunghezze d’onda (λ) compresa tra 0,78 µm e 100 µm (intervallo delimitato dalla luce visibile e dalle microonde). Nello spettro verrà però indicato il numero d’onda (v) in cm-1 di tale luce, che corrisponde all’inverso della lunghezza d’onda (1/λ) e che si situa per l’IR tra 10000 e 10 cm-1. Luce a tali lunghezze d’onda, se assorbita, provoca delle transizioni energetiche che corrispondono a precisi movimenti della molecola/atomo. Poiché le transizioni avvengono tra livelli vibrazionale, questi movimenti sono a loro volta di natura vibrazionale, per cui coinvolgono i legami tra nuclei; si possono distinguere essenzialmente movimenti di stretching, scissoring, rocking, twisting, wagging. Agilent Technologies: Cary 640 FTIR Spectometer Lo strumento utilizzato per le analisi si distingue dai normali spettrofotometri IR, in quanto consiste in uno spettrofotometro in trasformata di Fourier (FT). Innanzitutto va descritto un comune spettrofotometro: la luce proveniente dalla sorgente, solitamente del tipo a incandescenza, viene convogliata verso il monocromatore, costituito da un reticolo di diffrazione, che è in grado di separare la luce a seconda della lunghezza d’onda. Le varie luci proseguono il loro cammino singolarmente in direzione del campione; esso, non potendosi trovare in una comune cuvetta porta campione, in quanto il vetro e il quarzo non sono permeabili a queste lunghezze d’onda, deve essere disposto tra due dischi di bromuro di potassio (KBr) se solido, oppure disciolto in olio di paraffina se liquido. L’intensità della luce in uscita trasmessa dal campione, che può essere uguale o minore a quella in entrata, viene poi condotta fino ad un rivelatore, in grado di trasformarla in corrente elettrica. Il rapporto tra intensità della luce in uscita (I1) e l’intensità della luce in entrata (I0), uguale al rapporto tra le corrispondenti correnti elettriche, conferisce il valore della trasmittanza: I1 / I0 = T Attraverso la legge di Lambert-Beer, ovvero l’equazione A = log(1 / T) ,è inoltre possibile ricavare l’assorbanza della sostanza posta in analisi. Tali valori sono importanti in quanto ci permettono di realizzare lo spettro, in cui osserviamo il numero d’onda (cm-1) sull’asse delle ascisse, e l’assorbanza o la trasmittanza percentuale (T%) sull’asse delle ordinate. Nello spettro sono identificabili dei picchi che, se situati in precisi intervalli di numeri d’onda, ci permettono di identificare un movimento molecolare tra due nuclei ben identificati. In questo modo avviene l’analisi qualitativa della spettrofotometria IR, la quale ci permette inoltre di ricostruire un modello di molecola attraverso l’identificazione dei legami e dei nuclei che la compongono. Lo strumento utilizzato da noi differisce da quello tradizionale per il fatto che la scansione dello spettro avviene in modo simultaneo alle varie lunghezze d’onda dell’intervallo spettrale, anziché in modo sequenziale. Ciò è permesso dalla presenza di un interferometro, ossia un particolare sistema di specchi che convoglia la luce in modo particolare, che porta alla creazione di un interferogramma, che viene “trasformato” in uno spettro dalla trasformata di Fourier. I vantaggi conferiti da questa variante sono essenzialmente una maggiore accuratezza ed un minor tempo di analisi. Il campione non richiede inoltre l’utilizzo di bromuro di potassio o olio di paraffina per la sua analisi, in quanto è disponibile un portacampioni che sfrutta la tecnica ATR (Attenuated Total Reflectance). Nel nostro caso viene prodotto da PIKE Technologies (modello PIKE MIRacle™) ed è composto da un cristallo attraverso il quale passano le radiazioni IR, le quali vengono riflesse più 40 Nicolò Tamà IV N LAM 2012/2013 volte ortogonalmente al suo interno in direzione del campione posto a stretto contatto con essa. La luce riflessa dal campione viene poi restituita al rivelatore e si ottiene così uno spettro di riflettanza, molto simile a quello di trasmittanza (e quindi di assorbanza). La differenza tra gli spettri viene poi compensata dal software di gestione dello strumento. Questa tecnica permette di analizzare diversi tipi di sostanze senza dover rimediare all’impossibilità di utilizzo di una comune cuvetta in vetro o in quarzo attraverso la preparazione del campione. Lo spettrofotometro FTIR con il portacampione ATR. Portacampione ATR. 41 Nicolò Tamà 4.2 IV N LAM 2012/2013 Procedimento, risultati e conclusioni Procedimento L’analisi spettrofotometrica FTIR si rivela essere nella sua esecuzione particolarmente semplice: i requisiti necessari sono infatti soltanto la conoscenza del software per l’utilizzo dello strumento e la preparazione dei campioni da utilizzare che, come già specificato, nel nostro caso non richiede particolari attenzioni. I campioni da noi studiati consistono nei granuli omeopatici di Ferrum Phosphoricum 5 CH pestati in un mortaio, dunque polverizzati, e nella soluzione dei granuli in acqua bidistillata (1 granulo/mL). Nell’utilizzare il software bisogna badare innanzitutto alla selezione dei vari parametri: • il tipo di scansione (con lo strumento a disposizione vengono proposte analisi di assorbanza, trasmittanza e riflettanza); • la risoluzione dello spettro; • l’intervallo spettrale in numeri d’onda; • il numero di scansioni; • la nominazione del campione analizzato e del “background”, ovvero la soluzione che il software sottrae dal campione effettivo. Nel nostro caso abbiamo optato per un’analisi di assorbanza attraverso 13 scansioni, il cui spettro ha una risoluzione pari a 1 e intervallo spettrale tra 4000 e 750 cm-1. Il “background” del campione solido è l’aria, per cui abbiamo inizialmente eseguito un’analisi dell’aria da cui il software ha poi sottratto lo spettro del campione; per il campione disciolto il “background” consiste invece nell’acqua bidistillata in cui abbiamo disciolto il campione, che abbiamo dunque analizzato. Dopo ogni scansione abbiamo confrontato gli spettri ottenuti con gli oltre 80000 spettri contenuti nella banca dati a disposizione con il software d’analisi, di modo da ottenere dei riscontri delle sostanze poste in esame. Risultati Nonostante vi abbiamo dedicato poco tempo e pochi approfondimenti, l’analisi spettrofotometrica FTIR ha prodotto dei risultati soddisfacenti. La nostra previsione consisteva nell’ottenimento di uno spettro molto simile a quello del lattosio, principale componente dei granuli in quanto eccipiente, con la possibilità di osservare ulteriori bande che potessero indicare la presenza di altre sostanze, magari quelle costituenti il principio attivo. Difatti, abbiamo ottenuto per entrambi i campioni il riscontro nella banca dati con lo spettro del lattosio, tuttavia non trovato immediatamente nella ricerca. In questo caso è stato essenziale essere a conoscenza della sua presenza in quanto abbiamo potuto di conseguenza cercarlo tramite il software e confrontarlo a quelli proposti dalle analisi. Le bande, seppur presenti con una minore intensità (lunghezza della banda), mostrano la stessa collocazione e pressappoco la medesima larghezza. Le differenze tra lo spettro dei granuli disciolti e quello dei granuli solidi stanno essenzialmente nella risoluzione: senza la dissoluzione del campione si può osservare nello spettro una linea che per alcuni tratti pare priva dell’oscillazioni di picchi, il confronto con le bande del lattosio è dunque più semplice; il campione disciolto presenta invece numerosi picchi in tutta la lunghezza della linea. Tale differenza è da imputare alla presenza del solvente, che è in grado di influenzare l’assorbimento della luce da parte del soluto. 42 Nicolò Tamà IV N LAM 2012/2013 A seguire gli spettri dei granuli solidi e disciolti posti a confronto con quello del lattosio: In rosa il lattosio, in azzurro i granuli solidi. In rosa il lattosio, in azzurro i granuli disciolti. È inoltre sempre presente una banda tra 2300 e 2400 cm-1 che non può essere collegata al lattosio. Per determinarne la natura bisogna effettuare la ricerca nella banca dati; il confronto con gli spettri presenti nel sistema propone diverse somiglianze tra spettri, tuttavia, oltre al lattosio, solo uno di essi vi si accosta con maggiore percentuale di somiglianza. Si tratta dello spettro dell’ematite. L’ematite, con formula chimica Fe2O3, è un ossido di ferro appartenente al gruppo di minerali dell’ematite (M2O3). Questo minerale è molto spesso presente in natura sotto forma di cristallo; la sua origine può essere sia magmatica sia sedimentaria. Una sua particolarità à la colorazione rosa che da ad alcune rocce in cui si trova, come ad esempio il granito rosa; la sua polvere viene infatti utilizzata come colorante (ocra rossa). Le sue proprietà chimiche sono magnetismo se riscaldato, solubilità solo in acido cloridrico concentrato e assenza di radioattività. Viene inoltre utilizzata su scala industriale per l’estrazione di ferro. 43 Nicolò Tamà IV N LAM 2012/2013 Di seguito lo spettro dell’ematite posto a confronto con quello dei granuli solidi: In rosa l’ematite, in blu i granuli solidi. Si possono notare alcune bande di entrambi gli spettri poste negli stessi intervalli, il che indicherebbe la presenza di ematite all’interno del campione. Tra esse ve n’è una nell’intervallo tra 2300 e 2400 cm-1 che sarebbe collegabile soltanto parzialmente con quella del campione in quanto è presente con un intensità molto minore. Essa sembrerebbe, dunque, essere causata da un’ulteriore sostanza non rintracciabile dallo spettrofotometro. Conclusioni L’importanza del ritrovamento dell’ematite è notevole perché ci permette di rispondere in modo più completo alla domanda posta all’inizio del lavoro sperimentale, ovvero se vi fosse o meno principio attivo all’interno del rimedio. Ricordando quanto visto finora, tra le sostanze che compongono il principio troviamo l’ossido di ferro (Fe2O3); dunque troviamo una sostanza che lo spettrofotometro è in grado di rintracciare. Con gli opportuni calcoli, tramite il consulto dello spettro, avremmo anche potuto ottenere la concentrazione di ematite nel campione; l’analisi quantitativa risultava però complicata, perciò abbiamo deciso di limitare l’analisi alla determinazione qualitativa. Le altre due sostanze che compongono il principio attivo sono il fosfato ferrico e il fosfato ferroso, sostanze che però non appaiono nella banca dati degli spettri del software. La loro presenza non può dunque essere né confermata né negata da parte dell’analisi; però il fatto che l’ossido di ferro sia presente lascia intendere che anche queste due sostanze possano comporre il campione. Come sottolineato in precedenza, è sempre possibile che sia avvenuta una contaminazione del campione o dello strumento. La presenza di uno spettro molto simile sia per il campione solido che per quello disciolto indica che il solvente, dunque l’acqua, non abbia influito; è invece possibile, tuttavia poco probabile, che sia il porta campioni o lo strumento stesso ad essere stato contaminato con dell’ematite, il che comprometterebbe i risultati. 44 Nicolò Tamà 5 IV N LAM 2012/2013 Conclusioni L’ottenimento di risultati contrastanti non indica un insuccesso; se si interpreta quanto accaduto si può infatti trarre una conclusione che consideri entrambi. Innanzitutto va confrontato il limite di rivelabilità degli strumenti o dei metodi: come ho già precisato, il metodo adottato con il polarografo prevede la determinazione di sostanze la cui concentrazione deve essere perlomeno pari a 1 ppm (mg/L); lo spettrofotometro FTIR necessita invece di una concentrazione di sostanza da determinare minore perché essa interagisca con la luce e influenzi l’andamento dello spettro. Il risultato ottenuto tramite il polarografo, dunque l’assenza del principio attivo nel campione, viene perciò giustificato dal fatto che i sali composti da ferro non possono essere rivelati a causa della loro troppo bassa concentrazione (10-4 ppm). Tale rimedio, con diluizione 5 CH, non è dunque adatto al metodo scelto perché non permette al polarografo di dedurre la presenza dell’analita, mentre si presta all’analisi spettrofotometrica, nella quale abbiamo determinato la presenza di una delle sostanze costituenti il principio attivo. Inoltre, bisogna considerare le proprietà che l’analita deve avere per interagire con lo strumento: nel caso della polarografia il campione posto in analisi deve possedere un’elevata solubilità, mentre in spettrofotometria FTIR deve essere una sostanza in grado di interagire con la luce infrarossa. È dunque evidente che lo spettrofotometro non pone problemi con alcun tipo di sostanza, in quanto l’interazione luce materia avviene per ogni tipo di sostanza; la determinazione polarografica viene invece limitata se l’analita è poco solubile, fatto che accade proprio nel nostro caso. Nel complesso si può dunque concludere che una minima traccia di principio attivo è presente nel rimedio omeopatico; tuttavia, l’assenza di un risultato quantitativo impedisce di accertarne la concentrazione indicata. Sarebbe interessante, a questo punto, ripetere l’analisi con il medesimo rimedio ad una concentrazione di principio attivo minore per determinare le eventuali (probabili) differenze. 45 Nicolò Tamà IV N LAM 2012/2013 Conclusioni generali Questo lavoro di ricerca rappresenta a mio modo di vedere un viaggio, il cui merito è stato quello di condurmi dalla più totale ignoranza in merito alla pratica terapeutica omeopatica ad una consapevolezza della tradizione secolare che la precede, dei mezzi che essa ha oggi a disposizione, degli scopi che si prefigge, delle problematiche che la circondano, degli studi che cercano di supportarla e degli attriti nell’ambito scientifico che la vedono partecipe. Nei primi cinque capitoli ho avuto modo di sintetizzare quanto possibile ogni aspetto teorico che caratterizza l’omeopatia; avventurandomi nei principali avvenimenti storici che hanno permesso la sua nascita e diffusione, ho tratto spunto per descrivere le regole base dettate da Hahnemann, suo “padre” per concezione e creazione, che ancora oggi vengono applicate e insegnate ai suoi nuovi esponenti. Metodi di preparazione e azione fisiologica e psicologica dei rimedi, visione del corpo umano e degli strumenti che esso ha disposizione per fronteggiare gli stati d’alterazione e concezione della malattia a livello fisico e psichico mi hanno di conseguenza condotto all’effettiva cura. Nel contesto omeopatico sorge l’importanza del rapporto medico-paziente, dell’attenzione da prestare all’individuo nel suo insieme e della concezione di cura del malato (insieme di sintomi), anziché cura della malattia (singolo sintomo). Infine si giunge alle problematiche che più premono l’ambiente scientifico e medico, ovvero l’assoluta necessità di una base scientifica che giustifichi la solida efficacia pratica e la scelta del ruolo che l’omeopatia può e deve svolgere a livello internazionale; dunque normative e sperimentazioni. Il lavoro che in numerosi laboratori si sta compiendo proprio in questi istanti è molto e permette di immaginare che in un futuro non troppo lontano anche i più scettici dovranno accettare che l’omeopatia funziona (non solo per effetto placebo), e che forse vi è anche un principio scientifico alla base. La strada è già stata trovata dai suoi primi e più intraprendenti sostenitori, il cammino è però ancora lungo e tortuoso, per cui si prospettano anni di intensa attività. Ad ogni modo, l’omeopatia oggigiorno è presente e con una sempre maggiore importanza; essa veste però ancora il ruolo di medicina alternativa soprattutto per i continui contrasti con la pratica terapeutica tradizionale, ovvero l’allopatia. È in atto, infatti, una vera e propria guerra che non giova a nessuna delle due; è a mio modo vedere essenziale notare che entrambe le tecniche terapeutiche mirano allo stesso obiettivo, ossia la cura del paziente, ed è per cui inutile insistere nel contrapporle. Calcolando i rispettivi punti di forza e debolezze, dunque valutando il loro miglior contesto di applicazione (quando adottare l’una, quando l’altra e quando entrambe, che sarebbe responsabilità del medico), si giunge ad un’unica soluzione, già mostrata in rari casi come la Clinica Santa Croce, che non limiti la cura dei pazienti, ovvero l’integrazione. Il mio viaggio si è infine concluso negli ultimi quattro capitoli con la pratica vera e propria. Nonostante l’impossibilità di ottenere risultati completi a causa della misera disposizione di tempo, conoscenze degli strumenti e esperienze ad essi legate, la possibilità di assaporare la vita di laboratorio è stata incredibile. Nel mio piccolo, grazie all’assistenza del professor Morini e del professor Danani, sono riuscito a risolvere il quesito che mi ero originariamente posto, ovvero se la ditta produttrice di rimedi (la Boiron) rispettasse l’indicazione di principio attivo presente all’interno dei granuli, in questo caso Ferrum Phosphoricum 5 CH. Gli strumenti a disposizione del laboratorio scolastico sono tra i più cari e performanti; tra essi abbiamo individuato lo spettrofotometrio FTIR e il polarografo come strumenti più adatti alla determinazione del principio attivo. Nonostante le due tecniche abbiano fornito risultati contrastanti, è stato possibile supporre che all’interno del rimedio da noi analizzato vi siano delle tracce minime, non quantificate, di principio attivo. Benché io non abbia mai usufruito dell’omeopatia, e non abbia dunque potuto verificare la sua efficacia su me stesso, ritengo ora di essere in grado di sostenerla come tecnica terapeutica efficace, se utilizzata nel giusto contesto (tipo di malattia e tipo di approccio). È dunque evidente che la medicina propone numerose tecniche terapeutiche e che ognuna di esse manifesta debolezze e punti di forza: ve ne sono alcune più in uso e considerate più ufficiose e altre 46 Nicolò Tamà IV N LAM 2012/2013 che rimangono nell’ombra e vengono viste come alternativa a quelle più in voga. A mio modo di vedere, i presupposti essenziali nella scelta del rimedio più adatto sono l’essere costantemente informati su quanto viene offerto in mercato e la disposizione di un medico con il quale si possa stringere un legame professionale solido e sincero. Il mio lavoro di ricerca ha dunque l’ambizione di contribuire a questa campagna informativa con la speranza di aver proposto nella più totale oggettività una tecnica terapeutica che, prima di avventurarmi in questo viaggio, completamente ignoravo. Ringraziamenti Come già evidenziato nel corso del lavoro, ci tengo molto a ringraziare il professor Andrea Danani dell’istituto SUPSI, il farmacista Pier Luigi Poletti della farmacia Solari e il Dottor Dario Spinedi della Clinica Santa Croce per il contributo datomi nella raccolta delle informazioni, nell’impostazione della stesura e più in generale nella comprensione della dottrina omeopatica. Inoltre ringrazio il professor Paolo Morini per il tempo e le attenzioni che mi ha dedicato nel corso di questo lungo anno di ricerca e che hanno permesso il compimento del lavoro di maturità. 47 Nicolò Tamà IV N LAM 2012/2013 Bibliografia e webliografia Bibliografia Libri: • Cozzi Renato, Protti Pierpaolo, Rauro Tarcisio (1997), Analisi chimica strumentale: Volume A: Metodi elettrochimici, seconda edizione, Bologna, Zanichelli • Cozzi Renato, Protti Pierpaolo, Rauro Tarcisio (1997), Analisi chimica strumentale: Volume B: Metodi ottici, seconda edizione, Bologna, Zanichelli • Hahnemann Samuel C. / Riccamboni Giuseppe (1985), Organon dell’arte del guarire, quinta edizione, Como, Red Edizione (L’altra medicina; Studio/14) • Lockie Andrew e Geddes Nicola (2001), Il novo libro dell’omeopatia: tutti i principi, i rimedi, le terapie, seconda edizione, Como, Mondadori (Illustrati. Salute e bellezza) • Masci Walter (2003), Omeopatia; tradizioni e attualità, terza edizione, Milano, Tecniche Nuove • Negro Francesco E. e De Filippo Antonio (1995), Dizionario di omeopatia, prima edizione, Milano, Sperling & Kupfer (Dizionari & Atlanti) • Spinedi Dario (2011), L’omeopatia in oncologia: accompagnamento e cura del malato oncologico, prima edizione, Milano, Tecniche Nuove Articoli: • Montagnier L. et al. (2011), “DNA waves and water”, Journal of Physics: Conference Series, Londra, IOP Publishing, 306, 012007, 22 giugno (online: 8 luglio) Webliografia Nozioni generali: • http://medicinanaturale.pro/omeopatia-2/, alla voce: “Le costituzioni omeopatiche” • http://www.homeopathyeurope.org/, alle voci: “Practice” e “Research” • http://www.apoitalia.it/index.html, alle voci: “I principi della Medicina Omeopatica” e “La parola ai medici” • www.rimediomeopatici.com, alla voce: “Approfondimenti” • http://www.farmacialamarmora.it/omeopatia1.htm Studi scientifici: • http://www.brainmindlife.org/benveniste.htm • http://www.acquainformata.eu/archivio/la-stampa-perche-montagnier-crede-alla-memoriadellacqua/ • http://iopscience.iop.org/1742-6596/306/1/012007 (articolo di J. Phys.: Conf. Ser.) Altro: • http://www.omeopatia.clinicasantacroce.ch/it/, alla voce: “Trattamento” • http://www.liceorodolico.it/appunti/potred_alfa.pdf • http://toppara.ma/homeopathie/2049-ferrum-phosphoricum-5ch-boiron.html 48