Filosofia e Medicina: una lunga storia in comune...
   
  Filosofia e Medicina
  Logica e Medicina (II parte)
 






Logica e Medicina
riflessioni ed interazioni


Federico E. Perozziello 
© 2008

Seconda parte

Esaminiamo le differenze di fondo che intercorrono tra i due più conosciuti procedimenti conoscitivi:

 

         l‘induzione è basata sulla formulazione nel pensiero umano di una concatenazione di proposizioni, che descrivono un evento od un oggetto d’indagine, partendo da molte verità particolari intorno ad un avvenimento, per giungere ad una verità finale, che contiene e che rappresenta tutte le affermazioni sicure formulate in precedenza. In sostanza, il metodo induttivo parte da fatti molteplici e semplici per approdare alle ipotesi ed alle teorie più generali.

 

         la deduzione è un procedimento del pensiero mediante il quale da una verità generale se ne può ricavare una particolare, in essa implicita. E’ una modalità conoscitiva in cui la conclusione scaturisce in modo automatico dalle premesse che vengono poste alla partenza del ragionamento, come accade nel Sillogismo.

 

 

Nella diatriba sull’attentibilità maggiore o meno dell’induzione rispetto alla deduzione, dobbiamo per forza citare un terzo incomodo: 





Charles Sanders Peirce
(1839-1914)

 

Peirce nacque a Cambridge, nel Massachussets, nel 1839. Una volta laureatosi in chimica ad Harvard ottenne un incarico presso il servizio geodetico americano, per il quale lavorò qualche  anno, producendo  una serie di ricerche scientifiche che riscossero un notevole interesse tra gli addetti ai lavori. Divenne poi osservatore ed assistente all'Osservatorio astronomico della stessa università dove si era laureato.

 

Peirce enunciò, intorno al 1870, la sua celebre Massima pragmatica.

 

Tale massima afferma che le nostre opinioni e le nostre idee hanno necessariamente la loro traduzione nell'azione:

 
 “…Considerati quali effetti  [del nostro pensiero] possano concepibilmente essere dotati di valenze pratiche, noi pensiamo [conceive] che l’oggetto del nostro concepire le  possegga. Allora la nostra concezione di questi effetti costituisce l’intera nostra concezione dell’oggetto stesso…”
 
          
da Charles Sanders Peirce, C. P., 5. 402.

 

Il senso, la verità ed il significato che le nostre idee e le nostre opinioni assumono si manifesta nell'agire, nella pratica e negli stili di comportamento. Per sapere quali opinioni un uomo coltivi dentro di sé non bisogna fare altro che osservare il suo comportamento nelle varie situazioni della vita. L'insieme dei comportamenti pratici che l’individuo manifesta costituisce l'insieme delle credenze che l’uomo nutre. Questa visione rompe la tradizionale divisione tra teoria e prassi che da Aristotele in avanti aveva influenzato il pensiero occidentale.

 

la stessa rappresentazione simbolica della realtà, tipica di Peirce, ci permette di fare dei ragionamenti in termini medici:

1) La
presenza  delle cose (il rapresentamen) che ci circondano sono dei segni che ci inducono a rispondere alla percezione della loro presenza. Noi siamo continuamente provocati a dare una risposta al mondo esterno dall’esistenza di ciò che di esso possiamo percepire. La realtà ci appare quindi popolata da segni
 
2) Dal momento che le cose agiscono come segni, esse rinviano al loro significato intrinseco, cioè rinviano a ciò che esse significano in quanto
oggetto vero e proprio di conoscenza.
 
3) Questi due elementi, il segno e l'oggetto, non potrebbero essere messi tra di loro in relazione se non vi fosse un terzo elemento, che è quello più importante e decisivo di questa interazione. Si tratta del ruolo svolto dal
soggetto interpretante.

 

Dopo queste considerazioni, possiamo fare un sempio pratico che si adatta bene alla diagnostica medica e che lo stesso Peirce cita nella sua opera:

 

 

        -  il rossore sulle guance di un individuo malat è un segno della  febbre ed il  rapresentamen della febbre stessa

 

        -  la febbre costituisce l’oggetto della conoscenza del medico

 

 

        -   la conclusione del processo conoscitivo, che segnala  la presenza   della febbre, è l’esito finale  della diagnosi       


   Il medico ricopre così 
il ruolo dell’interpretante





Charles Sanders Peirce


Il pensiero di Peirce introduce un nuovo elemento tra induzione e deduzione. La deduzione funziona se si ha, nella premessa del ragionamento, una totalità di casi da considerare. Nella realtà, non si possiede mai una totalità di casi di cui bisogna tener conto. Questo tipo di conoscenza deve essere raggiunto prima attraverso l'induzione, nel modo più accurato possibile. Ad esempio, la presenza di un solo cigno nero falsifica la mia ipotesi di partenza e mi costringe a ricorrere alla statistica:  ci sono il 90% di cigni bianchi e solo  il 10% di cigni neri
e così via…

 

 

Tuttavia l'induzione non potrebbe funzionare se presa da sola. Peirce ne porta un esempio molto chiaro: supponiamo di non avere la benché minima idea di quale fattore determini la nascita di un maschio o di una femmina nella specie umana…

Se io non ho nessuna idea di partenza, se qualunque cosa può essere segno di questa differenza o causa di questa differenza, allora io non potrò nemmeno organizzare un'induzione. Posso pensare che sia causa di questa differenza qualsivoglia evento che accada qui, dove risiedo, o che accada agli antipodi. Posso pensare che sia lo starnuto di un cinese a determinare la nascita di un maschio o di una femmina, così come la direzione del vento o qualsiasi altra cosa.

 

Quindi:

 

 

Per poter fare un'inferenza induttiva ho bisogno di raccogliere una serie di ipotesi plausibili, devo avere davanti agli occhi una serie di possibilità da sottoporre a verifica.

 

In seguito utilizzerò la deduzione, ma solo una volta che ho stabilito un campo di probabilità entro le quali è ragionevole aspettarsi che si trovi la causa del fenomeno indagato.

 

Sarà infine l'intelligenza umana, grazie alle sue capacità, a stabilire che cosa sia plausibile, che cosa sia ragionevole ed infine che cosa sia probabile nel processo conoscitivo.

 

Una inferenza logica diversa e che viene utilizzata in medicina non è quella induttiva, né quella deduttiva, ma quella che Peirce chiama abduttiva, cioè la capacità di formulare delle ipotesi plausibili e la capacità di avanzare delle istanze probabili. L'abduzione utilizza il fattore di probabilità del ragionamento, procede supponendo uno stato di cose antecedente, che non è osservabile e che spiega uno stato di cose invece presente ed osservabile.

 

Osserviamo un sacchetto contenente solo fagioli bianchi, afferma Peirce in un suo famoso esempio. Se osservo degli altri fagioli bianchi, posso ipotizzare che essi provengano dal medesimo sacchetto. In questo modo abbiamo accresciuto la nostra conoscenza del problema e ne sappiamo di più, riguardo a quei fagioli. 

 

Fino a quando non troveremo un qualcosa che sia in discordanza con l’ipotesi iniziale, ad esempio un solo fagiolo scuro, possiamo ragionevolmente pensare che esistano solo fagioli bianchi e che questi provengano da quel sacchetto. 

 

Si tratta quindi di un’ipotesi d’indagine di tipo probabilistico, che dovrà essere confermata dall’esperienza, la quale verificherà l’osservazione iniziale.

L’abduzione è usata di frequente nella pratica medica. Spesso consiste nel somministrare una terapia ex-adiuvantibus, per vedere cioè se il paziente trae giovamento da una cura e così questo miglioramento permetta di arrivare ad una diagnosi più accurata.

 

Tuttavia, almeno per quanto riguarda i fagioli, le cose non sono affatto così semplici…


 

 

 

…e dobbiamo tener presente un altro fattore presente nel percorso conoscitivo-diagnostico.

 

Ogni conoscenza, per poter essere espressa e tramandata ha bisogno  di essere comunicato in modo comprensibile… la comunicazione è una delle funzioni principali del linguaggio e l’Informatica non è altro che l’utilizzo di diversi linguaggi per la codifica e la conservazione delle informazioni…

 

 

 

Anche la medicina è costretta, come ogni parte del sapere, ad usare il linguaggio per trasmettere le proprie idee e nozioni.

Alcune piccole precisazioni: esiste la possibilità  di descrivere, con uno strumento finito come la  grammatica, un insieme costituito da infiniti elementi come il linguaggio.
"Ogni Linguaggio Naturale (LN) ha un numero di frasi potenzialmente illimitato”.
K. N. Chomsky, 1957: “anche se il numero dei suoni e delle parole è finito, il numero dei modi in cui queste possono essere posti assieme è infinito"…

 

Ad esempio, osserviamo questa sequenza:

 

 

Mario  lancia una palla

Mario  lancia due palle

Mario  lancia tre palle

Mario lancia quattro palle,

Ad libitum…

 

 

La grammatica è l'insieme delle regole che descrive il processo di generazione delle frasi nella lingua.  Ma le  frasi non vengono create riunendo casualmente delle parole.

Consideriamo, ad esempio, la frase: "basta con i botti di fine anno" costituita da 7 parole; ci sono 7 = 5040 modi diversi di riordinare 7 parole in esame.

Di questi possibili 5040 modi la stragrande maggioranza non costituisce delle frasi; ad esempio, non lo è la frase: "con i basta di botti anno fine" .

Ogni lingua possiede un insieme di regole che limita i modi con cui le parole stesse possono essere disposte, determinando così quelle che possono essere ritenute frasi.

 

Non è difficile notare l'equivalenza strutturale di un tale visione con il calcolo aritmetico, le formule logiche, la musica, le strutture anatomiche ripetitive ed armoniche, ecc…



Alan Turing (1912-1954), il padre del computer

che non vide mai il figlio…

 

 

Dobbiamo, a questo punto, aprire una parentesi 
che illustra le influenze dell’informatica sul pensiero biologico e quello medico in genere.

Alan Turing è stato un matematico, logico e fisico inglese. E’ ritenuto uno dei due padri dell’informatica moderna, insieme a John Von Neumann. La sua importanza è legata anche agli studi pionieristici da lui intrapresi sull’intelligenza artificiale ed alla formulazione del linguaggio artificiale per programmare i calcolatori

 

La Macchina di Turing, da lui ideata, è una rappresentazione formale e teorica di come deve funzionare un calcolatore e come questo possa “pensare” se vuole essere considerato intelligente.

 

 

I problemi affrontati da Turing erano complementari a quelli studiati e risolti da Watson e Crick per il DNA all’incirca nello stesso periodo.

Bisognava capire non  solo come le molecole si formassero secondo l'informazione genetica, ma anche come un composto chimico desse origine ad una struttura biologica regolare. La spiegazione da raggiungere era costituita dalla comprensione di come l'informazione codificata in modo apparentemente semplice, nella sequenza lineare del DNA, potesse convertirsi nella costruzione di un animale tridimensionale di forma specifica.

 

Turing era attratto dalla crescita degli organismi viventi e dal loro prendere forme geometriche di dimensioni non paragonabili a quelle delle cellule di partenza.

 

I casi da lui descritti riguardano la disposizione delle foglie, la formazione di macchie di colore sulla pelle degli animali, lo sviluppo di esseri viventi di morfologia simmetrica, come le stelle marine e, per analogia, la crescita degli organi interni o del corpo umano in generale…


In un suo progetto, oltre alle ovvie applicazioni belliche, che dovevano essere previste, visto il periodo in cui Turing lavorò ed i suoi principali finanziatori, che erano le forze armate, si parla anche della macchina universale
come di un “cervello”. Turing cita apertamente la possibilità di farla giocare a scacchi.  In seguito divenne più ambizioso, inserendo fra i possibili obiettivi l'apprendimento, la robotica, la traduzione da una lingua all'altra, la matematica e la criptografia. Vedeva così la luce il concetto stesso di Intelligenza artificiale.

 

Il Test di Turing afferma che se una macchina si comporta in modo indistinguibile da una persona nel rispondere ad una serie di domande, allora è in grado di pensare.

 

Ci troviamo quindi di fronte alla relazione tra Linguaggio Naturale (LN), quello che utilizzano di solito gli esseri umani per relazionarsi tra di loro ed il Linguaggio Artificiale (LA), che viene invece utilizzato per comunicare con i computer.


I
due problemi di fondo dell’applicazione di un Linguaggio Naturale (LN) alla ricerca scientifica e medica, sono costituiti dalla:

 


- possibile ambiguità   delle definizioni

-possibile autoreferenzialità degli enunciati




Il problema interpretativo dell’ambiguità, nasce per il fatto che il LN non incorpora il significato nello stesso modo in cui un codice cifrato incorpora un messaggio. Il significato di una frase in una lingua naturale dipende non soltanto dalla forma della frase stessa, ma anche dal contesto. Di norma, nei linguaggi artificiali (LA) l'ambiguità è un fenomeno da evitare.

 

Alcune forme di ambiguità sono di difficile interpretazione. Osserviamo la  frase:

 

 “I polli sono pronti per il pranzo“, che è costruita su una ambiguità di "struttura profonda" in quanto essa presenta un'unica struttura grammaticale ma, ciononostante, il suo significato è dubbio.

 

Essa, infatti, implica che qualcosa stia per mangiare qualcosa, si tratta solo di determinare da che parte stanno i polli!

Nei linguaggi artificiali tali forme di ambiguità devono essere abolite o, per lo meno, fortemente ridotte, altrimenti il computer non comprenderà il senso dell’enunciato.

 

L’informatica applicata al linguaggio ha dato un importante contributo all’esplorazione della funzione di Autoreferenzialità del linguaggio. Questa si può definire come la constatazione del fatto che per descrivere qualsiasi concetto dobbiamo servirci della funzione di autorevolezza propria dello strumento linguistico che adoperiamo.

 

In questa particolare situazione comunicativa l'autoreferenzialità del LN assume un ruolo ambiguo, simile a quello che che Kurt Gödel  (1906-1978) ha delineato con chiarezza  nella sua pericolosità per quanto riguarda la matematica. 



      Albert Einstein con Kurt Gödel


Un primo effetto di questa questa pericolosità si verifica partendo dalla constatazione banale di come possa essere messo in discussione il "tertium non datur" dei filosofi della Scolastica, secondo i quali un predicato o è vero o è falso, non ci sono vie di mezzo.

 

Ne è un esempio il celebre paradosso noto come Paradosso di Epimenide, un poeta greco vissuto nel VI secolo a.C.:

 

 

“tutti i Cretesi sono bugiardi “


        Epimenide, VI secolo a.C.

 





 

Questo enunciato, apparentemente innocuo, ha varie versioni: "io sto mentendo“, oppure, "questa frase è falsa" ne sono altrettanti esempi. Resta il fatto che, in base alle nostre assunzioni l'enunciato di Epimenide (e tutti i suoi isomorfi) non può essere vero, perché, in tal caso, Epimenide sarebbe un mentitore e quindi, ciò che dice sarebbe falso, e non può neppure essere falso perché da ciò conseguirebbe che I Cretesi sono sinceri e, di conseguenza, ciò che dice Epimenide sarebbe vero. Siamo dunque di fronte ad un enunciato perfettamente sensato che non può essere vero senza contraddirsi e non può essere falso senza contraddirsi.

Questo enunciato "dà fastidio", provoca una sensazione di disagio, perché viola pesantemente l'assunzione consueta che vuole gli enunciati suddivisi in veri o falsi: se si prova a pensare che sia vero, immediatamente esso si rovescia forzandoci a pensare che sia falso. Ma una volta che si sia deciso che è falso, si viene inevitabilmente riportati all'idea che sia vero.

 

Dobbiamo considerare con attenzione la complessità dei fenomeni biologici e la pluralità delle loro interazioni che generano la realtà biomedica. La necessità di rappresentarli correttamente è stata affrontata in vari modi:

 

Nel 1973, L.A. Zadeh osservò che gli elementi chiave del pensiero umano non sono numeri, ma insiemi fuzzy.

 

Una delle capacità più sorprendenti del cervello umano, tutt'ora non riproducibile dall'intelligenza artificiale, è quella di riassumere informazioni. Un riassunto, per sua natura, è un'approssimazione. La logica fuzzy rappresenta un ottimo strumento di gestione della polivalenza e della vaghezza del linguaggio naturale, pur ammettendo una struttura formale che ne permette una successiva rappresentazione numerica.

 

 



 

Un classico esempio fuzzy:

 


Consideriamo un gruppo di persone, all’interno del quale vogliamo operare un controllo di appartenenza ad un insieme dei singoli individui, basato sull’altezza. Troveremo delle persone alte e delle persone basse (non alte), ma sicuramente ci sarà anche un insieme di persone che avremmo difficoltà a definire alte, oppure basse, dal momento che ci sembreranno"abbastanza alte" o "non proprio basse". 




La teoria degli insiemi classici
ci permette di affermare che X appartiene all'insieme delle persone alte, o che Y appartiene all'insieme delle persone basse, ma non consente ad un elemento Z di essere alto e non alto allo stesso tempo e quindi di appartenere contemporaneamente all‘insieme delle persone alte ed a quello delle persone basse.

 

 

L'unico modo per risolvere questo problema senza violare i principi della logica consiste nel definire un valore arbitrario di "soglia", che permetta di definire senza ambiguità gli insiemi. Se adottiamo la "soglia" costituita da 170 cm., definiremo due insiemi: quello delle persone basse, la cui altezza è inferiore a 170 cm, e quello delle persone alte, con un'altezza superiore a 170 cm. Il rigore di tale metodo lascia però insoddisfatti, dal momento che la precisione della logica ha annullato il valore e la ricchezza semantica del nostro linguaggio naturale.

Come si può osservare, nella
logica fuzzy la differenziazione tra i vari concetti sfuma in modo più graduale tra un’entità e l’altra. Pensiamo solo alla relatività della definizione di salute e di malattia ed al diverso valore che questi concetti assumono nelle differenti età della vita.

 

 

 

 

 

 Il concetto stesso di salute risente della difficoltà di un suo inquadramento stabile entro determinati e precisi parametri. 
Questo concetto possiede un’ ambivalenza ed una ambiguità che sono difficili da definire, oltre ad essere influemzato da un’altra variabile, data dal tempo di osservazione.

 

La vita stessa può assumere le sembianze di un processo fuzzy…
Pensiamo solo al dibattito sull’uso degli embrioni e sulla loro natura. Dove può essere collocata,
con precisione, la linea di separazione tra vita e non vita? Forse, tutto sarebbe meglio interpretabile in una dimensione “Fuzzy”.

 

Esiste inoltre un altro strumento di misura della componente probabilistica in medicina: il Teorema di Bayes.

Viene spesso adottato in modo inconsapevole nel ragionamento diagnostico del medico e fornisce un metodo per modificare il livello di confidenza in una data ipotesi, alla luce di nuova informazione.

Gli statistici bayesiani sostengono che i metodi dell'inferenza bayesiana rappresentano una formalizzazione del metodo scientifico, che normalmente implica la raccolta di dati (evidenza empirica) i quali corroborano o confutano una data ipotesi.

 

Non si può mai avere certezze riguardo a un'ipotesi, ma con l'aumentare della disponibilità di dati il grado di fiducia nell’ipotesi di partenza cambia: potrà diventare molto alto (per esempio, tendente a 1) o molto basso (tendente a 0). Questa formulazione permette di tenere conto dell’esperienza precedente nella  formulazione di un ipotesi prevedibile.

 

 

Immaginiamo che il nostro paziente tipo abbia la polmonite, la probabilità attesa che egli guarisca è allora direttamente proporzionale all’ uso degli antibiotici ed all’evidenza sperimentale che conferma l’utilizzo degli stessi (A), cioè alla nostra esperienza precedente, singola o collettiva, mentre è inversamente proporzionale all’evidenza (B), cioè all’astensione dal trattamento… Senza comunque mai raggiungere la certezza dell’evento guarigione.

 

 

P(A|B) = P(B|A) x P(A)/P(B)

 

 

 

 

Per concludere, alcune considerazioni generali con i loro problemi aperti.

 

Il canadese Paul Thagard, autore di Conceptual revolutions, ha discusso nei suoi lavori le modalità della scoperta medica. Ha utilizzato come “caso indice” quello fornito dall’eziologia batterica delle ulcere. 



Paul Thagard

 

Il caso dell'eziologia batterica delle ulcere e il processo attraverso cui questa scoperta è stata accolta nell'ambito di una comunità scientifica, che non se l'aspettava minimamente, sono caratteristici del modo in cui i medici spiegano la malattia. Thagard sostiene come la spiegazione biomedica non sia unicamente di tipo deduttivo.

 

In in medicina non ci sono leggi universali circa l'origine del cancro o dell'infarto o di altre patologie ad eziologia complessa.

La statistica è importante per sviluppare la spiegazione medica in quanto individua le correlazioni tra le cause delle patologie ed i loro effetti, ma queste non hanno forza esplicativa in quanto tali, poiché possono essere il risultato di cause alternative confondenti. Concludere che esiste una relazione causale e quindi esplicativa tra un fattore e una malattia, dipende quindi da numerose considerazioni di coerenza

 

La spiegazione in medicina e in biologia non può mai essere in termini di singole cause, nel senso che non esistono malattie monocausali. Nemmeno le malattie monogenetiche possono essere considerate completamente monocausali, in quanto la loro manifestazione fenotipica è anche dovuta ad una interrelazione con l’ambiente esterno.

I ricercatori, quando devono cercare delle cause per spiegare eventi correlati, tendono naturalmente a cercare informazioni circa meccanismi sottostanti, così come informazioni più precise circa la loro correlazione.

 

La spiegazione medica dovrebbe essere pensata, secondo Thagard, in termini di concretizzazione di una rete causale. Per ogni malattia gli studi epidemiologici e la ricerca biologica stabiliscono un sistema di fattori causali implicato nella produzione di una malattia.

I nodi di questa rete sono connessi non semplicemente da probabilità condizionali (probabilità del verificarsi di un effetto da una determinata causa), ma da relazioni causali sostenute da molteplici considerazioni e correlazioni, cause alternative e meccanismi complementari.

 

Il fiorire dell'informatica - con la costruzione di calcolatori elettronici i cui inizi risalgono a John Von Neumann (1946) e alla cibernetica di Norbert Wiener (1948), oltre alle brillanti teorie di Alan Turing - ci consente oggi di capire meglio il flusso delle comunicazioni ed i processi di regolazione negli esseri viventi e in certe macchine. Cominciamo forse  a credere all'esistenza dell’informazione come un cosa che non può essere né materia né energia.

 

Che cosa significa infatti "informazione"?

 

Indica l'attribuzione di un senso ai fatti considerati in sé stessi. Per esempio nessuna analisi materiale o energetica può far capire il significato del genoma di un essere vivente. Quel genoma possiede un senso profondo, ma questo senso esiste soltanto in funzione di un dispositivo capace di decifrarlo. Non si dà trasmissione genetica senza l'azione di una cellula vivente che legge l'informazione contenuta nei cromosomi. C'è vita soltanto perché c'è continuità nella catena degli esseri viventi. L'informazione presuppone un messaggio conservato in una memoria, un codice per decifrarlo e un dispositivo per tradurlo in azione. Il concetto di informazione dà allora una dimensione nuova alla relazione tra corpo e mente.

 

Per "decifrare la natura", bastava conoscere le leggi generali della fisica e della chimica, senza alcun codice particolare. Invece questa conoscenza delle leggi generali non basta per capire e trasformare in azione le informazioni contenute nel genoma.

 

Secondo il grande storico della medicina Mirko D. GRMEK,  la scoperta più sorprendente e davvero rivoluzionaria della nostra epoca è quella dei processi di tipo numerico nel determinismo dei fenomeni naturali. 



Mirko D. GRMEK


Per esempio, la trasmissione dell'immagine dalla retina al cervello non avviene unicamente con un processo analogico.
I virus agiscono su cellule vive usando messaggi in codice. Si cominciano a spiegare l'origine dei tumori con l'accumulo di errori nella trasmissione delle informazioni contenute nelle cellule.

 

Ci si chiede se la senescenza sia un processo programmato, oppure il risultato di un cumulo di errori di tipo informativo che danneggiano l’ultrastruttura cellulare: la vecchiaia è forse un’errore di comunicazione? Nei processi biologici esiste qualcosa di non riducibile alle leggi della materia e dell'energia.. U

 

Il linguaggio costituisce il risultato di un lento sviluppo che sottende i fenomeni naturali, il perfezionamento ultimo di un processo di cui, sotto una forma primitiva immediatamente percepita dai sensi, l'intera natura è intrisa. La comparsa della vita non è stata che una tappa storica nello sviluppo di questo processo, così come la comparsa della coscienza, del linguaggio dei segni, degli utensili, del linguaggio propriamente detto, della scrittura e infine delle scienze e delle arti non sono che le tappe successive.

Alla luce di questa interpretazioni i fenomeni naturali avvengono in uno spazio e in un tempo non necessariamente isotropi e si compongono di una sostanza che si manifesta sotto forma di materia o di energia ed anche di un'entità particolare, non riducibile a questi elementi e che oggi possiamo chiamare informazione.

 

 

 

Questa visione può forse giustificare l’apparente teleonomia delle strutture esistenti in natura senza doverla giustificare per forza con una teleologia superiore. Non si tratta di evitare la predestinazione, ma di salvaguardare la possibilità di invenzione e di creazione. Mentre le problematiche epistemologiche rimangono, per loro stessa natura, un problema aperto.

 

Costituiscono le domande di fondo che già Aristotele aveva contribuito a sollevare:

 

- le forme di vita e la loro variabilità, riflettono un presupposto di natura finalistica, sono state costituite ed hanno subito i loro processi evolutivi in vista di un fine ultimo? 

- esiste un fine ultimo cui tende tutto l’ordinamento naturale?

- la Scienza può perseguire con coerenza la risoluzione di questo quesito?

 

 

Sono domande destinate a rimanere senza una risposta definitiva.

 

 

Una prima conclusione:

 

Il processo di valutazione di un evento in Medicina è spesso vissuto e formulato in modo strettamente empirico ed induttivo;

La gestione dell’informazione segue procedure di tipo per lo più logico-binarie, che non possono dare sempre una risposta chiara in tante situazioni cliniche pratiche.

 

 

Una seconda conclusione:

 

Le Linee guida, l’Evidence Based Medicine ed altri criteri di scelta, non sono stati pensati per tener conto della relatività del contesto operativo della pratica medica, risultando così inadeguati o fonte di frustrazione professionale.

La Logica applicata ed alla medicina può rendere il medico maggiormente consapevole delle sue decisioni diagnostiche e terapeutiche, oltre che a migliorare la sua comunicazione con il paziente.

 

 

tenendo sempre
presente che …

 

“…nulla al Mondo,
nessun soggetto od evento, sarebbe vero o falso,
se non esistessero le creature pensanti…”



 

       Donald Davidson

          da,“Journal of philosophy”,  Vol. LXXXVII, n.6, giugno 1990

 

 

 

 



 

    


Bibliografia 

 

 

  1. Callegarin G. - Varagnolo L., Corso di informatica generale, Padova, 1983

2.      Del Zotti F., Metodi di Medicina Generale, Bari, 1993

  1. Di Benedetto V. Il medico e la malattia.Torino, 1986
  2. Dubois D., Prade H., Fuzzy Sets and Systems: Theory and Applications, New York, 1980  
  3. Guerrerio G., Gödel, Milano, 2001
  4. Guyatt GH. Evidence-Based Medicine. ACP J Club 1991 March-April; 114, Suppl 2: A-16
  5. Kassirer JP. Clinical Problem Solving - a new feature in the Journal. N Engl J Med 1992;  326: 60-1
  6. Kosko B., Il Fuzzy Pensiero. Teoria e Applicazioni della Logica Fuzzy, Milano, 1995

 

  1. Hodges A., Storia di un Enigma. Vita di Alan Turing,  Torino, 1991

 

  1. Levi S., Soggetti sottintesi. Razionalità e comprensione in Donald Davidson, 2001

 

  1. Lolli G., Incompletezza, Bologna, 1992

 

  1. Lolli G., Da Euclide a Gödel,  Bologna, 2004

 

  1. Morpurgo G., La logica dei sistemi di regolazione biologica, Torino, 1997

 

  1. Nagel E. – Newman J.R, La prova di Gödel, Torino, 1974

 

  1. Odifreddi P., Il diavolo in cattedra. La logica da Aristotele a Gödel, Torino, 2003

 

  1. Odifreddi P., Le Menzogne di Ulisse, Milano, 2004

 

  1. Prigogine I., La fine delle certezze ,Torino, 1997

 

  1. Rainone A., Azione, casualità e razionalità in Donald Davidson, ETS, Pisa, 1996

 

  1. Rigamonti G., Turing. Il genio e lo scandalo, Palermo, 1991

 

  1. Sangalli A., L'importanza di essere fuzzy. Matematica e computer, Torino 2000

 

  1. Scardovi I., L’inferenza induttiva nella ricerca scientifica: annotazioni storiografiche. In "I Fondamenti dell’Inferenza Statistica", Dipartimento Statistico Università di Firenze, 1978: 13-82.

 

  1. Varagnolo L., Euristica e intelligenza artificiale: un contributo alla personalizzazione degli Apprendimenti, http://www.tiziana1.it

 

 23.  Veronesi M. – Visioli A., Logica fuzzy,
         Milano, 2003.

  24.   Zadeh L.A., “Fuzzy sets” – Information 
         and Control;
8, 338-353, 1960.

 


 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 
  hanno visitato queste pagine: 7841 visitatori (17189 hits)  
 
a cura di Federico E. Perozziello Questo sito web è stato creato gratuitamente con SitoWebFaidate.it. Vuoi anche tu un tuo sito web?
Accedi gratuitamente