CAOS Y FRACTALES EN LA MEDICINA

CAOS Y FRACTALES EN LA MEDICINA "INTELIGENCIA ARTIFICIAL APLICADA A LA MEDICINA" y "CAOS Y FRACTALES EN LA MEDICINA" RESUMEN DE LAS CONFERENCIAS Auto...
3 downloads 0 Views 145KB Size
CAOS Y FRACTALES EN LA MEDICINA

"INTELIGENCIA ARTIFICIAL APLICADA A LA MEDICINA" y "CAOS Y FRACTALES EN LA MEDICINA" RESUMEN DE LAS CONFERENCIAS Autores:

Jorge Farbiarz F.* Diego Luis Alvarez M.** Introducción La medicina ha tenido un enorme desarrollo tecnológico, alcanzando un profundo nivel en el conocimiento durante el presente siglo. Para que se diera este proceso, un elemento fundamental fue la intervención de distintas disciplinas en aplicaciones específicas para resolver necesidades difíciles de enfrentar. Las matemáticas, han estado involucradas, sin duda, en estos avances, desde la aplicación de fórmulas sencillas (como el cálculo de la superficie corporal), hasta el procesamiento digital de imágenes de resonancia magnética. A pesar de este protagonismo, ellas han sido para la mayoría de los médicos, un tema espinoso, árido y poco comprendido, mientras que para muchos otros, se ha convertido en una de sus más valiosas herramientas. La teoría del caos y los fractales son términos cada vez mas encontrados en diversos ámbitos, y la medicina no es una excepción. Es así como en las últimas dos

décadas

han

aparecido

grupos

que

investigan

en

este

campo,

y

recientemente se comenzaron a ver con mayor frecuencia, artículos de estudios clínicos relacionados con este tema en publicaciones de revistas de gran reconocimiento como el Journal of the American College of Cardiology (JACC), Journal of the American Medical Asociation (JAMA) y New england Journal of Internal Medicine y IEEE Engineering in Medicine and Biology entre otras. Curso de Terapia Neural on line por Internet

www.salud-sin-dolor.com

Página 1 de 17

Con este artículo se pretende dar a conocer de manera sencilla y breve, los principales conceptos de la teoría de caos, mostrar la importancia que tiene esta herramienta para la medicina, indicar algunas aplicaciones médicas prácticas y generar inquietud e interés en el tema por parte de la comunidad médica. Antecedentes A lo largo de la historia, el hombre ha intentado comprender, explicar los fenómenos que observaba y lo ha hecho principalmente a través de la filosofía y de las matemáticas. Según Aristóteles, las matemáticas se originaron porque la clase sacerdotal de Egipto tenía el tiempo necesario para dedicarse a su estudio. Esto fue corroborado mas de dos mil años mas tarde, cuando se encontró un papiro escrito por el sacerdote Ahmes en la época de 1700 a.C. titulado "Orientaciones para Conocer todas las Cosas Oscuras". (J.R. Newman, 1994) En el presente escrito no se pretende hacer un tratado acerca de la historia de las matemáticas; por lo tanto se la hemos dividido en cuatro grandes épocas que marcan tendencias globales del pensamiento matemático de la humanidad. 1. LOS GRIEGOS (LA GEOMETRÍA) Los griegos tuvieron importantes descubrimientos, principalmente en el campo de la geometría, la cual fue utilizada para medir las tierras. Es precisamente Pitágoras (569-500 a.C.) a quien debemos la palabra "matemáticas". (J.R. Newman, 1994) Uno de los legados más importantes de ésta época fue la geometría euclidiana (desarrollada por Euclides 330 – 212 a.C.), que es la clásica geometría se estudia hoy en día. En los siguientes siglos, la introducción de la notación decimal de la India en Europa fue tal vez el acontecimiento más importante. 2. EL RENACIMIENTO (LA ASTRONOMÍA) En la época del renacimiento, hubo astrónomos muy importantes como Galileo (1564-1642) y Kepler(1571-1630). Este último fue especialmente

Curso de Terapia Neural on line por Internet

www.salud-sin-dolor.com

Página 2 de 17

importante al publicar las leyes que rigen los movimientos planetarios y describir las órbitas elípticas de los planetas. Otro personaje importante posterior a los anteriores fue Descartes (15961650), cuya obra cambió la faz de las matemáticas al fundar la geometría analítica, que proporcionó ocupación a los matemáticos por mas de doscientos años y que consolidó elementos que más tarde terminaron en el descubrimiento del cálculo diferencial por Newton y Leibniz. 3. LA MECÁNICA CLÁSICA – EL DETERMINISMO Sin duda alguna el máximo exponente de ésta época fue ISAAC NEWTON (1642-1727). En el campo de las matemáticas su descubrimiento más importante fue el cálculo diferencial y en astronomía la concepción y elaboración de la teoría de la gravitación universal. Su obra más importante fue la titulada "Los Principios Matemáticos de la Filosofía Natural". Newton marcó una época en la que el determinismo era lo más importante y en la que el comportamiento de todos los sistemas podía ser establecido por ecuaciones "perfectas". Posteriores a Newton vinieron, entre otros, Bernoulli (1654-1705), Euler (1707-1783) y Laplace ( 1749-1827), quienes estudiaron fenómenos mecánicos y ondulatorios. 4. EL SIGLO XIX (ÉPOCA DE GRANDES CAMBIOS) Este período fue considerado uno de los más importantes para el avance de las matemáticas principalmente porque hubo una visión más profunda de las propiedades del número y se descubrieron nuevos métodos de cálculo. Carl Friedrich Gauss (1777-1855), es considerado por algunos historiadores tan importante en la historia de las matemáticas como Arquímedes y Newton. El descubrió los números primos y desarrolló importantes teoremas geométricos y nuevos métodos de cálculo que dieron nuevos rumbos a las matemáticas. 5. EL NACIMIENTO DEL CAOS DETERMINISTICO James Clerk Maxwell (1831 – 1879), es recordado mejor por sus contribuciones al campo del Curso de Terapia Neural on line por Internet

www.salud-sin-dolor.com

Página 3 de 17

electromagnetismo, pero su trabajo en la teoría de gases fue también muy importante. Él vivía en una época en la que el mundo intelectual estaba regido por el concepto de un universo predecible, pero en su trabajo científico y en sus escritos más filosóficos, demostró ser la primera persona en entender lo que hoy llamamos "caos determinístico", al reconocer la importancia de los sistemas que dependen de las condiciones iniciales. Poincaré, hizo eco a las ideas de Maxwell, llegando a la conclusión de que en muchos sistemas no era posible predecir con exactitud su evolución futura, ya que aunque se conocen las reglas que gobiernan dicho sistema, las condiciones iniciales sólo se conocen de manera aproximada, y aparecían perturbaciones impredecibles en su comportamiento. Una de las tantas preguntas que estimularon su trabajo científico fue la siguiente: "Porqué las tormentas y las lluvias parecen venir por casualidad, de manera que la gente ve muy natural rezar para que llueva o para que haya buen clima, mientras que considerarían ridículo rezar para que haya un eclipse?"

Los sistemas biológicos exhiben un comportamiento denominado "no lineal" tanto, frecuentemente resulta difícil predecir su comportamiento frente a un estímulo dado (Godberger A., Rigney D et al, 1991). Existen

muchos

modelos

matemáticos

que

sirven

para

describir

el

comportamiento de sistemas valiéndose de distintas ecuaciones. Sin embargo, muchos de estos modelos no se ajustan adecuadamente al comportamiento de los sistemas reales debido a que, como se mencionó, ellos tienen una dinámica no lineal. Para tratar de solucionar el problema de la modelación matemática de ésta dinámica, se han desarrollado técnicas alternativas entre la que se encuentra la "Teoría de Caos" y los "Fractales". TEORÍA DE CAOS Curso de Terapia Neural on line por Internet

www.salud-sin-dolor.com

Página 4 de 17

Un modelo que nació el siglo pasado, cuya adolescencia se dio con el advenimiento de los computadores, está hoy en día, en una etapa de madurez temprana la cual lo convierte en un método válido y promisorio para estudiar el comportamiento de los sistemas biológicos. Generalidades: Hasta hace no menos de 50 años, se pensaba que el comportamiento de la mayoría de sistemas era determinista, es decir, obedece a leyes determinadas, y por lo tanto puede ser predicho fácilmente (Solé R. And Manrubia S., 1993). Dicho concepto está fundamentado en el modelo de Homeostasis propuesto por Claude Bernard y desarrollado por Cannon. Se pensaba que los sistemas que no cumplen con este comportamiento son aleatorios, y por lo tanto eran gobernados por leyes probabilísticas y eran modelados por medio de métodos estadísticos. De otro lado, se pueden observar sistemas con un comportamiento global determinístico, y un comportamiento local impredecible. Por ejemplo: se sabe que la presión arterial de una persona normal en reposo se puede encontrar entre 60 y 100 latidos por minuto, pero es imposible saber con exactitud, cual será su frecuencia cardíaca un tiempo después de medir esta variable (Bassingthwaighte et al, 1994) (Goldberger A., 1996) Este tipo de comportamiento se observa en sistemas que tienen componentes físicos determinísticos, pero que se encuentran influidos por factores externos variables e impredecibles. Dicho comportamiento es aparentemente aleatorio; sin embargo, pueden ser modelados matemáticamente por ecuaciones que tienen un componente claramente determinístico, pero que involucran la incertidumbre como parte del sistema. Este tipo de comportamiento de apariencia desordenada, con un componente determinístico subyacente, se denomina comportamiento caótico.

Curso de Terapia Neural on line por Internet

www.salud-sin-dolor.com

Página 5 de 17

El caos no significa desorden absoluto, significa un comportamiento regido por factores determinísticos, pero con un nivel significativo de incertidumbre en la evolución de su comportamiento. La teoría matemática de caos pretende, entre otras cosas, dar herramientas cuantitativas para poder hacer un trabajo fundamentado en el método científico. Términos importantes en la teoría de Caos: •

Espacio de Fase: Es la representación gráfica del comportamiento de un sistema. Existen varias técnicas para elaborarlos. Una de ellas se logra, graficando las diferentes variables del sistema en un gráfico de coordenadas; otra es relacionando una función, contra la derivada de dicha función; también se puede representar una función, contra sí misma, introduciendo un desfase2-5 (Fig. 1)



Atractor: Es la figura que se genera en el espacio de fase (E. Mosekilde en al, 1991, A Goldberger 1996) cuando se grafica una variable contra sí misma introduciendo un retardo (desfase), con el fin de explorar la correlación de un dato con sus vecinos.

Existen varios tipos de atractor ( Piekowsky I., 1992): Atractor Puntual: Cuando las variables de un sistema tienden a un valor estable o al reposo, aparece un atractor que se circunscribe a un subespacio del espacio de fase. (Fig. 2) Atractor de Ciclo Límite: Este tipo de imagen se observa cuando se estudian sistemas con comportamiento cíclico completamente regular. Este atractor también se confina a un subespacio del espacio de fase, pero las trayectorias que describen las variables son siempre iguales, siendo predecible su comportamiento en el tiempo. (Fig. 3.) Atractor Toroidal: Cuando el sistema es cuasiperiódico genera un atractor similar al de ciclo límite, pero las trayectorias no siempre pasan por los mismos puntos, apreciándose así, el comportamiento no uniforme. (Fig. 4.) Atractor Extraño:

Es el atractor característico de los fenómenos de

comportamiento caótico. Características tiene formas muy variadas con Curso de Terapia Neural on line por Internet

www.salud-sin-dolor.com

Página 6 de 17

trayectorias impredecibles localmente, pero que se circunscribe en un mismo subespacio del espacio de fase, representándose así, la llamada estabilidad global con inestabilidad local mencionada anteriormente. (Fig. 5.) Fig. 1. Espacio de fase de un electrocardiograma.Se grafíca la señal electrocardiográfica (eje X), contra la misma señal desfasada (eje Y) Fig. 2. Atractor Puntual. Representa un péndulo que va disminuyendo su moviemiento con el tiempo debido al efecto de la gravedad. Las coordenadas representan la posición del péndulo. Fig. 3. Atractor de Ciclo Límite.Representación del comportamiento del pulmón en ventilación mecánica. Presión (eje X), contra el Volumen (eje Y). Se observa un comportamiento cíclico regular, produciendo una atractor confinado a un subespacio del espacio de fase. Fig. 4. Atractor Toroidal.Esquematiza el comportamiento de un sistema cuasiperiódico determinístico, en el cual las trayectorias son muy regulares pero se desplazan uniformemente dentro de un subespacio del espacio de fase. Fig. 5. Atractor Extraño.Este atractor corresponde al mismo sistema del pulmon (Fig. 4.), pero sin el control ejercido por el ventilador mecánico. Se aprecia que el comportamiento del sistema es caótico porque las variables (presión y volumen) tienen comportamientos diferentes en cada ciclo. A pesar de ello, el sistema tiene estabilidad global. Dimensión del Atractor: Es una cifra que permite cuantificar las características de un atractor, y que se calcula por diferentes métodos como la dimensión de correlación Interpretación de la dimensión del atractor: Curso de Terapia Neural on line por Internet

www.salud-sin-dolor.com

Página 7 de 17

Esta medida permite establecer el número de variables independientes que determinan el comportamiento del sistema. Además, la dimensión fractal es un reflejo de la complejidad del sistema, permitiendo

así,

determinar

de

manera

cuantitativa

los

cambios

de

comportamiento del sistema (Hoyer D. Et al, 1997). FRACTALES Según B. Mandelbrot, denomina fractal a aquel objeto o estructura que consta de fragmentos de orientación y tamaño variable pero de aspecto similar (Grassberger and Procaccia, 1983, Goldberger, 1991). Esta característica le confiere propiedades geométricas especiales en cuanto a su longitud, y la relación entre el área de superficie y su volumen. Estas propiedades especiales hacen que se requieran otras herramientas matemáticas diferentes a las convencionales para cuantificar sus características. En el cuerpo humano existen muchas estructuras con geometría fractal, como son la red vascular, el árbol bronquial, la red de neuronas, la mucosa intestinal, la disposición de las glándulas, etc. (Bassingthwaighte et al, 1994) La importancia de la geometría fractal en el organismo es que permite optimizar la función de los sistemas ya que tienen una gran superficie sin ser órganos voluminosos. Así como existen estructuras con geometría fractal, existen fenómenos con características fractales, ya que poseen patrones de comportamiento que se repiten en diferentes escalas de tiempo. Estos fenómenos pueden ser caracterizados con el uso de las herramientas matemáticas de la geometría fractal. La teoría fractal es por lo tanto, una herramienta válida y útil para el estudio de fenómenos dinámicos en el cuerpo humano, y permite una aproximación más

Curso de Terapia Neural on line por Internet

www.salud-sin-dolor.com

Página 8 de 17

acorde con la complejidad y la no linealidad de dichos procesos. (H. P. Koch, 1993) Dimensión Fractal: Por medio de este índice matemático, se pueden cuantificar las características de los objetos o fenómenos fractales. Hay varios métodos para calcular la dimensión fractal como el exponente de Hurst (R. Solé and S. Manrubia, 1993, Bassingthwaighte et al., 1994) Interpretación de la Dimensión Fractal: El término "dimensión", en geometría, se refiere generalmente a la dimensión euclidiana clásica en la que una dimensión es una línea, dos dimensiones conforman un plano y tres dimensiones un volumen. Desde este punto de vista un objeto cualquiera tendría 3 dimensiones. Sin embargo, una línea irregular tiende a llenar un espacio bidimensional, y un plano que se pliega, tiende a llenar un espacio tridimensional. Es así como muchas cosas en la naturaleza (como las estructuras porosas, superficies rugosas, etc.) tienen éstas características, por lo que geométricamente, podría tener entre 2 y 3 dimensiones (H.P. Koch, 1993). De esta manera, la dimensión fractal es un índice que permite cuantificar mejor las características geométricas de los objetos que tienen geometría fractal (P.Grassberger, 1983) Los fenómenos con comportamiento fractal se pueden representar por medio de gráficos de líneas; a estos gráficos se les puede medir la dimensión fractal, logrando así cuantificar la complejidad de su dinámica. (R. Eberhart, 1969) INTELIGENCIA ARTIFICIAL La inteligencia artificial se ocupa de como lograr que las máquinas realicen tareas que, por el momento, son realizadas mejor por los seres humanos. Entre dichas tareas se encuentra la de categorización, predicción, análisis no lineal, identificación

de

sistemas

complejos

y

reconocimiento

de

patrones

Lippmann, 1987)

Curso de Terapia Neural on line por Internet

www.salud-sin-dolor.com

Página 9 de 17

(R.

REDES NEURONALES ARTIFICIALES GENERALIDADES Las redes neuronales artificiales (RNA), son una de las estrategias mejor estudiadas para enfrentar problemas de inteligencia artificial. Desde McCulloch y Pitts (1.943) se empezó a trabajar en una sólida teoría matemática de las redes neuronales artificiales. A dichos trabajos se sumaron los de Ashby (1.952), Minsky (1.954), Selfride (1.961) y Rosenblatt (1.962). Tales trabajos se vieron limitados por las herramientas computacionales del momento (T. Pggio y F. Girosi, 1990) Ellas simulan los sistemas biológicos de una manera sorprendente. Las ideas que han surgido de estudio de las neurofisiología y el comportamiento han llegado a ser realizables en los últimos años. El advenimiento de los modernos computadores capaces de ejecutar en forma rápida y masiva procesos distribuidos y en paralelo ha dado origen a ideas en diferentes campos de prueba. Las RNA, simuladas en software y/o hardware, proveen una herramienta de modelado robusta y adaptable, útil para los simuladores en todas las disciplinas, al punto de disponer comercialmente de software inteligente, de chips programados con redes neuronales y aún computadores de procesamiento paralelo (G. Carpenter y S. Grossberg,1987) Una RNA es una moderna técnica de simulación que incorpora ideas de muchos campos y las capitaliza con el procesamiento en paralelo y las capacidades microelectrónicas. No están confinadas al campo del software o hardware exótico. El tamaño de una RNA tiene un gran impacto sobre su funcionamiento, capacidades y aplicaciones. Pueden ser categorizadas como pequeñas medianas o grandes y como software, hardware o modelos combinados. DESCRIPCIÓN DE UNA RNA:

Curso de Terapia Neural on line por Internet

www.salud-sin-dolor.com

Página 10 de 17

Es una imitación en computador (software o hardware) de una red de neuronas biológicas. Una neurona está compuesta por un cuerpo (para procesamiento), axones (para transmisión) y dendritas (para recepción). Las neuronas se interconectan de manera que la información va de una a otra en cadena a través de sus uniones (sinapsis), de tal manera que pueden transmitir información de una capa a otra. El modelo matemático simula igualmente las mismas estructuras neuronales de procesamiento, con uniones de transmisión y recepción de datos. Cada neurona recibe información (entradas procedentes del exterior o de otras neuronas), procesa dicha información y luego produce una salida que puede ser transmitida a otras neuronas o al exterior. Las neuronas artificiales se disponen en capas que conforman una red, donde la primera capa es para la entrada de datos del exterior, las capas intermedias son para el procesamiento de la información (reciben datos de múltiples neuronas) y la última capa es para la salida de los datos procesados por la red. (S. Grossberg ,1998)

PROPIEDADES DE LAS REDES NEURONALES (D. Hammerstrom, 1993) Las RNA aprenden similaridades entre patrones directamente de modelos de ellos. Infieren soluciones desde los datos sin conocimiento previo de las regularidades entre los datos extrayendo las regularidades empíricamente. Este es un aspecto distintivo en muchas aplicaciones ya que no trabajan con programación convencional. Mientras más se conozca el problema mejor es el diseño. Las RNA son entrenadas y no programadas lo que las diferencia del software. Pueden generalizar, es decir, responder correctamente a patrones que son solo similares a los patrones de entrenamiento original. La generalización es útil ya

Curso de Terapia Neural on line por Internet

www.salud-sin-dolor.com

Página 11 de 17

que los datos del mundo real son ruidosos, distorsionados y a menudo incompletos. No lineales, es decir, pueden resolver algunos problemas complejos mejor de lo que lo hacen las técnicas lineales. El comportamiento no lineal es común pero matemáticamente difícil de manejar. Como característica importante, las RNA son altamente paralelas. Contienen muchas

operaciones

que

son

idénticas

independientes

que

pueden

ser

ejecutadas simultáneamente. Esto es útil ya que el hardware paralelo puede correr RNA muy rápido, haciéndolo en ocasiones más rápido que los métodos alternativos. APRENDIZAJE DE LA RNA La manera como aprenden las RNA depende en gran medida del diseño de su estructura;

sin

aprendizaje

embargo,

denominados:

en

términos

"aprendizaje

generales,

existen

supervisado"

y

dos

tipos

de

"aprendizaje

no

supervisado". En ambos casos, el aprendizaje se realiza por medio de iteraciones, en las cuales la RNA genera una función matemática que indica el nivel de error. Las uniones entre las neuronas tienen asignado un valor que indica la importancia de esa unión para la activación de la siguiente neurona. En cada iteración, la RNA cambia los valores de los pesos con el fin de ir disminuyendo el error hasta que alcanza un nivel mínimo. En ese momento, se considera que la RNA está entrenada. RNA TIPO BACK-PROPAGATION (BP) Este es el uno de los tipos de RNA mas utilizado en aplicaciones médicas, debido a que utiliza aprendizaje supervisado. Las neuronas de las capas intermedia y de salida procesan los datos en dos pasos. (I. Solheim, T. Payne, R. Castain, 1992)

Curso de Terapia Neural on line por Internet

www.salud-sin-dolor.com

Página 12 de 17

Multiplican cada entrada por su peso, adicionan el producto a la corrida total y pasan la suma a través de una función para producir sus resultados. La función de transferencia generalmente es sigmoidea. Las atenuaciones en los límites superior e inferior de la "S" restringen la suma dentro de límites fijos. La función de transferencia introduce una no linealidad que amplia la capacidad de la RNA de modelar funciones complejas. La clave de los algoritmos de aprendizaje de BP es su capacidad de cambiar los pesos en respuesta a errores. Para que sea posible calcular los errores los datos de entrenamiento contienen una serie de patrones de entrada que representan las salidas objetivo. Durante el entrenamiento una RNA pasa cada valor de entrada a través de la capa intermedia (llamada también oculta), para generar un resultado en cada capa de salida, posteriormente resta el resultado actual del resultado objetivo para encontrar los errores en la capa de salida. En un paso siguiente, la RNA devuelve los resultados de los errores de la salida a la capa oculta usando los pesos de las conexiones originales. De esta característica se deriva su nombre. Cada nodo oculto calcula la suma ponderada de los errores retropropagados para encontrar su contribución indirecta a los errores de salida conocidos. Después de que cada nodo oculto y de salida hallan su valor de error, ajustan su peso para reducir el error. La ecuación que cambia los pesos está diseñada para minimizar la suma de los errores cuadrados de la red. Esta minimización tiene un significado geométrico intuitivo. Todos los set posibles de pesos deben ser graficados contra la suma de los errores cuadráticos correspondientes. El resultado es una superficie en forma de tazón cuyo fondo marca el set de pesos con el error cuadrático más pequeño posible. Encontrar el mejor set de pesos es la meta del entrenamiento. Las BP logran el objetivo descrito en el párrafo anterior calculando la pendiente instantánea de la superficie del error con respecto a los pesos actuales. La forma como se realizan los cambios en los pesos se conoce como gradiente descendente, este mejora la exactitud de la RNA como resultado de las conexiones agregadas durante el entrenamiento, de esta manera BP es u Curso de Terapia Neural on line por Internet

www.salud-sin-dolor.com

Página 13 de 17

procedimiento poderoso para encontrar los pesos que minimizan el error cuadrático.

APLICACIONES DE LAS RNA EN MEDICINA Los usos que se le han dado a las redes neuronales son , entre otras el diagnóstico y la clasificación de enfermedades diversas patologías (B. Zheng, W. Qiann, L. Clarke, 1994) (G. Avanzolini, P. Barbini, G. Gnudi, 1990) (S. Farrugia, H. Yee, F. Nickolls, 1992), aunque algunos autores han presentado técnicas novedosas que ayudan a determinar cuales variables tienen una relación mayor con el tipo de trastorno y la evolución del paciente. También han sido utilizadas para mejorar la sensibilidad de las alarmas de los monitores (Cj. Morgan, J. Takala, D. De Backer, T. Sukuvaara, A. Dari, 1996) Otras redes utilizadas en medicina son los "Mapas Autoorganizantes" tipo Kohonen (T. Kohonen, 1989) y las redes tipo back-propagation. Los mapas autoorganizantes tienen el potencial de modelar y analizar datos complejos experimentales como estados de procesos incluso con relaciones no lineales entre variables. Usan un método de proyección no lineal de entradas que se representan en espacios de varias dimensionales a un espacio bajo dimensional (usualmente 2D). Los pesos después del entrenamiento indican como los datos están representados en una "forma espacial" que en este caso, puede dar información sobre la importancia relativa de las variables para la detección de la enfermedad. (M. Van Gils, H. Jansen, K. Nieminen, R. Summers, PR. Weller, 1997) Las tipo back-propagation son mas apropiadas para clasificación, usan un entrenamiento supervisado. De esta manera minimizan el error comparando la salida de la red con la salida real.

BIBLIOGRAFIA

Curso de Terapia Neural on line por Internet

www.salud-sin-dolor.com

Página 14 de 17

J. Bassingthwaighte, L Liebovitch and B. West , "Fractal Physiology", American Physiological Society, 1994. R. Eberhart, "Theory for the Biomedical Engineer", IEEE Engineering in Medicne and Biology Magazine; September 1969:41-45. J.A. Feldman and D.H. Ballard, "Connectionist Models and Their Properties", Cognitive Science, Vol. 6, 205-254, 1982 A. Goldberger, D. Ringey and B. West, "Caos y fractales en la fisiología humana. Scientific American, Primera edición, 109-116, 1991. A. Goldberger, "Non-linear Dynamics for Clinicians. Chaos Theory, Fractals and Compexity at the Bedside", Lancet, 347; 1312:1314. 1996. P. Grassberger and I. Procaccia, "Characterization of Strange Atractors", Phys. Tev. Lett. 50; 346:349, 1983. S. Grossberg, The Adaptative Brain I: Cognition, Learning, Reinforcement, and Rhythm, and The Adaptative Brain II: Vision, Speech, Language, and Motor Control, Elsevier/North-Holland, Amsterdam (1986). D.O. Hebb, The organization of Behavior, John Wiley & Sons, New York (1949). J.J. Hopfield, "Neural Networks and Physical Systems with Emergent Collective Computational Abilities", Proc. Natl. Acad. Sci. USA, Vol. 79, 2554-2558, Abril 1982 J.J. Hopfield, "Neurons With Graded Response Hve Collective Computational Properties Like Those of Two State Neurons", Proc. Natl. Acad Sci. USA, Vol 81, 3088-2092, 1984 J.J. Hopfield, and D. W. Tank, "Computeing with Neural Circuits" A Model, "Science, Vol. 233, 625-633, Agosto 1986. D. Hoyer and R. Schmidt, "Nonlinear Analysis of Heart Rate And Respiratory Dynamics". IEEE Engineering in Medicine and Biology, January/February 1997; 31:39. H. P. Koch, "The Concept of Fractals and the Pharmaceutical Sciences", Pharmazie; 48:643-655, 1993. E. Mosekilde and L. Mosekilde, "Complexity, Chaos and Biological Evolution". NATO Sientific Affairs Division, Plenum Press, New York, 1991. J.R. Newman, "El Mundo de las Matemáticas", Ed. Grijalbo, S.A.. 1994. Curso de Terapia Neural on line por Internet

www.salud-sin-dolor.com

Página 15 de 17

W.S. McCulloch, and W. Pitts, "A Logical Calculus of the Ideas Imminent in Nervous Activity", Bulletin of Mathematicla Biophysisc, 5, 115-133, 1943. I. Piekowsky, "Juega Dios a los Dados?", Mundo Libro. Borja, 1992. T.E. Posch, "Models of the Generation and Processing of Signals by Nerve Cells: A categorically Indexed Abridged Bibliography", in Proc. IoA Autumn Conf. On Speech and Hearing, 1986. R. Rosenblatt, Principles of Neurodynamics, New York, Spartan Books (1959) D.E.

Rumelhart,

G.E.

Hinton,

and

R.J.

Williams,

"Learning

Internal

Representations by Error Propagation" in D.E. Rumelhart & J.L. McClelland (Eds.), Parallel. Distribuited Processing: Explorations y de medconstructure of Cognition. Vol. 1: Foundation. MIT Press (1986). T. Sejnowski and C.T. Tosnegerg, "NETtalk: A parallel Network That learns to Read Aloud", Johns Hplkins Univ.echnical Report JHY/EECS-86/01, 1986. R. Solé y S. Manrubia, "Orden y Caos en Sistemas Complejos", Edicions UPC, España, 1993. B. Widrow, and M.e. Hoff, "Adaptative Switching Circuits", 1960 IRE WECON Conv. Record, Part 4, 96-104, Agosto 1960. Ref-Autores:

* Médico, Ingeniero Biomédico. Profesor de fisiología de la Universidad de Antioquia y de la Universidad Pontificia Bolivariana. Cotutor de la maestría en biofísica de la Corporación de Ciencias Básicas Biomédicas U. de A. Profesor del postgrado de Ingeniería Biomédica U.P.B. Investigador del Laboratorio de Investigaciones Biológicas de la Facultad de Medicina U.P.B. Grupo de Bioseñales e Inteligencia Artificial U. de A. – U.P.B.

** Médico, Ingeniero Biomédico.

Curso de Terapia Neural on line por Internet

www.salud-sin-dolor.com

Página 16 de 17

Profesor de fisiología de la Universidad de Antioquia y de la Universidad Pontificia Bolivariana. Profesor del postgrado de Ingeniería Biomédica U.P.B. Investigador del Laboratorio de Investigaciones Biológicas de la Facultad de Medicina U.P.B. Grupo de Bioseñales e Inteligencia Artificial U. de A. – U.P.B.

Curso de Terapia Neural on line por Internet

www.salud-sin-dolor.com

Página 17 de 17