MARCO TEÓRICO

Inteligencia artificial

Es un concepto que indicaría la capacidad de un artefacto de realizar los mismos tipos de funciones que caracterizan al pensamiento humano. La posibilidad de desarrollar un artefacto así ha despertado la curiosidad del ser humano desde la antigüedad. Con el avance de la ciencia moderna la búsqueda de la Inteligencia Artificial ha tomado dos caminos fundamentales: la investigación psicológica y fisiológica de la naturaleza del pensamiento humano, y el desarrollo tecnológico de sistemas informáticos cada vez más complejos.

 En este sentido, el término Inteligencia Artificial se ha aplicado a sistemas y programas informáticos capaces de realizar tareas complejas, simulando el funcionamiento del pensamiento humano, aunque todavía muy lejos de éste. En esta esfera los campos de investigación más importantes son el procesamiento de la información, el reconocimiento de modelos, los juegos y las áreas aplicadas como el diagnóstico médico. Algunas áreas de la investigación actual del procesamiento de la información están centradas en programas que permiten a un ordenador o computadora comprender la información escrita o hablada, y generar resúmenes, responder a preguntas específicas o redistribuir datos a los usuarios interesados en determinados sectores de esta información. En esos programas es esencial la capacidad del sistema de generar frases gramaticalmente correctas y de establecer vínculos entre palabras e ideas. La investigación ha demostrado que mientras que la lógica de la estructura del lenguaje, su sintaxis, está relacionada con la programación, el problema del significado, o semántica, es mucho más profundo, y va en la dirección de una auténtica inteligencia artificial.

Actualmente existen dos tendencias en cuanto al desarrollo de sistemas de Inteligencia Artificial: los sistemas expertos y las redes neuronales. Los sistemas expertos intentan reproducir el razonamiento humano de forma simbólica. Las redes neuronales lo hacen desde una perspectiva más biológica (recrean la estructura de un cerebro humano mediante algoritmos genéticos). Los sistemas expertos trabajan con Inteligencia Artificial simbólica, es decir, a nivel de símbolos; como pueden ser ideas, imágenes, conceptos, etc. aunque debido a su naturaleza algorítmica se usen internamente estructuras de datos e instrucciones. Las redes neuronales artificiales no son más que pequeños procesadores conectados densamente en red, cada uno con funciones específicas, este sistema se basa en el funcionamiento del cerebro humano. A pesar de la complejidad de ambos sistemas los resultados distan mucho de un auténtico pensamiento inteligente.

El éxito de los sistemas expertos radica fundamentalmente en el conocimiento sobre el dominio que trata y su capacidad de aprendizaje. El conocimiento sobre el dominio proporcionan al sistema experto mayor información sobre el problema a tratar y su entorno, de forma que pueda generar y adaptar soluciones de forma más precisa, al tener un conocimiento más profundo sobre el tema, de forma igual a un experto especializado. El aprendizaje, inductivo o deductivo, según corresponda, proporcionará al sistema experto mayor autonomía a la hora de abordar problemas totalmente desconocidos; pudiendo generar nuevo conocimiento partiendo del extraído inicialmente del experto o expertos humanos.

Muchos científicos se muestran escépticos acerca de la posibilidad de que alguna vez pueda desarrollarse una verdadera Inteligencia Artificial. El funcionamiento de la mente humana todavía no ha llegado a conocerse en profundidad y, en consecuencia, el diseño informático seguirá siendo esencialmente incapaz de reproducir esos procesos desconocidos y complejos.

Los objetivos de la Inteligencia Artificial son imitar por medio de máquinas, normalmente electrónicas, tantas actividades mentales como sea posible, y quizás, llegar a mejorar las que llevan a cabo los seres humanos.

El interés por los resultados de la Inteligencia Artificial procede al menos de cuatro direcciones. Está el estudio de la robótica, interesada en la aplicación industrial de los dispositivos mecánicos que pueden realizar tareas “inteligentes” –tareas de una variedad y complejidad que habían exigido anteriormente la intervención humana- y realizarlas con una velocidad y fiabilidad por encima de la de cualquier humano, o bien, en condiciones tales en las que la vida correría peligro. Tambien es de interés comercial el desarrollo de los sistemas expertos, con los que se intenta codificar el conocimiento esencial de toda una profesión en un paquete de ordenador.

Otra área en la que la Inteligencia Artificial podría tener importancia directa es la psicología: tratando de imitar el comportamiento de un cerebro humano (o el de algún otro animal) mediante un dispositivo electrónico, se podrían aprender cosas importantes sobre el funcionamiento cerebral. Finalmente, se cree que la Inteligencia Artificial podría decir algo sobre cuestiones filosóficas, además de proporcionar algunos elementos nuevos del concepto mente.     

Los sistemas computacionales inteligentes deberían tener las siguientes capacidades:

  • Comprender el lenguaje natural
  • Realizar tareas físicas coordinadas (robótica)
  • Percibir el medio ambiente en que se encuentran
  • Emular conocimientos y la toma de decisiones humana (Sistemas expertos)
  • Poseer máquinas (HW) inteligentes

Historia 

La Inteligencia Artificial es una de las disciplinas más nuevas. Formalmente se inicia en 1956 cuando se acuñó este término, sin embargo el estudio de la inteligencia contemplada como el razonamiento humano viene siendo estudiado por los filósofos hace más de 2 milenios. 

La Inteligencia Artificial “nació” en 1943 cuando Warren McCulloch y Walter Pitts propusieron un modelo de neurona del cerebro humano y animal, las cuales proporcionaron una representación simbólica de la actividad cerebral.

Tiempo después Norbert Wiener elaboró estas ideas junto con otras que se llamó cibernética, de la cual nacería años más tarde la Inteligencia Artificial.  

Esta ciencia del saber humano surge en una reunión realizada en el Dartmouth College (Hanover, EEUU) en 1956. Lo sorprendente es que en aquel entonces se planteó la posibilidad de construir máquinas inteligentes, ya que por estos años la informática apenas se había desarrollado y ya se planteaba la posibilidad de diseñar mecanismos inteligentes. El origen inmediato del concepto y de los criterios de desarrollo de la "Inteligencia Artificial" se remonta a la intuición del genio matemático inglés Alan Turing, quien desarrolló el procedimiento para identificar la existencia de inteligencia en una máquina, y el apelativo "Inteligencia Artificial" se debe a  John McCarthy, quien estudiaba sistemas capaces de efectuar razonamientos de sentido común. En aquella reunión se encontraban, además, Claude Shannon, padre de la Teoría de la Información; Marvin Minsky, que años más tarde demostraría algunas limitaciones de ciertos modelos de redes neuronales; Herbert Simon, quien desarrolló el primer programa de Inteligencia Artificial.   

En dicho Congreso se llegó a la definición de las presuposiciones básicas del núcleo teórico de la Inteligencia Artificial: 

ü      El reconocimiento de que el pensamiento puede ocurrir fuera del cerebro, es decir, en máquinas.

ü      La presuposición de que el pensamiento puede ser comprendido de manera formal y científica.

ü      La presuposición de que la mejor forma de entenderlo es a través de computadoras digitales. 

Fue en los años 60 cuando Alan Newell y Herbert Simon, que trabajando la demostración de teoremas y el ajedrez por ordenador logran crear un programa llamado GPS (General Problem Solver: solucionador general de problemas). Este era un sistema en el que el usuario definía un entorno en función de una serie de objetos y los operadores que se podían aplicar sobre ellos. Lo que no podía hacer el GPS era resolver problemas ni del mundo real, ni médicos ni tomar decisiones importantes. El GPS manejaba reglas heurísticas (aprender a partir de sus propios descubrimientos) que la conducían hasta el destino deseado mediante el método del ensayo y el error. 

En los años 70, un equipo de investigadores dirigido por Edward Feigenbaum comenzó a elaborar un proyecto para resolver problemas de la vida cotidiana o que se centrara, al menos, en problemas más concretos. Así es como nació el sistema experto.

El primer sistema experto fue el denominado Dendral, un intérprete de espectrograma de masa construido en 1967, pero el más influyente resultaría ser el Mycin de 1974. El Mycin era capaz de diagnosticar trastornos en la sangre y recetar la correspondiente medicación, todo un logro en aquella época que incluso fueron utilizados en hospitales (como el Puff, variante de Mycin de uso común en el Pacific Medical Center de San Francisco, EEUU) 

Ya en los años 80, se desarrollaron lenguajes especiales para utilizar con la Inteligencia Artificial, tales como el LISP o el PROLOG. Es en esta época cuando se desarrollan sistemas expertos más refinados, como por ejemplo el EURISKO. Este programa perfecciona su propio cuerpo de reglas heurísticas automáticamente, por inducción. 

Uno de los primeros dispositivos Inteligencia Artificial fue la “tortuga” de W. Grey Walter, construida a comienzos de los años cincuenta, que se movía por el suelo hasta que sus baterías estaban bajas, entonces iba al enchufe más próximo, se conectaba y recargaba sus baterías. Una vez reestablecida, se desconectaba por sí misma.

El programa de ordenador de K. M. Colby, desarrollado a mediados de los sesenta, simula a un psicoterapeuta con tanto éxito que algunos pacientes descubren que prefieren a la computadora antes que a un terapeuta humano, ya que son más sinceros de lo que serían con su homólogo humano.  

Otro programa de computadora de Terry Winograd, diseñado en 1972, puede conversar (hablando y escuchando) sobre lo que hace con una colección de bloques de varias formas y colores, que por medio de simulación, coloca unos sobre otros en diferentes órdenes y disposiciones.

Las computadoras que juegan ajedrez utilizan lo que podría considerarse como “conducta inteligente”. El programa de computadora llamado Deep Thought, programado fundamentalmente por Hsiung Hsu, de la Universidad de Carnegie Mellon, logró la notable proeza de compartir el primer puesto con el Gran Maestro Tony Miles en un torneo de ajedrez realizado en Longbeach, California, en noviembre de 1988, derrotando por primera vez al Gran Maestro Bent Larsen. Tiempo después, fue capaz de ganarle al Campeón Mundial Kasparov. Deep Thought era capaz de analizar 200 millones de posiciones de ajedrez cada segundo.  

La historia de la Inteligencia Artificial ha sido testigo de ciclos de éxito, injustificado optimismo y la consecuente desaparición de entusiasmo y apoyos financieros. También ha habido ciclos caracterizados por la introducción de nuevos y creativos enfoques y de un sistemático perfeccionamiento de los mejores.

Origen y enfoque de la Inteligencia Artificial en la Medicina

Una discusión que se ha presentado desde sus inicios hasta el día de hoy es sobre el origen de la Inteligencia Artificial en la Medicina: algunos dicen que se originó en las ciencias de  la computación pero otros sostienen que es una nueva ciencia experimental. Señalan que su origen está en las ciencias de la computación por que los primeros laboratorios de investigación estaban en MIT, Rutgers, Stanford y la Universidad de Pittsburg; los métodos utilizados, la terminología y el ambiente en el que se desarrollo eran puramente informáticos, aunque siempre se contó con la presencia y participación de los médicos y miembros de esa rama de la ciencia.

Desde sus primeros días la Inteligencia Artificial en la Medicina se ha fundamentado en los problemas observados en la  Biomedicina, pero sus verdaderos problemas eran a nivel de representación de la información, adquisición y manejo de la misma.

“Los investigadores de Inteligencia Artificial en Medicina están tratando de desarrollar herramientas para mejorar la efectividad en la toma de decisiones clínicas, no para reemplazar a los médicos u ofrecer concejos dogmáticos (médicos)”

Pasado de la Inteligencia Artificial en la medicina

En los  años 50 se dio inicio al uso de las computadoras en la Bioingeniería. Las primeras aplicaciones que se desarrollaron eran cuestionarios automatizados para los pacientes.  

En un artículo publicado por Ledley y Lusted en 1959 decían que el razonamiento médico contenía estrategias de inferencia entre las que se encontraba la lógica booleana, inferencias simbólicas y probabilidades bayesianas. Colocando como ejemplo particular el hecho de que el razonamiento para hacer un diagnóstico médico contenía las tres técnicas. La esperanza que surgió para muchos cuando se iniciaron estas investigaciones era que iban a obtener “Médicos perfectos en una caja” mas no iban a poder reemplazar al médico humano, pero lo que menos esperaban era que el camino a recorrer para lograrlo fuera tan largo y con obstáculos que ya se habían pasado o se estaban pasando en otras áreas de la Informática. 

Una de esas primeras aplicaciones fue Eliza que fue desarrollada en los años 60 en los laboratorios de MIT por el profesor Joseph Weizenbaum. Eliza, que simulaba el comportamiento de un médico Psicoanalista, fue la primera aplicación psiquiátrica. Lo que hacia era repetirle al paciente sus respuestas en forma de pregunta cambiando ciertas palabras o frases. Funcionaba por medio de reconocimiento de patrones y reemplazo de palabras claves por frases diseñadas.  

Otros sistemas desarrollados en lo que se consideraría la primera generación de Sistemas de Inteligencia Artificial en la Medicina y que se considera como la mejor o al menos la pionera en su genero es Internist que era una base de conocimiento y un programa de inferencia, cuyo objetivo era el diagnóstico en el área de medicina interna. Fue desarrollado en la Universidad de Pittsburg como una colaboración entre el Dr. Jack Myers (médico) y el Profesor Harry Pople (Ciencias de la Computación); junto con ellos trabajo el Dr. Randy Miller a través de los años 70 y luego se convirtió en el líder del proyecto en los 80. Su método de razonamiento es de planteamiento de Hipótesis. Internist fue desarrollado en LISP, fue utilizado como plataforma para desarrollar métodos y extensas bases de conocimiento clínico. Internist dependía de una gran base de conocimiento que fue transferida a un sistema de información llamado QMR (Quick Medical Reference). La base de conocimiento de Internist/QMR asociaba enfermedades con síntomas usando dos números: una frecuencia de asociación y una fuerza de reaparición (evocación). Al comparar el desempeño de Internist/QMR con los de un médico y un experto o más bien comparar la cantidad de errores de diagnóstico de Internist con respecto a los otros, los resultados no estaban muy distantes; en ese estudio se observo que Internist cometió 29 errores de diagnóstico, el médico 28 y el experto 21. A pesar de ser un resultado muy positivo para los investigadores, al sistema se le hicieron varias observaciones como el hecho de que no tenía un modelo de probabilidad definido y no hacía diferenciaciones anatómicas ni temporales.

Uno de los pioneros en el desarrollo de la Inteligencia Artificial en la Medicina es Shortliffe quien en 1983 dijo: “la informática médica cubre más que aplicaciones de computadores para la medicina”. Shortliffe era miembro de la Universidad de Stanford donde tenia un grupo de Investigación en el tema, grupo que desarrollo Mycin y Oncocin.  En el desarrollo de Mycin también participó Buchanan como uno de los investigadores principales junto con Shortliffe. El método de razonamiento de Mycin es de encadenamiento hacia atrás, es decir, dirigido hacia un objetivo.

Estos primeros sistemas fueron conocidos como diagnosticadores. Al evaluar estos sistemas su desempeño fue muy similar al de un médico humano. Aunque ahora el problema era uno que los Sistemas de Información Tradicionales habían afrontado en  sus primeros días: “La apatía de los usuarios al sistema”. Los usuarios finales de estos sistemas expertos por lo general eran enfermeras o médicos que obtenían la información de los pacientes; para esa época la información no estaba disponible en formato digital, por lo que era mucho lo que había que pasar a formato digital, además de que consistían en una serie de preguntas que resultaban engorrosas ya que su respuesta estaba ya en papel. Otro problema era la interfaz, la cual era puramente texto. Por estos problemas y otros que se observaron a través de los años se volvieron importantes las formas de representación del conocimiento, la adquisición automática de la información, la formación de bases de datos (de hechos) y se vio la necesidad de una terminología estándar (en la cual ya se venía trabajando).

Muchos de estos sistemas por ser de los primeros no llegaron a ser usados mas allá de los laboratorios de desarrollo o como herramientas de estudio; un ejemplo es DXPlain que fue desarrollado en el Hospital General de Massachussets alrededor de 1987 por el Dr. Barnett, usado para asistir en el proceso de diagnóstico, tomando información clínica como signos vitales, resultados de laboratorio y síntomas para generar un listado de diagnósticos ordenados por mayor similitud. Suministraba justificación para cada uno de los diagnósticos. Este sistema contenía una gran base de información médica de enfermedades y síntomas. En la actualidad es usada en varios hospitales y escuelas médicas con propósitos puramente educativos, es decir, como un texto guía electrónico. 

Panorama actual 

En años anteriores el desarrollo de Sistemas Inteligentes para la Medicina estaba muy centrado en aplicaciones para diagnóstico de enfermedades y un primer inicio al reconocimiento de imágenes médicas, como imágenes de rayos-x entre otros. Uno de esos sistemas desarrollado en los años 90 es Perfex, para la interpretación del espectro cardíaco; el sistema en si infiere la extensión y severidad de la enfermedad de la arteria coronaria, y fue diseñado en el Instituto Tecnológico de Georgia. Estos primeros sistemas de reconocimiento de imágenes aun eran muy dependientes del ojo humano, aun necesitaban que un observador mostrara un posible problema. A pesar de ser uno de los primeros se ha seguido usando, claro que con mejorías.

En los procesos de desarrollo en la actualidad  se le están dando una mayor importancia a las siguientes áreas de la Inteligencia Artificial en la medicina, aunque no se han descuidado los diagnosticadores porque se les considera una gran fuente de información y de seguimiento de historiales médicos:

Ø       Telemedicina: Como dar cuidado médico a distancia utilizando multimedia.

Ø       Medicina de Cuidados Intensivos: Con énfasis en razonamiento con información limitada. Más que todo sistemas de monitoreo.

Ø       Pruebas Clínicas: Métodos para reconocer automáticamente que un paciente es elegible para pruebas clínicas y enlistarlo.

Estos tres siendo los principales sistemas en los que se enfoca para desarrollar, aunque no se dejan atrás procesos o problemas dentro del que hacer diario en una clínica como lo es el monitoreo constante de pacientes, los cuales consisten en sistemas que realizan un monitoreo en tiempo real de los signos vitales del paciente -señales para  las cuales fue diseñado-, reconocer cuando se presentan cambios muy abruptos de esos niveles o cuando sobrepasan los niveles que para el paciente se considerarían normal, y mandan una señal de alerta a la estación central de enfermeras o una alerta directa al médico. Otros sistemas que se están desarrollando son para planear y analizar terapias, estos se basan en el historial del paciente y el tratamiento diseñado buscando inconsistencias, errores u omisiones comparándolo con su base de conocimiento, emitiendo correcciones al tratamiento en cuestión; también están capacitados para diseñar tratamiento para un paciente basándose en su condición y siguiendo ciertos lineamientos que tiene preestablecidos.

Pero hoy por hoy se ha visto un gran avance en los sistemas de reconocimiento e interpretación de imágenes, como los rayos-x, angiogramas, etc. Estos sistemas lo que hacen es un análisis de las imágenes comparándolo con información que se consideraría normal para una imagen de ese tipo, al detectar una anormalidad lo señalan en el reporte para darle una ventaja al médico de enfocarse en ese punto y no pasarlo por alto, ya que podría ser una anormalidad mínima y poco notable a simple vista.

En la actualidad el desarrollo de todos estos sistemas se encuentra en manos de un gran número de investigadores entre los que aun se encuentran las universidades donde se dieron los primeros sistemas como lo son MIT, Stanford, Rutgers y Pittsburg. Pero de igual forma hay organizaciones, compañías privadas, clínicas y centros de investigación (en conjunto) que también se encuentran investigando en esta área.

A continuación se presenta una tabla con una lista de algunas aplicaciones que se han venido desarrollando a través de los años, qué tipo de sistemas son (de diagnostico, monitoreo, etc.), una breve descripción, la fecha en la que fue creada o se hizo la ultima versión y el país donde fue creado.

Nombre del Sistema

Tipo

Descripción

Fecha  y Lugar

Automedon

Administrador de ventilación

Sistema basado en conocimiento para la administración de ventilación mecánica en la Unidad de Cuidados Intensivos.

2001

Francia

VIE-PNN

Nutrición Neonatal

Sistema experto para la nutrición de neonatos en cuidados intensivos.

1993

Austria

ATENÍA

Administración de la hipertensión en cuidados primarios

Control de la hipertensión en cuidados primarios siguiendo lineamientos médicos y dando recomendaciones de cuidado y medicación.

2002

CA – EEUU

CEMS

Sistema de soporte de decisión de  Salud Mental

Puede ser consultado sobre diagnostico y tratamiento de pacientes y monitorea y da alertas sobre los métodos y los resultados

1993

EEUU

ERA

Sistema de soporte de decisiones y referencias de cáncer

Sistema de soporte de toma de decisiones interactivas en la identificación de pacientes con sospechas de cáncer.

2001

Reino Unido

LISA

Soporte a la toma de decisiones para niños con leucemia linfoblástica

De uso durante los periodos para la toma de decisiones sobre medicaciones, y almacenamiento y seguimiento del historial y estado de los pacientes.

2004

Reino Unido

PAIRS

Soporte para la toma de decisiones diagnosticas

Diseñado para ayudar a médicos en el diagnostico de casos complicados.

2001

India

RetroGram

Soporte para la toma de decisiones para medicación

Genera regimenes de medicación usando historial medico e información genética de enfermos de VIH

1999

Reino Unido

TherapyEdge

Basado en Web para tratamiento de VIH y enfermedades crónicas

Sigue gráficamente y procesa automáticamente la información de pacientes (medicación, condición) con VIH y enfermedades crónicas.

2001

NC – EEUU

TxDENT

Experto diagnosticador de condiciones dentales

Para hacer seguimiento y recomendaciones a pacientes de tratamientos odontológicos.

1997

Canadá

CoulterÒ FACULTYTM

Sistema Experto en Toxicología

Sistema basado en conocimiento cuyo fin es de consulta, asistir en el flujo de trabajo y servir como herramienta educacional en los laboratorios de hematología.

1996 Reino Unido

HEPAXPERT I, II, III

Análisis e Interpretación de pruebas

La III es una versión basada en Web que analiza e interpreta pruebas para detectar hepatitis A, B, C y D

1991 Austria

 El futuro de la Inteligencia Artificial en la medicina: ¿Realidad o ficción?

El futuro de muchos campos en las ciencias de la computación, en especial las nuevas tecnologías como lo son la realidad virtual y la Inteligencia Artificial, se van a ver definidos por la carrera tecnológica que han venido librando grandes potencias como Estados Unidos y Japón.  Al igual que con la carrera espacial, definir una meta especifica no es fácil, todo depende de hasta donde quiere llegar el hombre; algo muy similar ocurre con la Inteligencia Artificial en la medicina, su investigación continua a un ritmo muy acelerado buscando resultados a corto y largo plazo para obtener, en concepto, “una mejor calidad de vida”.

Se han hecho muchas proyecciones sobre el futuro de la Inteligencia Artificial en la medicina, muchas de las cuales parecen de ciencia ficción como el hecho de que una persona no tenga que ir al médico para una consulta si no que la interacción será vía Web, y ya ni siquiera con un médico si no con un avatar, personaje de la realidad virtual que tendrá almacenado los conocimientos del experto o expertos. Proyecciones como esas parecen muy futuristas y poco probables, aunque no imposibles.

Otras proyecciones  están mas cercanas a la realidad como lo son los sistemas de monitoreo clínico que cada vez son más cómodos para el paciente y más eficientes a la hora de detectar fallas o problemas en la evolución del paciente.

O también sistemas de ayudas en cirugías para reducir el riesgo para el paciente y el esfuerzo del médico en una operación muy delicada. Aunque algunos sistemas con las características de permitir simular el momento de la operación y mostrar posibles escenarios durante la misma ya existen, se está buscando la creación de sistemas que eliminen al máximo el riesgo para el paciente monitoreando, haciendo recomendaciones y prever posibles problemas que se presenten en el momento.

 

Regresar

Copyright © 2004