La calidad de la información en salud desde la internet

Estándar

Este documento lo escribí, como un artículo para el diario del suplemento DIGITEC de Argentina por invitación de la Editora  Flavia Ricci.

El acceso a las nuevas tecnologías de la información en el mundo y principalmente en Latinoamérica ha permitido que muchas personas utilicen Internet como una de las principales fuentes de consulta en el momento de presentar síntomas de una enfermedad o complementar el diagnóstico de los médicos.

¿Pero qué incidencia puede traer la consulta a Internet sobre temas de salud, sin tener  algún criterio de credibilidad y autoridad?

Según varios estudios alrededor del mundo[1] cada vez más personas consultan Internet para la búsqueda de información en temas de salud,  por la facilidad e inmediatez de sus resultados. Este aumento en la búsqueda de información en Internet puede tener riesgos, como la mala calidad de la información, fraudes, mal aplicación de tratamientos sin supervisión profesional y violación a la intimidad de los usuarios.

Es así como nos vemos ante un gran océano de información, con muy poca profundidad y en donde es necesario tener unas habilidades y competencias mínimas que permitan evaluar de forma crítica la información en salud publicada en Internet. Es por esto que varias asociaciones en el mundo se han dedicado a validar estos contenidos de acuerdo a unos criterios de calidad que deben ser tenidos en cuenta para dar credibilidad a la información que en salud que consulte.

Dentro de los criterios recomendados por el Health on the Net Fundation (HON)[2], una organización fundada en Ginebra en 1996 con la misión de auxiliar la identificación de web sites sobre salud que sean confiables, se han identificado los siguientes:

Autoridad: La información sobre salud online debe ser ofrecida por profesionales calificados.

Grado de complemento: La información online debe ser complementar, y no sustituir el consejo médico.

Confidencialidad: El web site asegura la confidencialidad de datos sobre el paciente y otros usuarios, inclusive su identidad.

Crédito: El web site presenta las referencias de las fuentes que apoyan las informaciones disponibles (con sus respectivos links), y también las fechas de las últimas actualizaciones.

Justificativa: Presenta los beneficios y la utilidad de los tratamientos y productos, los cuales están basados en evidencias.

Autoría: Ofrece direcciones de contacto para usuarios que quieran mayores informaciones; ofrece e-mail del webmaster.

Patrocinio: Apoyos de organizaciones comerciales y no comerciales son claramente identificadas.

Publicidad: Anuncios publicitarios son claramente identificados.

De igual manera existen otros sitios certificadores que puede consultar con variables similares y que ayudan a identificar sitios web confiables como son:

Web Médica Acreditada: código de conducta con sello de calidad valorado por un comité. http://wma.comb.es/cast/codi_conducte.htm

ACSI. El Índice de Webs Acreditadas ACSI está constituido por todas las webs con contenido sanitario que han recibido el sello de calidad OMC Acredita. http://www.omcacredita.com/node/1

PWMC. El proyecto Webs Médicas de Calidad es una iniciativa en Internet, que tiene como objetivo la mejora de la calidad de las Webs de contenido sanitario relativo a la salud humana, desarrolladas en lengua española. http://www.pwmc.org/codigopwmc.htm

Es así que se recomienda  conceder prioridad a las web institucionales y de profesionales. Hay que destacar las web de asociaciones de pacientes,  las de sociedades científicas profesionales y los enlaces que aparecen en estas web.

De igual forma se recomienda acudir a una web que estén en un idioma que conozcamos correctamente y culturalmente se encuentre cercanos a nosostros[3].

También pueden consultar motores de búsqueda especializados como son:

Google Scholar

Yahoo health

MSN Salud

Hakia es un buscador semántico (basado en ontologías).

Excelenciaclinica.net

CONCLUSIONES

Por lo anterior los lectores deben ser críticos en el momento de evaluar información médica teniendo en cuenta la autoridad, confidencialidad, cita de fuentes y contacto con autores,  sin embargo aunque existen esfuerzos por tratar de validar información de tipo médico, es muy importante tener en cuenta que toda esta información es de tipo contextual, pero solamente una consulta con un profesional médico, podrá llegar realmente a ofrecer la calidad en un diagnóstico adecuado a sus necesidades y el tratamiento requerido.

BIBLIOGRAFIA

[1] BERLALND G. K., et  al. Health information on the Internet: accessibility, quality, and readability in English and Spanish. JAMA 2001; 285(20): 2612-21. Disponible en:  http://jama.ama-assn.org/cgi/content/full/285/20/2612?maxtoshow=&HITS=10&hits=10&RESULTFORMAT=&fulltext=Health+information+on+the+Internet%3A+accessibility%2C+quality%2C+and+readability+in+English+and+Spanish.&searchid=1&FIRSTINDEX=0&resourcetype=HWCIT [Consultado el 07 de Octubre de 2009].

[2] THE SWISS FEDERAL OFFICE OF PUBLIC HEALTH (FOPH).  Health on the Net Fundation (HON). Disponible en:  http://www.hon.ch/HONcode/Spanish/ . [Consultado el 07 de Octubre de 2009].

[3] GIMÉNEZ de Azcárate, Javier Carnicero.  Luces y sombras de la información de salud en Internet  (resumen). Disponible en:  http://www.seis.es/documentos/informes/secciones/adjunto1/CAPITULO1.pdf. [Consultado el 07 de Octubre de 2009].

Sobre la mineria de datos

Estándar

La implementación de un sistema de inteligencia empresarial (BI, Business Intelligence) se puede ver desde la perspectiva de dos capas. La primera comprende los reportes estándares, reportes especiales, análisis multidimensionales, tablero de mandos, scorecards y alertas. La segunda capa se encuentra más comúnmente en aquellas organizaciones que han construido y madurado la primera capa. El análisis avanzado de datos por medio de modelos predictivos y pronósticos define esta capa; en otras palabras, la minería de datos.

La minería de datos tiene un alcance y aplicaciones muy amplias. Puede ser utilizada en cualquier situación donde se requiere encontrar conocimiento en vastas cantidades de datos.

La razón de ser

La minería de datos se refiere al proceso de extracción de patrones escondidos en grandes cantidades de datos. El término minería es con frecuencia utilizado como analogía como en el caso de la minería de oro o de carbón; sin embargo, el producto final de la minería de datos no son los datos, es el conocimiento. La minería de datos se aplica en una gran variedad de situaciones, pero presentamos aquí los escenarios empresariales más comunes en los cuales se presenta como una solución:

Explotación de datos: Cuando la cantidad de información crece significativamente, solo los modelos estadísticos especializados, pueden ayudar a desenmascarar patrones importantes; en esta situación, los análisis simples y multidimensionales no serán suficientes.

Comportamiento predictivo: Estas son situaciones donde las organizaciones necesitan predecir el comportamiento de los clientes. Este tipo de análisis permite identificar a los clientes en riesgo de cambiar hacia la competencia. Dentro de una población de animales se puede llevar a cabo modelado de enfermedades basado en información relevante sobre la especie, realizando predicciones y estimando el riesgo de enfermedad.

Ventas cruzadas: Comúnmente conocido como análisis de la cesta de mercado, la minería de datos puede dar información sobre los patrones de ventas cruzadas. Las tiendas en línea de libros como Amazon.com, usan esta técnica para sugerir libros relacionados con el que se está buscando o comprando.

Formaciones taxonómicas: La minería de datos puede ser aplicada en situaciones donde los datos de entrenamiento (los datos usados para entrenar el modelo de minería) están perdiendo algún tipo de etiqueta. Las etiquetas se usan para conceptualizar datos. Por ejemplo, en el análisis que examina las relaciones entre las ventas y las temporadas, estas últimas pueden ser categorizadas como primavera, verano, etc. El clustering o la segmentación es el proceso de particionamiento de datos en clases o incluso en jerarquías de clases, para los cuales los miembros de un grupo tienen características similares.

Pronósticos: Para estimar valores futuros de entidades, se debe aplicar técnicas de pronósticos. Por ejemplo, pronosticando la demanda futura de sus productos, un fabricante puede planear su producción.

Arquitectura de los sistemas de minería de datos

Al describir la arquitectura de un sistema de minería de datos, suponemos la presencia de un almacén o bodega de datos que contienen los datos de la organización. Aunque la minería de datos se puede aplicar a una amplia gama de fuentes de datos, es mejor iniciar con un almacén de datos en el que los hechos y las dimensiones se han identificado, y un marco de limpieza de datos establecido con el fin de garantizar una buena calidad de los mismos.

La base de conocimientos:


La corteza de un sistema de minería de datos es la base de datos de una organización. Este es el campo de conocimiento que describe los datos de una organización. Él incluye jerarquías de conceptos que organizan atributos o atribuyen valores de conceptos o clases específicas hacia generales. Los conceptos pueden ser implícitos, como las direcciones que se describen con número, calle, cuidad, estado y país. Las jerarquías de conceptos pueden ser creadas por medio de la organización de los valores. Un ejemplo de dicha jerarquía, comúnmente conocida como grupo predefinido de jerarquías, es el tamaño de la empresa, que puede ser definido como micro (< 5 empleados), pequeño (5 a 100 empleados), mediano (101 a 500 empleados y grande (> 500 empleados)

Los niveles de interés constituyen otro ejemplo del campo de los conocimientos. Estas medidas ayudan a clasificar o filtrar las normas que se generan a partir de los datos para determinar los patrones que serán más útiles para un negocio. Los niveles de interés pueden incluir medidas objetivas que se identifican estadísticamente y medidas subjetivas que se derivan de las creencias al respecto de las relaciones de los datos ayudando a evaluar el grado de probabilidad de que un evento ocurra o no, segun los resultados obtenidos a partir de minería de datos. La base de conocimientos es un elemento esencial en todas las etapas del proceso de minería de datos.

2. El proceso de la minería de datos
Fig. 1. Creación del modelo de minería de datos

La discusión sobre los procesos de la minería de datos en este articulo, está centrada en la creación de los modelos y su evaluación. El modelo constituye el corazón o centro de la minería de datos. El primer paso es la creación del modelo, a través de la selección de datos importantes para el objetivo. Por ejemplo, si un ejercicio de investigación sobre educación necesita estudiar el rendimiento de los estudiantes a través de varias ciudades en un estado o departamento especifico, solo los datos de ese estado son relevantes. Así mismo, si el objetivo es estudiar las relaciones entre la asistencia y la ocupación y salario de los padres, los atributos importantes incluirán la asistencia de la entidad estudiantes (sin las calificaciones o niveles) y la ocupación y salario de la entidad padres (sin importar edad o grupo cultural).


Una vez establecido el objetivo del ejercicio de la minería de datos, se debe elegir la función o algoritmo. El modelo se estructura para almacenar los resultados encontrados por el algoritmo. La siguiente tabla señala a grandes rasgos, los algoritmos más comúnmente usados (una discusión en detalle de estos algoritmos, se sale del marco de este artículo).

Algoritmo Descripción
Reglas de asociación Este algoritmo ayuda a descubrir elementos que están asociados. Una implementación común de este algoritmo es el análisis de la cesta de compras, donde se responde a la pregunta “¿si un cliente compra el artículo A y B, que otro artículo tenderá a comprar?” por medio de el examen de las asociaciones entre A y B con otros artículos comprados en el pasado.
Clustering El Clustering crea grupos de objetos de datos basados en su similitud. Los objetos dentro de un cluster son similares a sí mismos y diferentes a los objetos de otros clusters. Clustering tiene una extensa aplicabilidad: en biología para el desarrollo de taxonomías; en los negocios sirve para agrupar clientes basados en su comportamiento, en geografía se usa para agrupar lugares.
Arboles de decisión Los árboles de decisión son estructuras donde una rama divide el grupo de datos para particionar su distribución. Cada rama está basada en un atributo que genera una división significativa en la información. Se pueden realizar pronósticos aplicando los valores del nuevo atributo al árbol de decisiones.
Bayes simples Los algoritmos Bayes tienen un método sistemático de aprendizaje basado en la evidencia. Allí se combinan probabilidades condicionales e incondicionales para calcular las probabilidades de una hipótesis.
Regresión La Regresión ayuda a descubrir la dependencia del valor de un atributo con respecto a otros atributos dentro de la misma entidad u objeto. La regresión es similar a los árboles de decisión en cuanto a su contribución para clasificar datos, pero predice atributos continuos, en lugar de separados.
Series de tiempo Las series de tiempo representan datos en varios intervalos de tiempo o cualquier otro indicador cronológico. Este se usa para pronosticar valores futuros como la demanda y el tráfico de un sitio Web, usando técnicas en auto regresión (una rama del análisis regresivo dedicada al análisis de series de tiempo) y árboles de decisión.

Autora: Anna Mallikarjunan-TEC

Web semantica

Estándar

Esta presentación es sobre el uso, estructuras y usos de la web semántica, presentado en una de las asignaturas de la universidad, mostrando algunas conclusiones sobre las ventajas que podemos encontrar en su aplicación.

De igual manera quiero recomendar swoogle como una de las primeras experiencias exitosas, con más de un millon de sitios indexados, se estima que 3.000 documentos son descubiertos cada día, y que del millón de documentos RDF, alrededor del 1% son ontologías, y el resto, datos. Vale la pena entrar y conocer una aplicación de lo que podra ser la Web 3.0

META-OCIB Meta Search Open Acces in Libray and Information Science

Estándar

meta-ocib3.png

Experimentando con las nuevas herramientas disponibles en internet, he desarrollado un metabuscador de bases de datos Open Acces y sitios web especializados en Ciencia de la Información,  basado en la tecnología Google, el cual permite hacer busquedas simples y compuestas de la información que se encuentran contenidas en los sitios definidos, como parte de una idea que nació del trabajo dispuesto en la wikijaveriana   Historia de las bases de datos en Ciencia de la Información.  Los invito a que la consulten y aprovechen los recursos que estan disponibles para nosotros .

De igual manera esta disponible el feed de Ecibjavaeriana, el tesauro del CINDOC en Bibliotecomia para controlar el lenguaje utilizado en las busquedas, unas sugerencias para utilizar el buscador, y una entrada para descargar la barra toolbar Ecibjaveriana en su computador y estar actualizado en todo momento sobre lo último en nuestra área de conocimiento.

META-OCIB Meta Search Open Acces in Libray and Information Science

Google Scholar es equivalente al Citation Index … pero gratuito y abierto

Estándar

Dos ecólogos marinos, especialistas en gestión pesquera, Daniel Pauly y Konstantinos Stergiou publicaron a finales de 2005 un artículo (Equivalence of results from two citation analyses: Thomson ISI’s Citation Index and Google’s Scholar service [pdf]. Ethics in Science and Environmental Politics. 2005:33-35) que compara de un modo objetivo y estadísticamente impecable la eficacia de los dos grandes sistemas existentes en la actualidad para medir el impacto de las publicaciones científicas: Google Scholar y Science Citation Index (SCI) de Thomson Scientific (hasta hace poco Thomson ISI). El primero es un servicio gratuito que indexa documentos científicos muy diversos (además de artículos en revistas incluye literatura gris como repositorios de working papers, presentaciones en congresos, etc). Por el contrario Thomson Scientific se centra exclusivamente en revistas científicas pero alcanza un grado de cobertura prácticamente total.


Pauly y Stergiou seleccionaron una muestra de artículos de diferentes disciplinas, impacto y fechas de publicación y estimaron el número de citas que recibían en cada una de las bases de datos. Por supuesto, en artículos “antiguos” (aquellos anteriores a 1990, una definición adecuada de “antiguo” para muchas disciplinas científicas) el SCI proporciona el doble de citas (lo cual es lógico dado que muchos documentos antiguos, en especial aquellos de la literatura gris, no han sido digitalizados), pero a partir de esa fecha los resultados de ambos servicios son equivalentes en términos cuantitativos. Dado que ambas herramientas usan diferentes bases de datos se entiende que esta equivalencia supone que el déficit de revistas indexadas por Google Scholar se compensa por la literatura gris incluida. Por otra parte, Scholar abarca cada vez un mayor número de fuentes por lo que esa diferencia en lo que respecta a revistas se acortará con el tiempo.
Pauly y Stergiou plantean una importante conclusión. Google Scholar puede ser utilizado como indicador fiable de citas recibidas por un artículo y/o autor. Teniendo en cuenta que estos indicadores son cada vez más relevantes en la evaluación de científicos y proyectos, este resultado permite eliminar el monopolio de facto que constituía el SCI. Además, dado que Scholar es gratuito, permite un acceso universal a esta herramienta.

Pero además, dado que las APIs de Google son utilizables por desarrolladores externos, las posibilidades de crear nuevos servicios sobre Scholar son innumerables, lo cual es prácticamente imposible en el caso de Thomson Scientific. Es de esperar que incluso la conservadora comunidad científica (y las más conservadoras administraciones públicas que mayoritariamente usan estos servicios para la evaluación científica) puedan ahora empezar a mejorar el funcionamiento de las búsquedas de citas y su uso en los procesos de evaluación. Además, la competencia de Scholar debería ser un buen incentivo para que Thomson Scientific mejore su servicio y/o baje sus precios (y posiblemente para que haga ambas cosas).

ACTUALIZACIÓN:Añado un nuevo artículo, remitido por Reme Melero, que apareció en el primer numero del
JEP de este año que habla del potencial del Google Scholar en un futuro no muy lejano: Google Scholar: Potentially Good for Users of Academic Information.

Consultado de GETEKA

Google Scholar en español

Estándar

Google ha anunciado el lanzamiento de Google Scholar en español (scholar.google.com), un servicio gratuito que ayuda a los usuarios a localizar trabajos de investigación (revisiones colegiadas de estudios realizados, tesis universitarias, libros, publicaciones, resúmenes e informes especializados) y facilita el acceso de los hispanohablantes a estudios internacionales. Hasta el momento, estaba disponible en portugués de Brasil, chino, danés, inglés, finlandés, noruego y sueco. Entre las ventajas de esta herramienta, destacan los resultados altamente relacionados con la búsqueda, al ordenarlos por el grado de relación con la consulta realizada, garantizando así que las referencias de mayor utilidad para el usuario aparezcan en las primeras posiciones. Además, realiza las búsquedas en la totalidad del documento y acerca a los usuarios a la literatura en formato tradicional, según informa Google en un comunicado.

Fuente: La voz de Galicia.Viernes, 28 de Abril de 2006.