Actualización de MeSH 2019


Leíamos la noticia en el boletín técnico de la Biblioteca Nacional de Medicina (NLM por sus siglas en inglés) de EEUU: el YEP (Year-End-Processing) es como se conoce al mantenimiento anual y durante el cual se realizan cambios en MEDLINE. Uno de los cambios más importantes es el que afecta al tesauro MeSH (Medical Subject Headings) y que es el vocabulario controlado que se usa para catalogar los registros en MEDLINE. Cada artículo que se cataloga en MEDLINE recibe una serie de descriptores que definen el tema/s que trata ese artículo. 

Para empezar, 73 encabezamientos MeSH o han sufrido cambios o bien han sido eliminados y reemplazados por terminología más actual. Durante el YEP, la NLM actualizará estos encabezamientos en los registros de MEDLINE.

Además, se añaden 402 nuevos encabezamientos y 20 tipos de publicación. Os dejo aquí el listado completo en pdf de los nuevos encabezamientos con sus notas de alcance, notas y localizaciones en el árbol jerárquico. 

Normalmente no se hace una catalogación retrospectiva cuando aparecen nuevos descriptores, por lo que buscar en PubMed por un nuevo término MeSH con las etiquetas [mh] o [majr] limita la búsqueda a los registros indexados después de que se haya añadido el descriptor al MeSH. Para recuperar registros indexados antes de la introducción del nuevo MeSH podemos ayudarnos del ATM (Automatic Term Mapping) de PubMed (quienes hayáis venido a alguno de mis cursos ya sabéis cómo funciona). El ATM expande la búsqueda de los términos que no están etiquetados para buscar tanto por términos MeSH como por los términos indexados en All Fields. No es mala idea tampoco consultar la base de datos MeSH para ver los términos indexados previamente sobre un concepto en particular. 

Para el año 2019 contamos con una excepción: el nuevo tipo de publicación Systematic Review sí será añadido a los registros ya existentes en MEDLINE y que cumplan con los criterios de inclusión. Es decir, se hará una catalogación retrospectiva para facilitar la recuperación de todas las revisiones sistemáticas. 

Además de Systematic Review como tipo de publicación tenemos también Systematic Review as Topic (como tema). Al hacer una búsqueda, podemos encontrarnos con revisiones sistemáticas y con trabajos que hablen sobre revisiones sistemáticas.

Ten en cuenta que si tienes alguna búsqueda guardada y alguna alerta activa, los resultados se pueden ver alterados por la inclusión y modificación de los términos MeSH. Aprovecha para darle una vuelta a los términos y asegurarte de que estás recuperando toda la información relevante.

En PubMed contamos con un filtro metodológico en las Clinical Queries para recuperar revisiones sistemáticas. Aún no está actualizado (ignoro si lo actualizarán o lo dejarán igual), así que yo seguiría usando este filtro y el nuevo descriptor de tipo de publicación hasta comprobar exactamente cómo funcionan ambos y qué recuperan. 

Algunas combinaciones de encabezamiento/subencabezamiento, llamadas Entry Combinations, también serán modificadas de manera retrospectiva, de manera que si haces una búsqueda por alguna de las combinaciones y no recuperas nada, deberás comprobar si en estas Entry Combinations se indica algún término nuevo. Tenlo también en cuenta si tienes búsquedas guardadas. Por ejemplo, hay algunas Entry Combinations que se reemplazan por encabezamientos directamente (pongo algunos ejemplos, no están todos), y otros que se modifican: 

 Encabezamiento/subencabezamiento previo

Enzymes/therapeutic use

Jaw/surgery

Pharmacy/history

Encabezamiento por el que se reemplaza en 2019

Enzyme Therapy

Orthognathic Surgical Procedures

History of Pharmacy

Como siempre, si tienes alguna duda sobre cómo hacer búsquedas en PubMed, cómo utilizar los términos MeSH, qué significan las etiquetas de campo o cómo funciona el Automatic Term Mapping, o cualquier otra pregunta relacionada con la gestión de la información biomédica, tienes a tu bibliotecaria de cabecera en tu biblioteca o a un click de distancia. Estamos para ayudarte. Y si quieres que me acerque a tu institución a dar formación sobre búsquedas, gestores, herramientas para mantenerte actualizado, apoyo a la investigación, etc. siempre puedes ponerte en contacto conmigo a través del correo o de linkedin.

 

#19 post invitado: Huyendo de la investigación de individuos: los diseños ecológicos


En el post invitado de hoy abrimos las puertas del blog a Daniel Cuesta Lozano. Daniel es enfermero especialista en salud mental, doctor por la Universidad de Málaga, profesor del Departamento de Enfermería de la Universidad de Alcalá y parte del Grupo CUYDET-UAH, Grupo de Investigación en Cuidados y Determinantes Sociales de la Salud Comunitaria de la Universidad de Alcalá. Además de su perfil en twitter podéis seguir su nueva cuenta de Instagram: @daniel_cuesta_lozano

Hablando con él me comentó que estaba preparando una entrada sobre la investigación con estudios de diseños ecológicos. Aquí tenéis el resultado. Espero que os interese tanto como a mí:

Huyendo de la investigación de individuos: los diseños ecológicos

 

Querer vincular resultados en salud de las personas que viven una ciudad con las circunstancias de esa ciudad parece sencillo, si eliminamos el tráfico de coches hay menos atropellos, pero si queremos hilar más fino y encontrar correlaciones, algún patrón causa–efecto o algo así, eso ya es más complicado. La principal razón: lo que habitualmente entendemos como resultados de salud son parámetros individuales y las características de una ciudad solo pueden concebirse de forma colectiva.

 

Javier Segura, médico salubrista, escribió hace unos años La historia de un viaje en tren, un breve relato sobre cómo variaba la mortalidad entre los barrios de Madrid que atravesaba el tren de cercanías desde Colmenar Viejo (en el norte) a Parla (en el sur). Este patrón norte–sur es muy recurrido y diversas publicaciones lo han divulgado, sobre todo a partir del Atlas de Mortalidad de la OMS de 2009 (jamás entenderé por qué recurrimos a la muerte para hablar de la salud). A veces varía, pero siempre encontramos un patrón territorial en la distribución de resultados de salud, ¿acaso todos los enfermos se van a vivir al sur? Una forma de dar respuesta a esta y a otras preguntas, una metodología, es la investigación con estudios de diseño ecológico, uno de los diseños más sencillos y menos utilizados en la investigación en salud por lo limitado de sus mediciones, su susceptibilidad de sesgo y, si me apuráis, la tendencia individualista de nuestra sociedad que hace que nos olvidemos de que vivir en sitios y con gente nos afecta.

Riqueza vs Esperanza de vida

Los estudios ecológicos no analizan individuos, sus unidades de análisis son colectivas. Estudian grupos, barrios, ciudades, etc., y pueden ser atractivos para la investigación si asumimos que la salud del grupo es más que la suma de la de los miembros individuales. Pero su atractivo también reside en la fácil implementación del trabajo de campo: se reduce la recolección de datos, muchas veces recopilados de forma ordinaria por la Administración, y te evitan el muestreo y reclutamiento de los sujetos. Aunque disponer de datos recopilados rutinariamente es una ventaja limitada, porque no decides tú qué variables utilizar y tienes que adaptarte a lo que haya, pero mola mucho que te den los datos ya recogiditos en un Excel, y lo sabéis.

 

Dentro de los estudios ecológicos encontramos varios diseños: los exploratorios, los de grupos múltiples, los de series de tiempo y los mixtos. Os cuento:

 
  • Estudios exploratorios: Comparan tasas entre muchas regiones continuas en un momento concreto, o de la misma región a lo largo de un periodo. Es un descriptivo.
  • Estudios de grupos múltiples: Son los más comunes. Tienen ya un carácter analítico y evalúan la asociación entre los niveles de exposición (promedios) y las tasas de morbilidad, mortalidad o lo que interese.
  • Estudios de series de tiempo. Fácil de deducir: compara las variaciones temporales de los niveles de exposición y variaciones en la frecuencia de una enfermedad, por ejemplo.
  • Estudios mixtos. Combinan dos metodologías: estudios de grupos múltiples con estudios de series de tiempo. La riqueza de los datos es mucho mayor.
 

Aunque a priori puedan molar estos diseños, ojo con hacer inferencias causales con este tipo de estudios. Ya lo advertíamos antes, esa búsqueda de relaciones causa–efecto que tanto nos gusta en ciencias de la salud es difícil de encontrar con esta metodología. Hacer inferencias individuales a partir de estudios poblacionales está feo, y es lo que conocemos como falacia ecológica: aceptar relaciones causales que en realidad son inexistentes partiendo de la base de que los resultados arrojados por un estudio ecológico son extrapolables a contextos individuales. Y no.

Este fenómeno, que tiene que ver con pedir a estos estudios lo que no te dan, o usarlos para lo que no sirven (pídele peras al olmo, a ver) ha llegado a desprestigiar en cierta medida estos diseños, que por el contrario han demostrado ser muy útiles si se utilizan bien.

En 1992, The Lancet publicó el estudio Bobak y Leon Air pollution and infant mortality in the Czech Republic, con un diseño de grupos múltiples que encontró la consistencia en sus resultados que otros estudios diseñados con metodologías individualistas no habían alcanzado. También se utilizó este diseño en 1849 para el estudio sobre el cólera de William Farra y John Snow (sí, se llamaba John Snow), un estudio sobre una enfermedad muy desconocida aún, y que sentó las bases de la epidemiología moderna.

Las limitaciones existen: a la de adaptarte a la información recogida de forma rutinaria está la falacia ecológica (insisto, basta con utilizar estos diseños para lo que sirven y no para otra cosa), y se unen otras que algunos hemos podido experimentar: el nivel de desagregación de los datos no siempre es igual (algunos están por distrito, otros por municipio), y la territorialización que hace cada Administración es distinta (intenta superponer distritos municipales, con zonas básicas de salud, con códigos postales y verás qué risa), las unidades de análisis tienen que ser suficientes (tú puedes querer analizar algo de los distritos municipales de Alcalá de Henares, pero son cinco… cinco datos dan para muy poco análisis, cunden menos de lo que cuestan), etc.

 

Ante estas limitaciones podemos abandonar estos diseños y dedicarnos a estudiar a individuos, concibiéndolos como seres aislados no influidos por nada ni nadie, o podemos pararnos a pensar, leer y formarnos para saber meterle mano a una metodología que nos aporta información sobre aspectos que de otra forma son inabarcables. Yo me apunto.

Cómo detectar revistas depredadoras


Hace unos meses os hablaba de las revistas depredadoras y hoy, a raíz de una conversación surgida en una lista de distribución de bibliotecarios médicos, os quiero hacer partícipes de las estrategias que se pueden utilizar para diferenciar una revista depredadora de otra que no lo es, sobre todo a la hora de enviar un artículo para su publicación. La mayoría de la información que os pongo a continuación proviene de una compilación realizada por Eleanor Truex, bibliotecaria médica de Presence Health’s Lakeshore Region y del Saint Francis Hospital in Evanston (IL, EEUU)

Web sites

Lo primero que tenemos que tener claro es que es a veces no se puede estar 100% seguro de si una revista es depredadora o no. Podemos utilizar la herramienta Think Check Submit, que nos da recomendaciones sobre cómo publicar en revistas que no son depredadoras, y que además está traducida a varios idiomas (entre ellos el castellano).

Otra opción sería tener en cuenta los criterios publicados por Jeffrey Beall en 2015 para determinar los editores open-access depredadores. También podéis consultar el listado de editores creada por Beall o incluso el listado de títulos de revistas en el caso de que no se localice al editor.

Guías de bibliotecas

Algunas bibliotecas universitarias americanas tienen guías que te pueden ayudar en el proceso de distinguir si estás ante una revista depredadora. En esta guía de la biblioteca de la Universidad del Estado de Iowa os explican además por qué es malo publicar en una revista de este tipo.

Pero en España también podemos encontrar iniciativas similares. Desde la biblioteca de la Universidad de Sevilla también nos ofrecen algunas pautas para detectar las revistas depredadoras y poder evitarlas.

Artículos

En este artículo, la tabla número 10 ofrece un listado de características destacadas de las revistas depredadoras potenciales:

  • Shamseer L, Moher D, Maduekwe O, et al. Potential predatory and legitimate biomedical journals: can you tell the difference? A cross-sectional comparison. BMC Medicine. 2017;15(1). doi:10.1186/s12916-017-0785-9
Table 10. Salient characteristics of potential predatory journals doi:10.1186/s12916-017-0785-9

En el siguiente documento de trabajo de Blobaum se propone una checklist para revisar la calidad de las revistas antes de enviar el artículo para su publicación.

  • Blobaum P. Blobaum’s Checklist  for Review of Journal Quality for Submission of Scholarly Manuscripts. Faculty Research and Creative Activity. May 2013. https://opus.govst.edu/faculty/27.

El resumen de este trabajo dice así:

This checklist gives authors a list of quality indicators to assist in the evaluation of journal quality when considering what journal to submit a manuscript to. None of these indicators establish credibility and legitimacy alone, but together may build a body of evidence that will support evaluative judgments. Pay-to-publish models, and charges to publish articles in open-access format have been adopted by legitimate and reputable publishers over time, but the solicitation of manuscripts by new publishers, especially those opaque policies and promising a fast turn around and publication time, and promising peer review have proliferated, and many of these publication venues are questionable at best, unethical to say the least, and minimally, scams. Authors should use caution and consult with librarians and colleagues when considering publication venues.

En este otro artículo de Hoffecker se hace un análisis de la lista de Cabell:

  • Hoffecker L. Cabells Scholarly Analytics. Journal of the Medical Library Association. 2018;106(2). doi:10.5195/JMLA.2018.403

Y ojo con las revistas indexadas en PubMed, ya que algún título de revista depredadora se ha llegado a colar. En este artículo publicado en el CMAJ hablan de ello:

  • Manca A, Moher D, Cugusi L, Dvir Z, Deriu F. How predatory journals leak into PubMed. CMAJ. 2018;190(35):E1042-E1045. doi:10.1503/cmaj.180154

En este artículo publicado en Acta Médica Portuguesa podéis leer más información sobre la crisis de la publicación y las revistas depredadoras:

  • Hanscheid T, Hardisty DW, Henriques SO. The Crisis in Scientific Publishing: A Holistic Perspective About Background Issues Associated with Predatory Publishing. Acta Médica Portuguesa. 2018;31(10):524-526. doi:10.20344/amp.10762

Características de la web del editor

  1. Indexación: si en la web se indica que “algunos artículos han sido indexados en PubMed y PMC” deberían saltar las alarmas. Esto significa que los artículos cumplen con la Política de Acceso Público de los NIH. Mejor busca que la revista se indexe en alguna base de datos reputable como MedLine, Embase, WoS, por ejemplo. Y tampoco es lo mismo que hayan sido catalogados por alguna universidad importante a que hayan sido indexados en bases de datos con criterios de calidad. No, Google no sirve. Google Scholar tampoco. Nota sobre DOAJ: aparecer aquí implica mucho análisis; el proceso es largo y detallado para garantizar que la información que pueda ver un posible autor sea transparente y precisa.
  2. Lenguaje: utilizar “citado” en vez de “indexado”. Por ejemplo: “hay 91 citas de artículos publicados en WoS hasta junio de 2018, lo que implica un incremento de un 122% comparado con las 41 citas hasta junio de 2017”. Aquí, lo que la revista espera es que el posible autor se confunda entre las revistas que son citadas por las revistas de la WOS, y las revistas que son indexadas por la WOS.
  3. Contenido: lee alguno de los artículos publicados en esas revistas: ¿la gramática es buena? ¿indican los autores de dónde son? ¿el método indicado en el artículo es de fiar?
  4. Promesas de publicación: busca el tiempo de respuesta de la publicación: si sólo son unos días, ya tenemos una gran señal de alarma; varias semanas es más realistas, pero aún así arriesgado.
  5. Comité/consejo editorial: busca las credenciales de la junta editorial (verifica algunas en Google) y las afiliaciones. Ejemplo: ¿El dr. John Smith realmente trabaja en la Clínica Mayo?
  6. Tamaño de la editorial: cuenta el número de revistas que maneja el sitio web: ¿el número de editores parece plausible para el número de títulos?
  7. Ubicación de la revista: ¿dónde se encuentra esta revista? Los títulos extranjeros [no anglosajones] son una parte vital de la medicina mundial, pero si no son francos sobre su ubicación, eso es otra señal de alarma.
  8. Coste para el autor: averigua, si puedes, si hay que pagar por publicar y, en caso afirmativo, si la cantidad es exorbitante.
  9. Diseño de la página web: gramática, estructura de las oraciones, frases descriptivas… todo eso pueden ser pistas. ¿Funcionan los enlaces? ¿Existe un apartado de “contacto”? ¿Es transparente quiénes producen la revista? Se aconseja comprobar tanto la “sensación” general del sitio (que no descarta una web falsa hecha profesionalmente) como comprobar algún artículo suelto publicado en esa revista o por ese editor
  10. Contacto: ¿la publicación se ha puesto en contacto directamente contigo como autor? Si es así, señal de alarma. La mayoría de las revistas de renombre están saturadas de solicitudes y raramente son ellas quienes piden artículos.

Al final hay que ser consciente de la cantidad de revistas depredadoras que existen y del daño que pueden causarte como autor, ya que un buen trabajo en el que has invertido esfuerzo, recursos y posiblemente dinero, perderá relevancia o incluso credibilidad al ser publicado en una de estas revistas. Eso si tienes suerte y consigues llegar a alguien, ya que pocas veces tienen repercusión y quienes saben que son depredadoras no suelen citar sus artículos por carecer, por ejemplo, de revisión por pares.

Cuéntanos, ¿también te llegan infinidad de correos electrónicos invitándote a publicar en alguna revista o a enviar tu trabajo a un congreso donde te aseguran que será aceptado inmediatamente?

Cómo detectar revistas depredadoras

El lado divertido de la publicación en revistas depredadoras

Todo el mundo sabe que dentro de la seriedad de la investigación abunda el buen sentido del humor. Por ello no es difícil encontrar ejemplos graciosos relacionados con la publicación en este tipo de revistas:

  • Paper basado en la serie Rick and Morty: en un artículo publicado en varias revistas científicas, Newer Tools to Fight Inter-Galactic Parasites and Their Transmissibility in Zyrgion Simulation (Nuevas herramientas para combatir los parásitos intergalácticos y su transmisibilidad en Zyrgion Simulation), la científica Beth Smith presentó una investigación que describe un nuevo método para combatir los terribles parásitos que viven al implantar falsos recuerdos en sus huéspedes.

Seguramente os hayáis cruzado con algún ejemplo más o incluso hayáis mantenido una conversación vía correo electrónico con algún editor deseoso de publicar vuestro paper inmediatamente y a cambio de una suma importante. Espero que no os queden dudas sobre la importancia de NO publicar en revistas depredadoras. Y recuerda que si tienes alguna duda siempre puedes consultar con tu bibliotecaria de cabecera. Estamos para ayudaros.

Investiga, que algo queda


Si escuchásteis la charla que mantuve en junio con Chema Cepeda en Hackeando la Salud es posible que os acordéis de que comenté que, a raíz de una conversación en Twitter, Iván Herrera, José M. Morán y yo nos habíamos creado un grupo de Telegram con el fin de organizar algo relacionado con la formación en investigación. A raíz de ese podcast se unieron algunas personas más al grupo: Oskia Agirre, Elena Pastor, Pablo Sánchez y Daniel Cuesta. Nuestros perfiles son muy diferentes y ni siquiera nos conocemos todos en persona.

Como pasa siempre que un grupo de gente diferente se une, es difícil coincidir en el tiempo para poder organizar el trabajo. En nuestro caso usamos el grupo de Telegram para dar ideas, comentar nuestra disponibilidad (estamos todos muy ocupados, así que nuestra disponibilidad es muy baja para este tipo de proyectos) y organizarnos un poco el trabajo. No ha sido hasta septiembre que nos decidimos por una metodología concreta que, no obstante, puede variar según cambien nuestras circunstancias.

La idea era hacer algo sencillo y útil para quien estuviera interesado en la investigación. No queríamos centrarnos en un tipo de público concreto, ni poner todos nuestros esfuerzos vitales en el proyecto. Así que la decisión fue: trabajo en grupo, asíncrono y distribuido.

¿Qué queríamos hacer?

Lanzar un canal de Telegram, que es una herramienta de mensajería instantánea del mismo estilo que Whatsapp, pero más versátil y funcional, para publicar mensajes relacionados con la investigación.

¿Cómo lo haríamos? 

Para el trabajo interno, además del grupo de Telegram para comunicarnos, creamos una excel para ir almacenando las noticias, mensajes, post, enlaces, etc. que quisiéramos publicar. Cada fila de la excel es para una noticia y consta de varios campos: fecha de inclusión, título, texto (con enlaces si los hubiere), imagen (opcional). Estos campos se pueden completar desde un formulario que hemos creado para que sea más fácil enviar noticias si estamos desde el móvil, por ejemplo (¡nunca sabes cuándo te va a llegar la inspiración!)

Pero además de esos campos, hemos creado los “importantes”: dos campos para su revisión (cada noticia tiene que ser revisada y aprobada al menos por otros dos componentes del grupo: nuestros mensajes serán peer reviewed), un campo para la fecha prevista de publicación, otro campo con un código de colores para, de un vistazo, saber si está pendiente de ok, listo para su publicación o publicado. También contamos con los comentarios para poder dejarnos notas entre nosotros.

Ninguno tenemos obligaciones con el canal más allá de aportar algo o de hacer de revisor en algún momento. Todos tenemos nuestros trabajos y vidas personales, así que cada uno puede ir a su ritmo. El hecho de ser un grupo de 7 personas nos permite cubrirnos entre todos y no es necesario que estemos todos al 100% siempre. Sólo es imprescindible que la noticia prevista para la siguiente semana esté completa y revisada por al menos dos miembros más del grupo.

¿Y el canal?

El canal, al que podéis uniros desde este enlace, se lanzó la última semana de septiembre con la idea de publicar el primer mensaje en octubre. Para no convertirnos en un canal de spam, decidimos que lo mejor es publicar sólo un mensaje a la semana -los viernes-, que no seguiríamos un orden concreto en la temática de las noticias y que cada uno era libre de dar publicidad al canal en cualquiera de sus redes.

El primer mensaje salió el 5 de octubre y le llegó a 200 suscriptores.

Os dejo aquí el perfil de twitter de cada uno de los integrantes del grupo: @ihpeco, @jmmorang, @oskao, @ElenaPastor, @PauMatalap, @CuestaLozano y yo: @bibliovirtual

Para suscribiros al canal (es necesario tener instalado Telegram en el móvil):

https://t.me/investigamos
https://t.me/investigamos
https://t.me/investigamos

Cómo estructurar un artículo científico


Ya están disponibles los datos del Factor de Impacto del año 2017 a través del JCR de la Web of Science, y el ranking 2017 de revistas de SCIMago, denominado SJR.

La información con la que se elabora este ranking se extrae de la base de datos SCOPUS (Elsevier) y, al igual que el Factor de Impacto, se usa para evaluar y analizar las publicaciones científicas. El algoritmo que se usa en el SJR no es el mismo que se utiliza para calcular el Factor de Impacto. En el artículo The SJR indicator: A new indicator of journals’ scientific prestige tenéis más información.

Al final, y en términos muy generales, la idea en ambos casos es medir la visibilidad de un artículo científico a partir de las citas que recibe.

Ten simple rules for structuring papers

Fig 1. Summary of a paper’s structural elements at three spatial scales: Across sections, across paragraphs, and within paragraphs. Note that the abstract is special in that it contains all three elements (Context, Content, and Conclusion), thus comprising all three colors.

 

Ahora bien, para empezar a recibir citas es necesario que el artículo ya esté publicado. Si hablamos de revistas serias, este artículo habrá tenido que pasar un proceso de revisión en el que no sólo se tiene en cuenta el contenido, sino también la forma. Para facilitaros la tarea, os dejo aquí un artículo muy interesante que os puede ayudar: Ten simple rules for structuring papers.

 

 

 

Mensh B, Kording K (2017) Ten simple rules for structuring papers. PLoS Comput Biol 13(9): e1005619. https://doi.org/10.1371/journal.pcbi.1005619

 

MeSH on Demand


MeSH on Demand es una herramienta del Medical Text Indexer (MTI), producida por la Biblioteca Nacional de Medicina de EEUU, que sugiere términos de indexación del vocabulario MeSH.

¿Y para qué podemos usarlo? Por ejemplo, cuando queremos enviar nuestro artículo para su publicación es posible que nos pidan (o que queramos) añadir palabras clave. Seleccionar las palabras clave adecuadas es importante para facilitar la localización posterior de nuestro artículo, y podemos asignarlas a partir de los términos MeSH que mejor lo describan. También podemos investigar qué hay publicado sobre nuestro tema basándonos en los términos MeSH generados a partir de nuestro artículo. Así podemos utilizar esta herramienta como apoyo a la hora de decidir a qué revista enviar nuestro artículo.

Mesh on Demand

¿Cómo funciona? Desde MeSh on Demand podemos introducir nuestro texto en inglés (un máximo de 10.000 caracteres) y pinchamos en el botón Search. La herramienta hará un análisis del texto después de haberlo formateado a caracteres ingleses (por ejemplo si hemos dejado tildes o caracteres propios de otros idiomas) y mostrará varias palabras resaltadas y un listado de descriptores MeSH que se corresponden con el texto marcado. En algunos casos, el MTI sugerirá términos adicionales relacionados con los descriptores sugeridos. Además, justo debajo del texto que hemos introducido, MeSH on Demand nos proporciona un listado de hasta 10 artículos de PubMed similares a nuestro texto, basados en los descriptores sugeridos.

Otra utilidad es la de poder hacer búsquedas bibliográficas en PubMed con los términos MeSH adecuados partiendo de un texto libre introducido en la herramienta. Veremos un botón que dice Start PubMed Search. Si lo pulsamos, nos llevará a otra página donde podremos seleccionar aquellos descriptores sugeridos en la página anterior. Una vez seleccionados, se generará de manera automática una estrategia de búsqueda y se lanzará en PubMed, donde veremos los resultados de esa búsqueda.

En esta página tenéis un videotutorial de 5 minutos sobre el uso de MeSH on Demand:

https://www.nlm.nih.gov/research/umls/user_education/quick_tours/MoD/MoD1.html

Y si queréis empezar a usar MeSH on Demand, aquí tenéis la dirección. Directa a favoritos:

https://meshb.nlm.nih.gov/MeSHonDemand
https://meshb.nlm.nih.gov/MeSHonDemand
https://meshb.nlm.nih.gov/MeSHonDemand

A propósito de enseñar a hacer una búsqueda bibliográfica


La semana pasada sustituí a una compañera en la Escuela Universitaria de Enfermería de la Fundación Jiménez Díaz (Madrid) en la asignatura optativa Documentación y Lectura Crítica, de 2º de Enfermería. Sólo iba a dar 4 horas de la asignatura, así que quedé con la profesora titular en que haría una introducción basándome en las primeras unidades. Mi idea era empezar explicando la importancia de ser críticos con la información que nos llega (o nos encontramos), tanto en Internet como en cualquier otro ámbito. También quería explicarles que si se entiende el funcionamiento de una base de datos es más fácil luego utilizarla y extraer la información relevante de ellas. Otro de mis objetivos era que salieran de clase entendiendo para qué servían los tesauros y cómo funcionaban.

Quienes me seguís en Twitter (@bibliovirtual) sabéis que de vez en cuando me salen hilos de conversación donde comento temas relacionados con las bibliotecas médicas o sus profesionales.

Esta mañana me topé con una frase de R.L. Ackoff, de su obra “The Design of Social Research” (1953), que me hubiera gustado mostrarle a mis alumnos de 2º de Enfermería, pero que no llegué a ella antes de las clases, así que la puse en Twitter:

Un problema correctamente planteado está parcialmente resuelto.

A ese tuit le siguió otro porque quería explicar la importancia de comenzar cualquier investigación con una pregunta correctamente planteada. Cuando me quise dar cuenta había creado un hilo. Ha tenido tanto éxito que he decidido añadirlo aquí para quienes no usan Twitter. He usado la herramienta Spooler para convertir el hilo en texto plano. Pensad que cada tuit puede contener un máximo de 280 caracteres. La negrita la he añadido en este post, no se encuentra en Twitter:

Para mis alumnos de 2º de enfermería del otro día, recordad: “Un problema correctamente planteado está parcialmente resuelto” Ackoff, 1953. Un estudio o una investigación ha de comenzar con una pregunta de investigación correctamente planteada. Ha de ser concisa y clara, y se ha de poder descomponer en formato PICO (Patient, Intervention, Comparation, Outcome)

Cada paso se ve facilitado si el anterior se ha realizado bien. Al contrario, si uno de los pasos no está bien planteado o realizado, los siguientes nos llevarán a un resultado no real, erróneo. De ahí la importancia de saber formular bien una pregunta de investigación. El Investigador Principal debería consultar con el Metodólogo. Para mí es una figura clave en una Investigación para, por ejemplo, una revisión sistemática. El equipo de investigadores y metodólogo definirán los apartados de la pregunta PICO y será el Documentalista quien formule la estrategia de búsqueda. Es importante que exista comunicación para no dejar fuera de la estrategia ningún elemento clave.

El primer paso es identificar todos los conceptos de cada apartado PICO. Después, una vez identificada la base o bases de datos donde se va a buscar, se traducirán esos conceptos al lenguaje específico del tesauro correspondiente. Por ejemplo, en PubMed y MedLine se usa MeSH. En Embase se utiliza Emtree. Es importante saberlo porque esto implica que no puedes “copiar y pegar” una estrategia hecha en PubMed para hacerla igual en Embase. La pregunta y los términos son los mismos, los descriptores del tesauro no lo son.

Los operadores booleanos son iguales: AND, OR, NOT. Pero en algunas bases de datos se toma por defecto el AND entre los términos, aunque no se especifique. Es importante emplear 5min en leer cómo se usa la base de datos que vamos a usar.

Como regla general, vamos a ir haciendo búsquedas simples con cada término de la pregunta PICO. Cada apartado puede estar formado por más de un término, del cual vamos a necesitar su descriptor (si lo tiene) y sus sinónimos, que uniremos con OR. ¿Que por qué usaremos los sinónimos? Porque hay algunos artículos que aún no están indexados con descriptores, con el tesauro. Por ejemplo, en PubMed son documentalistas quienes indexan y otorgan MeSH a los artículos. No todos los artículos que incluye PubMed tienen MeSH, los más recientes de algunas revistas tardan en disponer de descriptores y la única forma de recuperarlos en una búsqueda es a través de palabras clave.

Como os decía: para cada elemento de la pregunta PICO buscamos por separado descriptor y sinónimos. Vamos construyendo primero la estrategia de búsqueda para la P. Cuando la tenemos, pasamos a la I siguiendo los mismos pasos. Es importante ir viendo los resultados de cada búsqueda para detectar posibles errores. Puede que hayamos equivocado un operador booleano o uno de los sinónimos nos esté devolviendo demasiado ruido. Es importante ir ajustando cada búsqueda simple. Cada elemento de la pregunta PICO se unirá con AND. La mayor parte de las veces sólo haremos la búsqueda de PIC, incluso sólo la PI. Depende de la pregunta de investigación. La O será determinada por los expertos que hagan la lectura crítica.

Pensad que hacer la estrategia de búsqueda a partir de la pregunta de investigación es un trabajo en equipo y puede llevar unas 20 horas de trabajo especializado. Entended la importancia de contar con un bibliotecario o documentalista experto en Ciencias de la Salud. Y de contar con un Metodólogo y un Bioestadístico. Esto no quita para que cada miembro del equipo entienda un poco del trabajo del resto, pero es bueno que cada uno se pueda centrar en lo suyo.

Los resultados de la búsqueda se trasladarán a un gestor de referencias, mejor uno que permita el trabajo colaborativo, para que los expertos puedan hacer la lectura crítica de los artículos recuperados. Es importante que la fase de búsqueda no haya dejado fuera ningún artículo. Y es importante la fase de lectura crítica porque será la que determine las conclusiones finales.

Escuela Universitaria Enfermería - FJD

 

Más enlaces interesantes:

Enlace al hilo de Twitter:

María bibliovirtual en Twitter -hilo-
María bibliovirtual en Twitter -hilo-
María bibliovirtual en Twitter -hilo-

 

 

Search Workbench – compara y comprende tus búsquedas en PubMed


Esta mañana he estado probando una nueva herramienta creada por Edwin Sperr, Clinical Information Librarian en la Universidad de Augusta/Universidad de Georgia (EEUU). La herramienta deriva de su trabajo en Visualizing PubMed y se llama Search Workbench.

Cuando queremos realizar una búsqueda compleja en PubMed tenemos que pensar en unir los términos de nuestra búsqueda con lógica Booleana, es decir, usando los conectores AND, OR o NOT. Como utilidad primaria, esta herramienta te puede ayudar a entender el uso de los operadores booleanos, ya que muestra los resultados en un diagrama de Venn. En el siguiente ejemplo vemos los resultados de introducir el operador OR o el operador AND con los mismos términos. ¿Ves la diferencia de resultados al utilizar un operador u otro? (pincha en la imagen para agrandar)

diferencia entre AND y OR

Esta herramienta además ofrece una visualización por años de publicación en PubMed, de manera que podemos ver cuándo se ha comenzado a investigar y publicar más sobre un tema en concreto. En el siguiente ejemplo vemos que fue a partir del año 2010 cuando se empezó a publicar sobre la cirugía laparoscópica de puerto único:

comparación de una estrategia y sus años

Hay veces que realizas una búsqueda en PubMed y la lanzas varias veces modificando algunos términos, ya que quieres comprobar el grado de relevancia de los resultados utilizando un término u otro. Comparar esos resultados, ver cuáles son los artículos que son sólo de una de las estrategias y no de la otra, puede ser bastante engorroso con la interfaz actual de PubMed. Search Workbench permite ver los resultados de una estrategia de manera gráfica utilizando un diagrama de Venn. En este ejemplo comparamos dos estrategias, una usando cirugía laparoscópica como término MeSH y en la otra como término Major Topic. Como veis hay pocos artículos de diferencia:

comparar dos búsquedas

Para ver cuáles son los artículos únicos de una búsqueda puedes pinchar en el botón Show Unique Records. En este caso, todos los artículos que recupera la búsqueda usando Major Topic se recuperan también en la otra búsqueda, por lo que no aparece ningún artículo único. Podríamos hacer esto a mano combinando las dos búsquedas con un NOT, pero existiendo una herramienta como esta, que nos facilita la vida, tampoco hace falta ir a PubMed a complicarla, ¿no?

Espero que os resulte de utilidad. Probadla porque tiene alguna cosa más que os puede interesar:

https://searchworkbench.info
https://searchworkbench.info
https://searchworkbench.info

Plagio en trabajos científicos


Hace poco, comentaba con un usuario de la biblioteca el tema del plagio en la publicación científica. Salían temas desde la publicación de artículos casi copiados palabra a palabra de otro artículo anterior, como del envío del mismo manuscrito con pequeñas variaciones y diferente título a varias revistas, como la realización de una investigación copiando el método de otra anterior, llegando al mismo resultado y publicándolo como original. También comentábamos que a veces podría darse el caso de dos investigadores llegando a las mismas conclusiones casi al mismo tiempo sin tener conocimiento del trabajo del otro investigador.

¿Cuándo hablamos de plagio? La acepción más aceptada es la que define el plagio como aquella apropiación del producto intelectual de otra persona dando a entender o afirmando que es fruto del trabajo propio.

Os decía que uno de los comentarios que surgieron en la conversación era la de la reproducción de una investigación. De hecho, para que un estudio sea válido ha de ser reproducible. Cada vez que se reproduce un estudio y se publica se debería citar la primera investigación y aportar los resultados de manera que puedan apoyar o refutar las conclusiones de la original. Cuando se copia parte del artículo publicado por otra persona y se presenta como propio también estaríamos hablando de plagio. El plagio puede ser intencionado, pero también puede que nosotros mismos estemos plagiando sin saberlo. En el blog de Neoscentia (siempre de lectura imprescindible) tenéis más información en el post “Todo lo que necesitas saber para evitar el plagio en tu tesis“.

Pero ¿quién debe proteger a los lectores/investigadores de este plagio? Las grandes editoriales ya cuentan con herramientas para comprobar si los artículos que les llegan para publicar coinciden con otros ya publicados. No suele ser un software propio, que sólo podría hacer comprobaciones en sus archivos o en aquello que esté libre en internet, sino suscripciones a herramientas que se nutren de la información de varios clientes.

Aunque es imposible comparar con todo lo publicado hasta la fecha, la herramienta Similarity Check, de CrossRef (te suena porque también es una de las agencias de registro del DOI), tiene dos funcionalidades: por un lado cuenta con una base de datos a texto completo de las copias y material de archivo de los miembros participantes (editoriales y sociedades principalmente) y por otro acceso a la herramienta de comprobación de plagios iThenticate (de Turnitin). Los grandes grupos editoriales usan Similarity Check para comprobar plagios.

Habrá más herramientas, pero creo que lo ideal sería tener una base de datos en común donde consultar todas las publicaciones.

¿Pero qué pasa si sospechas que alguien te ha plagiado? Es muy probable que en algunas revistas depredadoras (tengo un post pendiente al respecto) no se haga una comprobación de plagio. De hecho en muchas ni siquiera hay una revisión por pares del artículo. Es posible que quieras utilizar alguna de las herramientas gratuitas que tienes en el mercado y que te permitirán introducir una cadena de caracteres que se comparará con infinidad de documentos en páginas web. No serán lo más fiable del mercado, pero algo pueden hacer. En la Universidad de Murcia han recopilado unas cuantas.

En fin, este es un tema complejo que daría para muchos comentarios, ejemplos y anécdotas. ¿Conoces herramientas útiles que quieras compartir? ¿Te plagiaron y te enteraste? Adelante, el apartado comentarios es gratis.

 

¿Dónde envío mi artículo para publicarlo?


Estudiar e investigar para escribir un artículo científico lleva tiempo y esfuerzo. Además, queremos que esa dedicación y los resultados que hemos obtenido y plasmado en el artículo sean visibles para la comunidad científica. Así que el siguiente paso es publicar el trabajo. Seleccionar la revista donde queremos publicar o donde pensamos que podrían aceptarlo no es fácil. A veces prima el idioma, o la visibilidad de la revista, o la especialización de la misma, o si hace revisión por pares, o si es open access, o si tarda mucho en aceptar y publicar los artículos (¡ay, la obsolescencia, qué pronto llega!). Hay muchos factores que podrían tenerse en cuenta para enviar nuestro artículo a una revista o a otra. Para ayudarnos a tomar esta decisión podemos utilizar Journal Selector de Cofactor.

Journal Selector

Se trata de una selección limitada de revistas seleccionadas por Cofactor.

The tool currently contains a limited number of journals. They are biased towards biology and medicine; towards journals with a broad subject scope; and towards open access journals, particularly ‘megajournals’ (journals that accept all sound research without judging its importance).

Se puede hacer una selección de criterios separados en 5 categorías diferentes:

  • Subject
  • Peer review
  • Open Access
  • Speed
  • Other

Tenéis más información y posibilidad de probar la herramienta aquí:

http://cofactorscience.com/journal-selector
http://cofactorscience.com/journal-selector
http://cofactorscience.com/journal-selector