La sugerencia de envío de manuscritos a revistas hermanas


Hoy os traigo un post para plantear una cuestión. De un tiempo a esta parte está aumentando el número de revistas que yo llamo “hermanas”. Muchas revistas indexadas en JCR, con su cuartil y su factor de impacto, tienen revistas de temática similar que normalmente son Open Access (OA) o aceptan la publicación en OA, pero no están indexadas.

Es posible que os haya pasado que al recibir una negativa de publicación en una de estas revistas indexadas, el mismo editor os sugiera la publicación en otra de sus revistas, de la misma especialidad, nombre parecido en muchos casos, pero que no está indexada. Y aquí surge la duda: tus revisores me han rechazado el manuscrito en tu revista indexada pero me estás diciendo que me lo vas a publicar en tu revista “hermana”. Puede que sea OA, así que además deberé pagar por los APC (Article Processing Charge). No sabemos si la intención de estos editores es alimentar estas revistas de cara al Plan S (en el caso de que sean revistas totalmente Open Access), si quieren llevarse el artículo a su negociado quizás para empezar a alimentar una revista OA que puede llegar a posicionarse por citas (no es lo suficientemente bueno o impactante como para publicarlo en la revista principal, pero tampoco es lo suficientemente malo como para preferir que lo publique otra editorial).

Y aquí surge la duda: investigadores y autores que quieren publicar los resultados de sus investigaciones y observaciones, pero que al mismo tiempo se sienten apurados por la presión de tener que publicar en revistas indexadas y a ser posible con alto factor de impacto, ya sea para una acreditación ANECA (en España) o consecución de fondos o becas para seguir investigando y publicando.

¿No es hora de empezar a evaluar a los autores por sus trabajos y no por la revista en la que se publican? ¿Será el Plan S una solución a pesar de todos los flecos que parece que tiene? ¿Qué alternativas ofrecerán las editoriales que ahora están tan a gusto con su modelo de negocio? Está claro que se avecinan grandes cambios, pero hasta que lleguen: ¿cuál es la mejor opción?

Anuncios

La crisis de la replicabilidad


La tecnología ha traído consigo herramientas que facilitan la transparencia de la presentación de informes científicos, la comunicación y la mejora en los esfuerzos de colaboración entre investigadores. Sin embargo, en los últimos tiempos se han detectados altos índices de prácticas de investigación cuestionables, ha aumentado el número de retracciones y en general se hace necesario un escrutinio de las prácticas científicas y sus resultados. Todo esto ha dado lugar a la llamada crisis de replicabilidad.

Hoy os traigo un informe titulado Digital tools and services to support research replicability and verifiability, de octubre de este año y publicado por Jisc y escrito por Caroline Skirrow y Marcus Munafò de la Universidad de Bristol. Este informe me llegó por Twitter y no recuerdo quién lo compartió. Os cuento algunas cosas que se pueden leer en él. Este informe examina los diferentes enfoques y herramientas TIC disponibles para mejorar la replicabilidad y verificabilidad de la investigación en el área de las ciencias biomédicas y medioambientales. 

Image credit: Shout

Para elaborar este informe, además de una revisión de la literatura utilizaron el método de bola de nieve o snowballing, que es una técnica de muestreo para conseguir un marco muestral de una población. En este caso contactaron con varios investigadores y les hicieron varias preguntas como:

  • ¿Qué herramientas digitales/webs/infraestructuras conoces que promuevan la ciencia abierta?
  • ¿Qué herramientas utiliza? ¿Cómo le ayudan en su investigación?
  • ¿Qué herramientas, si las hay, le ofrecen algún tipo de ahorro en su investigación?
  • ¿Cuáles son los puntos fuertes y débiles de las herramientas que utiliza?
  • ¿Se le ocurre alguna otra herramienta o servicio digital (no disponible actualmente) que pueda ser de ayuda en su trabajo?

También se les pidió que nombraran a otros colegas que pudieran contestar estas preguntas, de manera que así también aumentó el tamaño muestral.

Comienza el informe comentando algunas de las barreras que se dan en cuanto a la replicabilidad y verificabilidad de las investigaciones. Por ejemplo, habla de los sesgos que se pueden dar al publicar: cuando un autor decide publicar un hallazgo de investigación en particular, cuando los hallazgos generan interés editorial y son revisados favorablemente por los revisores o cuando hay intereses financieros o de otro tipo. La Open Science Collaboration publicó un artículo en el que explicaban que habían intentado replicar varias investigaciones publicadas en tres de las principales revistas de Psicología. Encontraron que a pesar de que el 97% de los estudios informaron de hallazgos estadísticamente significativos, sólo el 39% pudo ser replicado. En la investigación preclínica se estima que alrededor del 50% de la investigación no es replicable.

La flexibilidad de los investigadores para elegir cómo seleccionar los datos y de informar de sus hallazgos implica que también pueden decidir si comunican o no los datos, cuáles comunicar y cómo hacerlo. Esto, a la larga, favorece la aparición de prácticas de investigación cuestionables.

Pero no sólo los investigadores tienen la culpa de los sesgos en la publicación. Las revistas publican preferentemente hallazgos estadísticamente significativos, novedosos o sorprendentes (puedes leer información relacionada aquí, aquí o aquí). Además, los investigadores se encuentran en la encrucijada de tener que publicar con regularidad y a ser posible en revistas de impacto. Esto también puede influir en los tipos de estudios que se hacen y en cómo se presentan.

El informe continúa hablando sobre los cambios culturales de años recientes sobre el modo en el que se hace la ciencia, con muchos cambios apoyados por el aumento de las conexiones, plataformas mejoradas para la  comunicación de los investigadores y una amplia oferta de opciones para almacenar datos e información. Además, estos cambios han sido apoyados por iniciativas como la Transparency and Openness (TOP) guidelines, la Declaration On Research Assessment (DORA) de San Francisco o la iniciativa All Trials que aboga por la publicación de todos los resultados de ensayos clínicos con un foco muy claro en la diseminación y transparencia de la ciencia.

Los principales interesados en las prácticas de investigación abiertas, según se indica en este informe, son:

  • Los propios científicos
  • Las revistas
  • Patrocinadores y gobiernos
  • Organizaciones mundiales 

A continuación comentan las soluciones digitales de apoyo a la replicabilidad y verificabilidad de los estudios. Desde los registros de ensayos clínicos, los repositorios institucionales, plataformas que facilitan a los investigadores un pre-registro de sus investigaciones. El siguiente gran punto del informe es el dedicado a la publicación y difusión. Para paliar en la medida de lo posible algunos de los sesgos que se nombraban al principio, aparecen iniciativas para fomentar la comunicación y el debate sobre la reproducibilidad entre los investigadores. Por ejemplo PsychFileDrawer para subir y consultar los resultados de los intentos de replicación en Psicología Experimental, o esta iniciativa más general: StudySwap. También se habla de la importancia de la publicación abierta y los e-prints. El pago para poder publicar en revistas Open Access revisadas por pares muchas veces es una barrera para la difusión de las investigaciones. Publicar los e-prints (incluyendo pre-prints) es una forma de evitar esta barrera, mejorar la transparencia de las actividades de investigación y reducir la posible duplicidad de trabajos. Los repositorios institucionales pueden almacenar los e-prints de sus investigadores, aunque también existen bases de datos de pre-prints como arXiv, PsyArXiv o PeerJ preprints. Para asegurarse de que estos pre-prints cumplen con las especificaciones de la revista, habría que consultar la herramienta Sherpa

Otro punto muy interesante de este informe es el que se refiere a las directrices mínimas para presentar informes. Hay evidencia de que completar una checklist puede mejorar la comprensión y calidad de los informes en artículos de investigación. La Equator Network es un catálogo de normas para la presentación de informes de investigación en salud. Incluye más de 400 directrices, por ejemplo las STROBE para los estudios observacionales, CONSORT para los ensayos aleatorios, PRISMA para las revisiones sistemáticas y meta-análisis y ARRIVE para la investigación animal en experimentos in vivo. 

Finaliza el informe comentando la importancia de enlazar digitalmente y de manera permanente en el tiempo todos los documentos creados en el contexto de una investigación (registro de los datos del estudio, materiales, protocolos, guión y resultados del análisis, publicaciones y materiales suplementarios). El Open Science Framework provee una plataforma única para el pre-registro, y que de forma colaborativa se emprenda, archive y compartan proyectos de investigación.

Tras la discusión, que os invito a leerla (os pongo el enlace al informe al final), podréis encontrar los anexos con información y enlaces a sitios webs, iniciativas y herramientas sobre todos los puntos que se han tratado previamente. Merece mucho la pena.

Digital tools and services to support research replicability and verifiability.
Digital tools and services to support research replicability and verifiability.
Digital tools and services to support research replicability and verifiability.

Imagen: https://geneticliteracyproject.org/2018/09/05/social-science-reproducibility-crisis-only-13-of-21-prestigious-studies-replicable/

Cómo detectar revistas depredadoras


Hace unos meses os hablaba de las revistas depredadoras y hoy, a raíz de una conversación surgida en una lista de distribución de bibliotecarios médicos, os quiero hacer partícipes de las estrategias que se pueden utilizar para diferenciar una revista depredadora de otra que no lo es, sobre todo a la hora de enviar un artículo para su publicación. La mayoría de la información que os pongo a continuación proviene de una compilación realizada por Eleanor Truex, bibliotecaria médica de Presence Health’s Lakeshore Region y del Saint Francis Hospital in Evanston (IL, EEUU)

Web sites

Lo primero que tenemos que tener claro es que es a veces no se puede estar 100% seguro de si una revista es depredadora o no. Podemos utilizar la herramienta Think Check Submit, que nos da recomendaciones sobre cómo publicar en revistas que no son depredadoras, y que además está traducida a varios idiomas (entre ellos el castellano).

Otra opción sería tener en cuenta los criterios publicados por Jeffrey Beall en 2015 para determinar los editores open-access depredadores. También podéis consultar el listado de editores creada por Beall o incluso el listado de títulos de revistas en el caso de que no se localice al editor.

Guías de bibliotecas

Algunas bibliotecas universitarias americanas tienen guías que te pueden ayudar en el proceso de distinguir si estás ante una revista depredadora. En esta guía de la biblioteca de la Universidad del Estado de Iowa os explican además por qué es malo publicar en una revista de este tipo.

Pero en España también podemos encontrar iniciativas similares. Desde la biblioteca de la Universidad de Sevilla también nos ofrecen algunas pautas para detectar las revistas depredadoras y poder evitarlas.

Artículos

En este artículo, la tabla número 10 ofrece un listado de características destacadas de las revistas depredadoras potenciales:

  • Shamseer L, Moher D, Maduekwe O, et al. Potential predatory and legitimate biomedical journals: can you tell the difference? A cross-sectional comparison. BMC Medicine. 2017;15(1). doi:10.1186/s12916-017-0785-9
Table 10. Salient characteristics of potential predatory journals doi:10.1186/s12916-017-0785-9

En el siguiente documento de trabajo de Blobaum se propone una checklist para revisar la calidad de las revistas antes de enviar el artículo para su publicación.

  • Blobaum P. Blobaum’s Checklist  for Review of Journal Quality for Submission of Scholarly Manuscripts. Faculty Research and Creative Activity. May 2013. https://opus.govst.edu/faculty/27.

El resumen de este trabajo dice así:

This checklist gives authors a list of quality indicators to assist in the evaluation of journal quality when considering what journal to submit a manuscript to. None of these indicators establish credibility and legitimacy alone, but together may build a body of evidence that will support evaluative judgments. Pay-to-publish models, and charges to publish articles in open-access format have been adopted by legitimate and reputable publishers over time, but the solicitation of manuscripts by new publishers, especially those opaque policies and promising a fast turn around and publication time, and promising peer review have proliferated, and many of these publication venues are questionable at best, unethical to say the least, and minimally, scams. Authors should use caution and consult with librarians and colleagues when considering publication venues.

En este otro artículo de Hoffecker se hace un análisis de la lista de Cabell:

  • Hoffecker L. Cabells Scholarly Analytics. Journal of the Medical Library Association. 2018;106(2). doi:10.5195/JMLA.2018.403

Y ojo con las revistas indexadas en PubMed, ya que algún título de revista depredadora se ha llegado a colar. En este artículo publicado en el CMAJ hablan de ello:

  • Manca A, Moher D, Cugusi L, Dvir Z, Deriu F. How predatory journals leak into PubMed. CMAJ. 2018;190(35):E1042-E1045. doi:10.1503/cmaj.180154

En este artículo publicado en Acta Médica Portuguesa podéis leer más información sobre la crisis de la publicación y las revistas depredadoras:

  • Hanscheid T, Hardisty DW, Henriques SO. The Crisis in Scientific Publishing: A Holistic Perspective About Background Issues Associated with Predatory Publishing. Acta Médica Portuguesa. 2018;31(10):524-526. doi:10.20344/amp.10762

Características de la web del editor

  1. Indexación: si en la web se indica que “algunos artículos han sido indexados en PubMed y PMC” deberían saltar las alarmas. Esto significa que los artículos cumplen con la Política de Acceso Público de los NIH. Mejor busca que la revista se indexe en alguna base de datos reputable como MedLine, Embase, WoS, por ejemplo. Y tampoco es lo mismo que hayan sido catalogados por alguna universidad importante a que hayan sido indexados en bases de datos con criterios de calidad. No, Google no sirve. Google Scholar tampoco. Nota sobre DOAJ: aparecer aquí implica mucho análisis; el proceso es largo y detallado para garantizar que la información que pueda ver un posible autor sea transparente y precisa.
  2. Lenguaje: utilizar “citado” en vez de “indexado”. Por ejemplo: “hay 91 citas de artículos publicados en WoS hasta junio de 2018, lo que implica un incremento de un 122% comparado con las 41 citas hasta junio de 2017”. Aquí, lo que la revista espera es que el posible autor se confunda entre las revistas que son citadas por las revistas de la WOS, y las revistas que son indexadas por la WOS.
  3. Contenido: lee alguno de los artículos publicados en esas revistas: ¿la gramática es buena? ¿indican los autores de dónde son? ¿el método indicado en el artículo es de fiar?
  4. Promesas de publicación: busca el tiempo de respuesta de la publicación: si sólo son unos días, ya tenemos una gran señal de alarma; varias semanas es más realistas, pero aún así arriesgado.
  5. Comité/consejo editorial: busca las credenciales de la junta editorial (verifica algunas en Google) y las afiliaciones. Ejemplo: ¿El dr. John Smith realmente trabaja en la Clínica Mayo?
  6. Tamaño de la editorial: cuenta el número de revistas que maneja el sitio web: ¿el número de editores parece plausible para el número de títulos?
  7. Ubicación de la revista: ¿dónde se encuentra esta revista? Los títulos extranjeros [no anglosajones] son una parte vital de la medicina mundial, pero si no son francos sobre su ubicación, eso es otra señal de alarma.
  8. Coste para el autor: averigua, si puedes, si hay que pagar por publicar y, en caso afirmativo, si la cantidad es exorbitante.
  9. Diseño de la página web: gramática, estructura de las oraciones, frases descriptivas… todo eso pueden ser pistas. ¿Funcionan los enlaces? ¿Existe un apartado de “contacto”? ¿Es transparente quiénes producen la revista? Se aconseja comprobar tanto la “sensación” general del sitio (que no descarta una web falsa hecha profesionalmente) como comprobar algún artículo suelto publicado en esa revista o por ese editor
  10. Contacto: ¿la publicación se ha puesto en contacto directamente contigo como autor? Si es así, señal de alarma. La mayoría de las revistas de renombre están saturadas de solicitudes y raramente son ellas quienes piden artículos.

Al final hay que ser consciente de la cantidad de revistas depredadoras que existen y del daño que pueden causarte como autor, ya que un buen trabajo en el que has invertido esfuerzo, recursos y posiblemente dinero, perderá relevancia o incluso credibilidad al ser publicado en una de estas revistas. Eso si tienes suerte y consigues llegar a alguien, ya que pocas veces tienen repercusión y quienes saben que son depredadoras no suelen citar sus artículos por carecer, por ejemplo, de revisión por pares.

Cuéntanos, ¿también te llegan infinidad de correos electrónicos invitándote a publicar en alguna revista o a enviar tu trabajo a un congreso donde te aseguran que será aceptado inmediatamente?

Cómo detectar revistas depredadoras

El lado divertido de la publicación en revistas depredadoras

Todo el mundo sabe que dentro de la seriedad de la investigación abunda el buen sentido del humor. Por ello no es difícil encontrar ejemplos graciosos relacionados con la publicación en este tipo de revistas:

  • Paper basado en la serie Rick and Morty: en un artículo publicado en varias revistas científicas, Newer Tools to Fight Inter-Galactic Parasites and Their Transmissibility in Zyrgion Simulation (Nuevas herramientas para combatir los parásitos intergalácticos y su transmisibilidad en Zyrgion Simulation), la científica Beth Smith presentó una investigación que describe un nuevo método para combatir los terribles parásitos que viven al implantar falsos recuerdos en sus huéspedes.

Seguramente os hayáis cruzado con algún ejemplo más o incluso hayáis mantenido una conversación vía correo electrónico con algún editor deseoso de publicar vuestro paper inmediatamente y a cambio de una suma importante. Espero que no os queden dudas sobre la importancia de NO publicar en revistas depredadoras. Y recuerda que si tienes alguna duda siempre puedes consultar con tu bibliotecaria de cabecera. Estamos para ayudaros.

Cómo estructurar un artículo científico


Ya están disponibles los datos del Factor de Impacto del año 2017 a través del JCR de la Web of Science, y el ranking 2017 de revistas de SCIMago, denominado SJR.

La información con la que se elabora este ranking se extrae de la base de datos SCOPUS (Elsevier) y, al igual que el Factor de Impacto, se usa para evaluar y analizar las publicaciones científicas. El algoritmo que se usa en el SJR no es el mismo que se utiliza para calcular el Factor de Impacto. En el artículo The SJR indicator: A new indicator of journals’ scientific prestige tenéis más información.

Al final, y en términos muy generales, la idea en ambos casos es medir la visibilidad de un artículo científico a partir de las citas que recibe.

Ten simple rules for structuring papers

Fig 1. Summary of a paper’s structural elements at three spatial scales: Across sections, across paragraphs, and within paragraphs. Note that the abstract is special in that it contains all three elements (Context, Content, and Conclusion), thus comprising all three colors.

 

Ahora bien, para empezar a recibir citas es necesario que el artículo ya esté publicado. Si hablamos de revistas serias, este artículo habrá tenido que pasar un proceso de revisión en el que no sólo se tiene en cuenta el contenido, sino también la forma. Para facilitaros la tarea, os dejo aquí un artículo muy interesante que os puede ayudar: Ten simple rules for structuring papers.

 

 

 

Mensh B, Kording K (2017) Ten simple rules for structuring papers. PLoS Comput Biol 13(9): e1005619. https://doi.org/10.1371/journal.pcbi.1005619

 

Predatory journals y la publicación científica


La guerra de las grandes editoriales y proveedores de revistas contra el acceso a las publicaciones científicas saltándose las barreras de pago es el tema de conversación hoy en día. No voy a explicar aquí mucho más de lo que se puede leer en algunos artículos (para hacerse una idea os dejo este artículo publicado en El País). Resumiendo:

@gominolasdepetroleo

Es decir, un investigador o un grupo de investigadores consigue fondos para investigar. Muchas veces son becas estatales. Cuando alguien investiga no lo hace para guardar los resultados en un cajón, sino para darlos a conocer al resto de la comunidad científica y la sociedad, de manera que todos podamos beneficiarnos y que el conocimiento crezca y se distribuya, generando nuevas investigaciones y hallazgos. ¿Cómo se difunde ese conocimiento? Mediante la publicación científica. Normalmente, para publicar un artículo el autor ha de pagar por ello. Pero antes de que el artículo sea publicado, tiene que pasar una revisión por pares (os recomiendo este post de Santiago Campillo para entender un poco más en qué consiste). Demos un salto (doy por hecho que sabéis que desde que se termina de escribir un artículo y se publica pueden pasar varios meses, para más info os remito al post que os acabo de mencionar de Santiago Campillo). El autor/autores ha tenido, muy probablemente, que pagar para que su artículo aparezca en esa publicación. Un tiempo después, este autor, tal vez, necesita acreditar que ha publicado en esa revista (por ejemplo para optar a una promoción laboral). Para adjuntar una copia de ese artículo publicado en esa revista ha de tener acceso a esa revista. Revista cuya suscripción para acceder al texto completo tiene un precio. Precio que ha de pagar o bien él o bien la institución para la que trabaja. Es decir, ha de pagar por algo que ha escrito él y por lo que además ya había abonado algo en su momento. En muchos casos, si no tiene forma de acceder al artículo mediante suscripción, suele hacerlo a través de Sci-Hub. A veces, aunque tenga acceso a través de su institución también usa Sci-Hub (véase el artículo de 2016 publicado en Science).

Puede que el artículo esté publicado en una revista que soporta Open Access. En ese caso es seguro que el autor ha pagado por publicar anteriormente. Lo bueno es que ahora cualquiera puede acceder libremente y sin coste a esa publicación científica. Bueno, la idea es que la ciencia sea abierta para todo el mundo, así que el modelo Open Access es el ideal.

Pero claro, publicar, aunque pagues por ello, no es fácil. Como hemos comentado al principio, publicar implica un proceso de revisión que no siempre se pasa. O se tarda mucho en pasar y cuando queremos publicar, otros investigadores se nos han adelantado y sus trabajos tienen más visibilidad que el nuestro precisamente por ser pioneros. Así que nuestro autor decide buscar otras revistas, quizás menos importantes pero con menos trabas a la hora de publicar. En los últimos años han aparecido editoriales y revistas que publican todo lo que se les envía. Se las conoce como predatory journals y lo único que buscan es enriquecerse con los fees que cobran a los autores que quieren publicar. No suelen tener revisores que validan el fondo y forma de los artículos. O sí tienen revisores, pero son elegidos por un equipo editorial que realmente no existe (artículo de Nature titulado: predatory journals recruit fake editor. Muy interesante su lectura, por cierto). El autor, que no tiene mucha práctica en publicar y no conoce muy bien el arduo proceso que se esconde tras el envío del manuscrito hasta su publicación, ve que le cuesta lo mismo, incluso piensa que le sale gratis, publicar en una de estas revistas que, además, es Open Access.

Pero, ¿qué son las predatory journals? Es un concepto que acuñó el bibliotecario Jeffrey Beall para referirse a los editores que crean revistas “científicas” cero rigurosas en sus publicaciones, que se valen del modelo OpenAccess para lucrarse con el dinero que le cobran a los autores por publicar. Podéis leer el artículo de Beall publicado en 2012 en Nature: Predatory publishers are corrupting open access.

Beall empezó a recopilar los títulos de estas revistas y de sus editores, con el fin de facilitar a los investigadores la localización de publicaciones que podrían poner en entredicho los resultados de su investigación. Publicó una primera lista en 2012, que desapareció al cabo de un tiempo debido a problemas políticos. Algunas editoriales incluidas en la lista, que estaba alojada en los servidores de la universidad de Colorado, acusaron a Beall por difamación. De la noche a la mañana, en enero de 2017, la lista desapareció de Internet y este hecho fue considerado por muchos como un desastre:

After the website was taken down, medical researcher Roger Pierson of the University of Saskatchewan said, “To see Beall’s work disappear would be an absolute disaster,” adding, “From an academic perspective, this represents the absence of an extremely important resource.”

Con el tiempo, apareció la Cabell’s blacklist, un listado como el de Beall, de consulta previo pago. En agosto de este mismo año reapareció una copia de la lista de una cache de la web original. Ahora mismo podéis consultar una lista actualizada en https://beallslist.weebly.com/ que no está publicada por Beall como se puede leer en el disclaimer:

I am not Jeffrey Beall. I prefer my identity to be anonymous, largely for the reasons that Beall mentioned in his recent article (see here). However, I can tell you that I am a postdoctoral researcher in one of the european universities and have a hands-on experience with predatory journals.
I will keep the list updated as much as possible, although I suspect I simply won’t have time to do as thorough job as Beall. Hopefully people will point me to the new, possibly predatory journals and publishers. However, expect the list’s applicability to diminish over time. That is why I strongly suggest anyone that deals with publishing academic articles to read the information available on ThinkCheckSubmit.org, which has tips about how to publish in a journal that is not predatory. I would also suggest you to read Beall’s criteria for identifying a predatory publisher.

Sin embargo, tanto la lista de Beall como la de Cabell, tienen sus pros y sus contras. Rick Anderson publicó en julio de 2017 un artículo sobre ello en Scholarly Kitchen.

Está claro que la facilidad de publicación de contenidos que tenemos con Internet favorece el intercambio de información. De cualquier tipo de información. Los bibliotecarios médicos tenemos un papel importante en cuanto a la alfabetización informacional de nuestros usuarios, que muchas veces desconocen el mundo de las predatory journals y además se ven presionados por la necesidad de publicar mucho en poco tiempo. Los especialistas en gestión de la información científica debemos instruir y guiar a aquellos que necesitan publicar, aportando las herramientas disponibles, desde listados como el de Beall a las normas específicas de cada revista, para que el proceso de publicación sea lo más satisfactorio y exitoso posible. Por eso, si quieres publicar, no dudes en ponerte en contacto con tu bibliotecario médico de cabecera para que te dé algunos consejos y te guíe en lo que necesites.

 

 

¿Dónde envío mi artículo para publicarlo?


Estudiar e investigar para escribir un artículo científico lleva tiempo y esfuerzo. Además, queremos que esa dedicación y los resultados que hemos obtenido y plasmado en el artículo sean visibles para la comunidad científica. Así que el siguiente paso es publicar el trabajo. Seleccionar la revista donde queremos publicar o donde pensamos que podrían aceptarlo no es fácil. A veces prima el idioma, o la visibilidad de la revista, o la especialización de la misma, o si hace revisión por pares, o si es open access, o si tarda mucho en aceptar y publicar los artículos (¡ay, la obsolescencia, qué pronto llega!). Hay muchos factores que podrían tenerse en cuenta para enviar nuestro artículo a una revista o a otra. Para ayudarnos a tomar esta decisión podemos utilizar Journal Selector de Cofactor.

Journal Selector

Se trata de una selección limitada de revistas seleccionadas por Cofactor.

The tool currently contains a limited number of journals. They are biased towards biology and medicine; towards journals with a broad subject scope; and towards open access journals, particularly ‘megajournals’ (journals that accept all sound research without judging its importance).

Se puede hacer una selección de criterios separados en 5 categorías diferentes:

  • Subject
  • Peer review
  • Open Access
  • Speed
  • Other

Tenéis más información y posibilidad de probar la herramienta aquí:

http://cofactorscience.com/journal-selector
http://cofactorscience.com/journal-selector
http://cofactorscience.com/journal-selector

 

Premios MEDES 2014


convocatoria premios MEDES 2014

Pincha en la imagen para descargar el cartel completo con las bases de la convocatoria (pdf)

Está abierta la convocatoria para participar en los premios MEDES 2014. Los Premios MEDES, que este año cumple con la 7ª edición, pretenden promocionar aquellas iniciativas que generan conocimiento de calidad y lo comunican utilizando nuestro idioma, así como reconocer a las instituciones que promueven su divulgación entre los hispanohablantes.

Pero, ¿qué es MEDES?

La Fundación Lilly desarrolla la iniciativa MEDES, que tiene como objetivo contribuir a promover la publicación científica en revistas biomédicas en español, así como favorecer su difusión nacional e internacional mediante diversas actividades de formación y divulgación.

Como elemento nuclear de la iniciativa se ha creado la Base de datos bibliográfica MEDES-MEDicina en ESpañol de acceso gratuito a través de Internet con el propósito de poner a disposición del profesional sanitario, una herramienta de consulta bibliográfica cuyas principales ventajas son la continua actualización y evaluación de sus contenidos.

MEDES cuenta con un Consejo Asesor compuesto por reconocidos profesionales del mundo de la medicina, la documentación, la publicación y la información científica y técnica, así como un Comité Técnico que valida la selección de las revistas incluidas en la base de datos y la actualiza periódicamente.

Si estás interesado en participar en esta edición de los Premios Medes, completa el siguiente formulario. Recuerda que el plazo está abierto hasta el 30 de septiembre.

 

Formulario para la convocatoria 2014.
Formulario para la convocatoria 2014.
Formulario para la convocatoria 2014.