Acoplando y desacoplando la revisión por pares
Coupling and decoupling peer review
Enrique Orduña-Malea
https://orcid.org/0000-0002-1989-8477
Universitat Politècnica de València
Resumen
Este trabajo aborda de forma crítica el papel de la revisión por pares como mecanismo central de la comunicación científica y de la evaluación de la investigación. El estudio tiene como objetivo analizar el origen, la evolución, el funcionamiento actual y las principales limitaciones del sistema de revisión por pares editorial, así como proponer un modelo alternativo que permita superar algunas de sus disfunciones estructurales, debidas principalmente al aumento del fraude científico derivado de la presión evaluadora basada en la productividad, así como el creciente cuestionamiento de la eficacia y equidad del sistema vigente. A tal fin, se revisa el desarrollo histórico de la revisión por pares desde sus formas tempranas en las sociedades ilustradas hasta su institucionalización en el siglo XX, describiendo su funcionamiento contemporáneo, sus modalidades y tendencias recientes, incluidas las prácticas de revisión abierta y post-publicación. Asimismo, se identifican limitaciones clave como los sesgos de editores y revisores, la falta de estandarización, la lentitud del proceso, la sobrecarga de revisores y su incapacidad para prevenir errores graves o conductas fraudulentas. Como alternativa, el trabajo propone desacoplar la revisión por pares de las revistas científicas y trasladarla a las instituciones de investigación mediante plataformas abiertas e interoperables. Este modelo busca reforzar la transparencia, mejorar los incentivos y reconocer la actividad evaluadora como parte integral del trabajo científico.
Palabras clave
Revisión por pares; evaluación científica; comunicación científica; revistas científicas; integridad académica; fraude científico
Abstract
This article critically examines peer review as a cornerstone of scholarly communication and research evaluation. The study aims to analyse the origins, evolution, current operation and main limitations of journal-based peer review, as well as proposing an alternative model that allows overcoming some of its structural dysfunctions, mainly due to the increase in scientific fraud derived from the evaluative pressure based on productivity, as well as the growing questioning of the effectiveness and equity of the current system. The article traces the historical development of peer review from its early forms in Enlightenment scientific societies to its widespread institutionalisation in the twentieth century. It describes the contemporary peer-review workflow, its main modalities and recent trends, including open and post-publication peer review. The paper also identifies major limitations, such as editorial and reviewer bias, lack of standardisation, excessive review times, reviewer fatigue, and the system’s limited ability to detect errors or prevent fraud. As an alternative, the study proposes decoupling peer review from scientific journals and relocating it within research institutions through open and interoperable platforms. This model seeks to enhance transparency, create meaningful incentives and formally recognise reviewing as a core component of scientific labour.
Keywords
Peer-review; research evaluation; scholarly communication; scientific journals; academic integrity; scientific fraud
|
Recibido:11/11/2025 Aceptado: 22/12/2025 DOI: https://dx.doi.org/10.5557/IIMEI16-N31-072098 Descripción propuesta: Orduña-Malea, Enrique, 2025. Acoplando y desacoplando la revisión por pares. Métodos de Información, 16(31), 72-98. |
1. Introducción
La revisión por pares (peer-review) es habitualmente identificada como el elemento esencial sobre el cual bascula y se asienta el proceso de comunicación de la ciencia, sirviendo como un mecanismo de autorregulación del conocimiento científico centrado en identificar y corregir errores, garantizar un umbral de calidad formal y controlar la falta de integridad científica, fraude y malas prácticas.
No obstante, este sistema de evaluación vive bajo una continua crítica, prácticamente desde su aparición, con múltiples intentos de estandarizar y optimizar sus procesos, especialmente ante el crecimiento del fraude científico y las malas prácticas, tanto desde el lado del personal científico como del lado de algunas editoriales y medios de comunicación científicos.
Este editorial pretende, en primer lugar, realizar un breve repaso al origen, evolución y objetivos del proceso de revisión por pares, describir sus principales modalidades y tendencias recientes y sintetizar sus principales limitaciones y, en segundo lugar, proponer un modelo alternativo basado en el desacoplamiento del proceso de revisión de las revistas para acoplarlo a las instituciones científicas, que deberán establecer mecanismos de recompensa adecuados.
2. Orígenes y evolución
La revisión por pares es un procedimiento mediante el cual un grupo de personas expertas (consideradas “pares” o “iguales” de las personas autoras en cuanto a conocimiento sobre la materia) evalúa la idoneidad, corrección y originalidad de un trabajo enviado a un medio de comunicación científico (principalmente a una revista) para su publicación (Benos et al. 2007). El objetivo principal de este proceso es asistir al cuerpo editorial del medio en la decisión de aceptar o rechazar la solicitud de publicación (Drozdz, Ladomery 2024).
La revisión por pares ha asimilado actualmente una amplia cantidad de funciones (Tennant 2018), entre las que se encuentra el control científico (diseño de investigación implementado; métodos y técnicas utilizadas; reclamaciones y conclusiones derivadas de y evidenciadas por los resultados), la calidad formal (redacción adecuada, legibilidad, estructura, idoneidad de las referencias bibliográficas utilizadas), la adecuación o conformidad respecto al alcance temático e intereses científicos del medio (scope), así como el cumplimiento de unos requisitos formales exigidos por un determinado medio (por ejemplo, la extensión, tipografía, numeración, etc.). Este proceso de revisión incluye asimismo la comprobación de la originalidad de los trabajos para evitar plagios (incluyendo autoplagios) y otros tipos de fraude.
Se puede asumir, por tanto, que un trabajo publicado en una revista que aplica un proceso de revisión por pares posee un sello o un marchamo de calidad contrastada. Es más, la implementación de este proceso de revisión supone delimitar la frontera que separa una revista divulgativa o informativa de una revista científica.
Por ese motivo, las bases de datos bibliográficas de literatura científica (por ejemplo, Social Science Citation Index, Scopus o Dialnet Métricas) únicamente indexan revistas que implementan mecanismos de revisión por pares. El hecho de que Google Scholar indexe publicaciones no revisadas por pares supone precisamente una de sus principales críticas a la hora de utilizar este motor de búsqueda académico en estudios bibliométricos o en procesos de evaluación de la actividad científica (Delgado López-Cózar et al. 2019). Los sistemas de evaluación de la actividad científica (tramos de investigación, acreditaciones y concursos a plazas de profesorado universitario o de personal de investigación) se basan fundamentalmente en la evaluación de los trabajos publicados en medios que aplican una revisión por pares.
Todo ello ha terminado por convertir este mecanismo de autorregulación en uno de los constructos sociales más fuertes dentro del ecosistema de la comunicación científica (Tennant 2018). Exigido y criticado a partes iguales e, incluso en algunas ocasiones, conmemorado, como el monumento al peer review erigido en la Higher School of Economics en Moscú (Schiermeier 2017).
Desde las discusiones públicas entre pensadores en las academias y escuelas de la Grecia Antigua, pasando por los encuentros entre intelectuales pertenecientes a sociedades ilustradas en cafés y salones durante la era de la Ilustración, hasta los debates en foros online en Pubpeer, la acción de compartir y debatir resultados de investigación con expertos de manera informal, tanto de forma previa como posterior a la publicación final de un trabajo, ha sido una práctica más o menos común (Spier 2002), quizá existente desde los mismos orígenes de la actividad científica. No obstante, la función de la revisión, unida al significado social que atribuimos hoy día a la publicación, ha variado enormemente a lo largo de los siglos (Moxham, Fyfe 2017).
El origen de la revisión por pares se atribuye generalmente a Henry Oldenburg, primer secretario de la Royal Society de Londres y editor de la primera revista científica de la historia, Philosophical Transactions, publicada por primera vez en 1665 y todavía en funcionamiento. No obstante, esta atribución parece ser un error (Baldwin 2017), expandido y popularizado por el trabajo seminal de Zuckerman y Merton (1971). No obstante, estudios posteriores han revelado que esta afirmación es ahistórica (Moxham 2017), situando los orígenes del peer review, tal como lo entendemos a día de hoy, en las sociedades ilustradas del Siglo XVIII (Kronick 1990).
Los primeros trazos de un proceso de revisión por pares editorial parecen encontrarse en 1731 con la publicación de Medical Essays and Observations, editada por la Royal Society of Edinburgh (Benos et al. 2007), donde el editor se encargaba de enviar copias de los trabajos enviados a un grupo de expertos en la materia (Spier 2002). En todo caso, este proceso estaba fundamentalmente orientado a facilitar la selección del artículo para su publicación y no como un mecanismo de validación (Drozdz, Ladomery 2024). Esta circunstancia se asemeja mucho al recorrido del Journal Impact Factor, creado inicialmente para ayudar en la selección de suscripciones de revistas científicas en las bibliotecas y no como un signo de calidad del trabajo (Larivière, Sugimoto 2019).
La Royal Society se ve envuelta hacia 1750 en varios escándalos mediáticos debidos a los ataques de un botánico llamado John Hill, que, al parecer, no había sido admitido en la Sociedad. Entre sus críticas acusa a la revista Philosophical Transactions de publicar contenidos de baja calidad (Moxham 2017). Estas críticas insinuaban que la Sociedad era, de alguna forma, responsable intelectual de los contenidos publicados. A raíz de este escándalo, la Sociedad asumió la gestión editorial y económica de la revista en 1752 y creó el denominado Council of Papers (Kronick 1990; Spier 2002; Drozdz, Ladomery 2024), consejo encargado de decidir de forma colectiva mediante voto secreto qué trabajos debían publicarse, estableciendo de ese modo un proceso de revisión interno que contrastaba con las incipientes prácticas de revisión externa que otras sociedades comenzaban a aplicar, como la Royal Society of Edinburgh o la Paris Académie Royale (Moxham 2017).
Las críticas al funcionamiento de este consejo se intensifican hacia 1830, gracias fundamentalmente al matemático Charles Babbage, quien desea convertir la Royal Society en una organización científica más elitista y con una revisión más profunda de los trabajos enviados. En el contexto de ese debate, William Whewell, profesor de filosofía de la ciencia en Cambridge e inventor del término “scientist” (Baldwin 2017), propone en 1831 a la Royal Society un procedimiento de comisionado de informes a académicos eminentes, que podrían publicarse y ayudar así a publicitar los trabajos publicados (Csiszar 2016). Este hecho es considerado como el nacimiento del concepto de revisión por pares.
Estos cambios llevan en 1832 al primer Duque de Sussex (el príncipe Augustus Frederick), presidente de la Royal Society en aquel momento, a requerir un informe de al menos un miembro del Council of Papers para la publicación de trabajos en Phisolophical Transactions, iniciando desde entonces un proceso de revisión de trabajos, que fue llevado a cabo en la práctica por los dos secretarios de la Royal Society, y donde los informes, salvo casos excepcionales, no se enviaban a los autores, sino que servían exclusivamente para asistir en la toma de decisión del consejo (Melinda 2017).
La revisión por pares se va asimilando como una práctica de ayuda a los editores de las distintas revistas emanadas de las sociedades ilustradas durante todo el siglo XIX (Spier 2002), de forma que la revisión otorga legitimidad científica a la Sociedad, y la Sociedad proporciona credibilidad y autoridad a las revistas (Tennant 2018). Es decir, creando un sistema donde la revisión de trabajos se convierte en un servicio elitista de lujo (Moxham, Fyfe 2017).
El proyecto Science in the making[1] contiene la colección “Referee Reports”, que incluye los informes originales escaneados de la Royal Society desde 1832 hasta 1954, constituyendo un recurso de información de indudable valor histórico y social para conocer las prácticas de comunicación científica de la época[2].
A partir de finales de siglo XIX y principios del siglo XX se comienza a apreciar un cambio significativo. En primer lugar, los informes no se solicitan únicamente para asistir al editor-in-chief de la revista, sino para mejorar la calidad de los trabajos, convirtiendo a la persona experta en una especie de protectora del conocimiento científico (Melinda 2017). Por ejemplo, el British Medical Journal comienza a utilizar en 1893 a revisores externos para realizar un análisis cualitativo de los trabajos (Drozdz, Ladomery 2024). En segundo lugar, se produce un proceso de continua especialización en las disciplinas, que conduce a una creciente dificultad para el equipo editorial a la hora de tomar decisiones informadas, requiriendo con mayor frecuencia la necesidad de informes de personas expertas (Spier 2002). En tercer lugar, se produce un aumento significativo de la producción científica. Todo ello lleva a una necesidad de institucionalización del proceso de revisión (Tennant 2018).
El proceso de expansión y generalización de la revisión por pares editorial ha sido descrito como azaroso (Benos et al. 2007), desordenado (Burnham 1990), aparte de subjetivo, lento y opaco (Aczel et al. 2025), siendo aplicado además de forma heterogénea por las editoriales y no convirtiéndose en una práctica editorial relativamente generalizada hasta después de la segunda guerra mundial. Science y The Journal of the American Medical Association no usaron un sistema de revisores externos hasta 1940 (Spier 2002), mientras que Nature no lo hace hasta 1973, momento a partir del cual el término “peer review”, originalmente utilizado para describir comités de revisión en organismos de financiación (Baldwin 2017), comienza a ser empleado con el significado actual.
3. Funcionamiento
El funcionamiento estándar actual de la revisión por pares es relativamente sencillo. La figura del editor-in-chief o, si ha delegado esa función, del handling editor de la revista (o incluso el guest editor de un número especial) recibe una solicitud de publicación. Esta solicitud es revisada por la persona editora, en algunas ocasiones leyendo el texto completo y en otras únicamente el resumen.
Tras esta revisión, el trabajo puede ser directamente rechazado (desk rejection) en el caso de que su temática esté fuera del alcance temático de la revista o no se perciba originalidad o interés, puede ser “desenviado” (unsubmitted), es decir, enviado de vuelta al autor para que cumpla con algún criterio formal exigido en las normas de publicación de la revista y lo vuelva a enviar, o aceptado para revisión.
En el caso de pasar esta primera etapa de revisión, el equipo editorial inicia un proceso de búsqueda de personas expertas. Para ello se puede utilizar alguna base de datos interna de la revista, solicitar a los propios autores que sugieran expertos, revisar las referencias citadas en el trabajo para localizar potenciales revisores, etc. Una vez seleccionadas las personas expertas, el equipo editorial envía una solicitud formal o invitación de revisión.
Una vez se ha alcanzado un número suficiente de personas expertas que hayan aceptado la solicitud (por lo general dos o tres), el proceso de búsqueda finaliza y se establece un margen de tiempo, a contar desde la aceptación de la invitación, para realizar el informe. Para ello, las personas expertas disponen de acceso al texto completo del trabajo así como a los datos brutos y posible material complementario enviado a la revista. En algunas ocasiones, las revistas exigen explícitamente un compromiso de confidencialidad con los manuscritos enviados.
Tomando como base la propuesta de Ross-Hellauer (2017), el proceso de revisión puede analizarse a partir de una serie de cinco dimensiones principales: la identidad, el contenido, la versión, la interacción y la infraestructura.
Respecto a la identidad, el proceso de revisión puede ser oculto, parcialmente público y completamente público, dando lugar a una amplia cantidad de modalidades (Bazi 2020). De esta forma, disponemos de un sistema de triple ciego (triple-blinded) cuando la identidad de autores/as, expertos/as y editor/a están ocultas, de doble ciego (double-blinded) cuando la identidad de autores/as y expertos/as está oculta, de simple ciego (simple-blinded) cuando sólo la identidad de las personas expertas está oculta, y descubierta (uncovered) cuando la identidad de todas las personas es conocida.
Con independencia de la identidad, el contenido del informe de revisión puede permanecer cerrado (visible únicamente para autores/as y editores/as) o ser publicado en abierto. En este caso, el informe puede estar depositado en la misma plataforma de la revista (por ejemplo, la revista PLoS One publica los informes de cada trabajo publicado) o en repositorios externos (por ejemplo, MetaROR[3]).
Aun cuando la interpretación de open peer review es compleja, existiendo numerosas definiciones (Ross-Hellauer 2017; 2023), se podría generalizar indicando que una revisión se considera abierta cuando cumple las dimensiones de identidad y contenido. A pesar de que la revisión en abierto no es una idea nueva, estando más estandarizado en ciencias de la salud (Wolfram et al. 2020), ha recibido recientemente un gran impulso debido a las iniciativas de ciencia abierta. Además, la apertura de los contenidos, más allá de potenciar la transparencia del proceso (Méndez 2021), la apertura pretende asimismo evitar que se desaproveche información de gran valor contextual, que se pierde en los informes confidenciales (Walker, Rocha da Silva 2015).
La publicación de los informes en abierto favorece asimismo que estos contenidos comiencen a ser tratados como trabajos con valor académico en sí mismos, con el fin de otorgar el máximo reconocimiento a sus creadores, fomentando en paralelo la realización de informes detallados, constructivos y con mayor valor añadido (Álvarez-García et al. 2026). Por ejemplo, plataformas de publicación como MetaROR publican los informes de revisión asignándoles un identificador DOI. Crossref permite desde 2024 el registro de informes de revisión como una tipología documental más (Lin 2017), y la base de datos bibliográfica OpenAlex indexa informes de revisión, que pueden ser buscados a través de sus opciones de búsqueda. Los informes podrían, por tanto, recibir citas de otros trabajos.
Las infraestructuras, tanto de las revistas como de las plataformas de publicación, pueden ofrecer servicios que fomenten la participación de una forma más fluida y dinámica (collaborative review), no sólo de las personas expertas sino de las autoras e incluso de la ciudadanía (Haklay et al. 2024). Por ejemplo, revistas como EMBO Journal o eLife ofrecen esta funcionalidad, que puede además servir de control inter-rater, y eliminar o prevenir solicitudes de modificaciones erróneas o absurdas.
Otras funcionalidad es la de publicar los informes realizados en las distintas etapas del trabajo, tanto en la primera versión del trabajo enviado, como sobre una versión ya revisada. Este concepto ha cristalizado en la creación de plataformas de publicación, como F1000 o eLife[4], en las que todos los trabajos enviados son publicados como preprints. A partir de ese momento, se establece un proceso iterativo de revisión, donde la plataforma invita a expertos externos a revisar la versión depositada y a publicar sus informes, que se registran con un DOI. Esta práctica, no obstante genera algún problema bibliográfico pues se generan DOIs para cada versión revisada, por lo que las citas pueden aparecer dispersas en las bases de datos bibliográficas, que crean registros separados para cada versión. Algunas revistas y plataformas ofrecen incluso la posibilidad de revisar trabajos ya publicados, un concepto denominado post-publication review (Florian 2012). Por ejemplo, PubPeer[5] o Science Open[6] ofrecen una amplia cantidad de funcionalidades post-publicación.
Durante la última década se ha producido un proceso de valorización de los informes de revisión como objetos con valor en sí mismos. La disponibilidad de estos informes en formato digital unido a las funcionalidades interactivas incorporadas en las plataformas que alojan a los informes han abierto una vía para el análisis cuantitativo y cualitativo de los informes de revisión, que en algunos casos incluso han derivado en el establecimiento de métricas e indicadores, que podrían potenciar o facilitar el diseño de sistemas de incentivos y recompensas a las tareas de revisión.
Un ejemplo paradigmático de ello es Publons (Van Noorden 2014), una base de datos de revisiones recopiladas inicialmente a partir de correos electrónicos enviados directamente por las personas expertas, y centrada en cuantificar la cantidad de revisiones realizadas por revista. Publons fue posteriormente adquirida por Clarivate Analytics (Teixeira da Silva, Al-Khatib 2019) y su base de datos fue integrada en los perfiles de autor de Web of Science, siendo actualmente las revistas las que envían los informes directamente al sistema, incluyendo en algunas ocasiones el texto completo del informe.
De esta forma, pueden obtenerse no sólo estadísticas relativas a la productividad (informes totales realizados, por fecha y por revista), sino a la amplitud (número de revistas distintas en las que se ha evaluado) e incluso la extensión del informe. Por ejemplo, en mi caso particular, a fecha de 10 de enero de 2026, dispongo de 185 revisiones verificadas, con un promedio de 608 palabras por informe, calculado a partir de una muestra de 46 revisiones. La extensión promedio de mi institución es de 355 palabras (siendo 363 el promedio mundial). Así mismo, la posibilidad de descargar los informes de revisión o métricas de interacción o valoración de plataformas como F1000 (por ejemplo: Waltman, Costas 2014; Bornmann 2015) o Pubpeer (por ejemplo: Ortega 2022) ha permitido la realización de estudios relevantes sobre el funcionamiento de los procesos de revisión.
4. Limitaciones de la revisión por pares
El sistema de revisión por pares ha sido criticado prácticamente desde sus orígenes, siendo descrito ya en 1845 como un proceso “lleno de envidia, odio, malicia y toda falta de caridad”[7] (Csiszar 2016), pero a la vez aceptado como un “lo mejor que tenemos” (Tennant 2018), debido quizá a la continua sensación de que todas las alternativas propuestas son menos óptimas (Jubb 2016). Parafraseando las conocidas palabras de Winston Churchill, viene a ser como si el proceso de revisión por pares fuera el peor sistema de revisión, excepto todos los demás[8].
Las limitaciones del proceso de revisión por pares como mecanismo de autorregulación del conocimiento científico han sido ampliamente analizadas por la literatura científica (por ejemplo: Haffar et al. 2019) y pueden dividirse según el agente que interviene (editor/a y revisor/a). Entre las limitaciones existentes, los sesgos de las personas expertas, entendidos como falta de imparcialidad en la evaluación (Lee et al. 2013), constituyen el tipo de limitación más comúnmente estudiado. Estos sesgos pueden dividirse a su vez en sesgos conscientes e inconscientes (Drozdz, Ladomery 2024).
El personal científico actuando con el rol evaluador puede presentar sesgos hacia ciertas características del personal científico que actúa con el rol de autor, como su nacionalidad, afiliación, idioma, prestigio o género (Lloyd 1990; Lee et al. 2013; Ross 2017). Por ese motivo se tiende a utilizar un sistema de doble ciego, con el fin de minimizar o amortiguar esos sesgos, aunque la ocultación de la autoría (author masking) es no impide a las personas que realizan las revisiones reconocer o identificar a las personas autoras (Vareberg et al. 2025). Adicionalmente, pueden existir sesgos debidos a la formación o escuela de pensamiento de la persona evaluadora, que podrían afectar positiva o negativamente a la evaluación de trabajos que tratan ciertos temas, usan determinadas técnicas, obtienen resultados positivos o negativos o confirman o refutan ideas o creencias previamente adquiridas. El open peer review trata de minimizar estos sesgos, convirtiendo a la persona revisora públicamente responsable de comentarios injustos o poco realistas, aunque esto puede potenciar como contrapartida el aumento de revisiones positivas (Drozdz, Ladomery 2024), así como a reducir la cantidad de personas dispuestas a evaluar (Van Rooyen et al. 1999). Adicionalmente, existen casos en los que las personas expertas censuran trabajos que afectan a resultados previos propios, rechazan o retrasan la publicación de trabajos de equipos con los que compiten o incluso rechazan trabajos para apropiarse posteriormente de las ideas y publicar sus propios trabajos (Dyer 2016).
Estos sesgos pueden producirse igualmente con las personas encargadas de la edición, quienes, además, siempre van a conocer la identidad de las personas autoras. De esta forma, pueden sugerir a personal investigador externo muy estricto o con visiones opuestas a las mostradas en los trabajos, con fines objetivos (recibir informes con visiones distintas para obtener una visión más amplia de un trabajo) o menos nobles (seleccionar personas revisoras para facilitar el rechazo de un trabajo). Por el contrario, en otras ocasiones se solicitan revisiones a personas cercanas a las autoras para obtener informes positivos que respalden la publicación de un trabajo. Por tanto, la posición de editor/a no es necesariamente neutral.
Más allá de los sesgos de las personas que evalúan los trabajos, otras limitaciones del proceso de revisión son más estructurales (Benos et al. 2007).
En primer lugar, el proceso de revisión por pares no garantiza la publicación de trabajos con errores, ya sean inconscientes o conscientes. El aumento del número de artículos retractados (trabajos rechazados tras haber sido publicados al haberse descubierto errores relevantes o prácticas fraudulentas) crece a un ritmo imparable, principalmente debido a la presión por publicar derivada de los procesos de evaluación de la actividad científica (Delgado-López-Cózar et al. 2021). Si tomamos datos de Scopus, se localizan 107 publicaciones retractadas para artículos publicados en el 2000 y 6.967 para trabajos publicados en 2022, a fecha del 10 de enero de 2026. Es más, ya se detectan 663 publicaciones retractadas en trabajos publicados en 2025[9]. El aumento del fraude científico, unido al número de retractaciones, es señal inequívoca de las limitaciones del peer review (Lerner 2003).
No obstante, no todos los problemas provienen de parte de las personas autoras. Un análisis del perfil en X (aka Twitter) de la profesora María Ángeles Oviedo-García[10] nos permite descubrir la expansión de revisiones de una extensión inadmisible, incluso en algún caso de 3 palabras (#ReviewLikeATweet), informes de personas que declaran explícitamente no ser expertas en la temática (#IamNOTanExpert), revisores/as que exigen a citas a sus trabajos (#CoerciveCitation) o incluso informes clonados para distintos trabajos (#FakeReview).
Por otro lado, existen evidencias del fenómeno justamente contrario, es decir, del rechazo a estudios relevantes. Campanario (2009) reporta hasta 24 casos de personas galardonadas con el premio Nobel, cuyos trabajos fueron rechazados por las revistas, entre los que destacan el caso de Sir Hans A. Krebs (Premio Nobel de Fisiología y Medicina en 1953), cuyo trabajo acerca del ciclo del ácido cítrico fue rechazado por Nature, al parecer, porque no disponían del tiempo suficiente para gestionar la revisión; o el trabajo de Rosalyn Yalow (Premio Nobel de Fisiología y Medicina en 1977) sobre la técnica del radioinmunoensayo (RIA), rechazada por Journal of Clinical Investigation.
En otros casos, científicos/as con prestigio acumulado puede tener un camino más sencillo a la hora de publicar (Maddox 2003), pues editores/as pueden facilitar y acelerar el proceso de revisión y publicación de ciertos autores, al percibir que sus trabajos podrían ser susceptibles de atraer citas, impacto y prestigio a la revista, en lo que se conoce como un sesgo por prestigio. En alguna ocasión, como revisor, he recibido la nota de la persona editora indicándome que el trabajo requería de una revisión rápida, al percibir el trabajo como muy relevante, transmitiendo el deseo de publicarlo lo antes posible. Por el contrario, como autor, en ocasiones he notificado a las personas editoras que mi trabajo era novedoso y que no debía demorarse la publicación, para ser el primero en analizar un fenómeno o en aportar datos sobre algún nuevo indicador o servicio. No obstante, una cuestión es acelerar la revisión y otra evitarla, o incluso controlarla mediante autorevisiones (Crosseto et al., 2026).
Por otro lado, muchas revistas se vieron obligadas a aplicar un aviso automático por correo electrónico para que todas las personas listadas como coautoras de un trabajo notificaran la aceptación del envío. Esto se debe a que algunas personas incluían como coautoras a personas de prestigio o vinculadas a instituciones prestigiosas sin que éstas fueran conscientes, con la esperanza de que esto facilitara la aceptación de los trabajos.
Una segunda limitación estructural es el tiempo de revisión. Por una parte, algunas revistas solicitan informes de revisión solicitando plazos de entrega absurdamente e injustificadamente rápidos (menos de siete días), con el fin de dar una respuesta lo más rápida posible y acelerar así el proceso de publicación al máximo. En las llamadas megajournals, incluso se solicitan informes en los que no se evalúa la originalidad, sino sólo el rigor científico (Spezi et al. 2017), que pueden potenciar la generación de informes superficiales y la publicación de trabajos defectuosos o fraudulentos. Por otra parte, otras revistas no disponen de plazos estrictos para recibir los informes, demorando la recepción de los mismos durante meses, con el consiguiente perjuicio a las personas autoras, que ven cómo la publicación de sus trabajos se retrasa, lo que puede suponer que otros equipos puedan adelantarse en la publicación de resultados similares; aunque en ocasiones hay trabajos complejos que requieren de varias rondas de revisión (Epstein et al. 2017), lo que puede suponer que el proceso de revisión se dilate durante muchos meses de forma justificada.
En algunos casos, la demora es consecuencia de una mala praxis del editor, que debe exigir a los revisores el envío de los informes requeridos o cambiar de persona experta si es necesario. En ocasiones la demora se produce por la dificultad de encontrar personas que acepten revisar el trabajo (Drozdz, Ladomery 2024). A modo de ejemplo, recientemente solicité retirar un artículo enviado a la revista Online Information Review, pues tras 12 meses desde el envío del manuscrito, no había sido capaz de obtener un informe de revisión.
La dificultad a la hora de encontrar revisores es un fenómeno conocido como “reviewer fatigue” (Breuning et al. 2015), y se identifica como otra consecuencia de las políticas de evaluación basadas en la mera productividad. Dado que las personas autoras también son revisoras, se produce un efecto de cancelación, debido a que la persona decide dedicar su tiempo a producir y no a revisar los trabajos de otras personas; no obstante, sí espera e incluso exige que su trabajo sea evaluado de forma rápida y eficiente por otras personas.
A esto se une el aumento de la producción científica mundial y, por tanto, de la necesidad de solicitar informes. A modo de ejemplo, durante 2024 se publicaron 3.917.226 trabajos revisados por pares en medios indexados en Scopus (considerando las categorías articles, reviews y conference papers). Si asumimos un promedio de dos revisiones por artículo, eso supone alrededor de ocho millones de informes anuales, sin contar una segunda ronda de revisión, y considerando solamente trabajos publicados en revistas indexadas en Scopus. Esta situación lleva a los equipos editoriales a buscar personas dispuestos a revisar aunque no sean expertas en la materia. Además, la revisión presenta una distribución desigual, con un 10% de las personas revisoras siendo responsables de un 50% de las revisiones (Petrescu, Krishen 2022), lo que plantea unos enormes sesgos pues la mayoría de estas personas provienen de determinadas zonas geográficas en países desarrollados.
Una tercera limitación estructural es la absoluta falta de estandarización del proceso de revisión. Cada revista aplica procesos diferentes con distintos controles de calidad. Algunas revistas utilizan plantillas estructuradas para facilitar la realización del informe y tratar de homogeneizar los datos recopilados, aunque muchas de estas plantillas suelen centrarse excesivamente en aspectos formales (estilo de redacción, número adecuado de tablas y figuras, referencias formateadas según los criterios de la revista, extensión del resumen, etc.) que ni siquiera deberían ser evaluados por expertos, sino por el propio equipo editorial de la revista una vez aceptado el trabajo.
Además, el trabajo que en una revista es rechazado, puede ser aceptado en otra revista, simplemente por el azar de los revisores externos que evaluaron el trabajo, por los campos de la plantilla de evaluación, que pueden diferir enormemente de una revista a otra o por la capacidad (en ocasiones el editor puede contradecir a una persona experta y aceptar o rechazar un trabajo), y no por una cuestión necesariamente relacionada con la calidad, originalidad, corrección y relevancia del trabajo. A esto se debe añadir un potencial sesgo de prestigio llamado “quality censoring”, efecto por el cual un revisor no revisa con la misma intensidad o rigurosidad para una revista de gran prestigio que para una revista menos relevante (Drozdz, Ladomery 2024), donde puede ser más permisivo; también pueden existir diferencias en función de si la revista ofrece incentivos por la revisión o no.
Las personas encargadas de la edición de la revista juegan asimismo un papel relevante, pudiendo contradecir los informes de revisión. Por ejemplo, recuerdo personalmente un caso de una editora en Frontiers in Research Metrics and Analytics que rechazó un trabajo a pesar de los informes positivos de las personas expertas, o el caso contrario de un editor en Journal of Informetrics que aceptó un trabajo a pesar de las críticas mostradas en los informes, que fueron desestimadas. En ambos casos, estas personas eran expertas reconocidas en la materia y pudieron aportar un indudable valor añadido al proceso de revisión. En otras ocasiones, la persona a cargo del proceso de edición se puede aferrar a los informes para su toma de decisión aunque la autora intente demostrar que las críticas carecen de sentido o son falsas. En muchas ocasiones, los trabajos se rechazan directamente tras la primera ronda de revisión, sin dar la oportunidad a las personas autoras a rebatir los comentarios de los informes, lo que supone una limitación a los derechos jurídicos fundamentales de respuesta (Arabi, AlMarzouqi 2026).
La calidad variable—y en muchos casos insuficiente—de los informes de evaluación ha llevado en distintas ocasiones a plantearse la necesidad de formar adecuadamente al personal investigador para que ejerzan adecuadamente su rol evaluador (Walbot 2009), fomentando una aproximación constructiva y no agresiva o burlesca (Mavrogenis et al. 2020), evitando comentarios inapropiados, subjetivos, poco argumentados o incluso inventados.
Esta es una limitación inherente al delegar el proceso de revisión a seres humanos. Ahora bien, el creciente uso de herramientas construidas sobre large-language models (LLMs) para realizar informes de revisión (Kousha, Thelwall 2024; Naddaf 2025; Sun 2025), especialmente a la hora de comprobar su originalidad o el cumplimiento de requisitos formales de publicación (Checco et al. 2021), no garantiza esa homogeneidad, pues estas herramientas son inestables y pueden ofrecer distintos resultados ante una misma pregunta, resultando el proceso de revisión en una lotería (Russo et al. 2025). Es más, se han detectado prácticas consistentes en introducir texto oculto en los manuscritos para que sean leídos y evaluados positivamente por estas aplicaciones (Gibney 2025).
Todas estas limitaciones han llevado a la comunidad científica a preguntarse si el sistema de revisión está en crisis (Adam 2025) o completamente roto (McCook 2006; Horta, Jung 2024), así como a plantear alternativas (por ejemplo: Birukou et al. 2011; Gould 2013; Walker, Rocha da Silva 2015; Tennant et al. 2017; Emile 2021; Aczel et al. 2025) que, lamentablemente, no terminan de asentarse. Esto es debido principalmente a que el personal científico no percibe un verdadero mecanismo de recompensa económico por parte de las revistas (Copiello 2018), ni de capital académico por parte de las instituciones de investigación (Tennant 2018).
5. Desacoplando revistas y acoplando instituciones
La mayoría de propuestas de modificación del proceso de revisión por pares se centran, por una parte, en modificar el proceso de interacción entre creadores y revisores, especialmente a través de las plataformas de las propias revistas o bien a través de nuevas plataformas de publicación separadas de las revistas y, por otra parte, en valorizar los informes de revisión, tratándolos como si fueran publicaciones, con autoría declarada, identificadores únicos e indexación en bases de datos bibliográficas. Sin embargo, a mi juicio, todas estas iniciativas están abocadas, a medio o largo plazo, al fracaso.
En el primer caso, las funcionalidades insertadas en las plataformas editoriales de las revistas se han implantado en pocas revistas, la mayoría del ámbito de la medicina y salud. Aunque algunos casos como F1000 traten de expandirse a otras disciplinas[11], el grado de adopción es bajo, especialmente en ciencias sociales y humanas. Por otro lado, las plataformas de publicación independientes suponen una ruptura total del proceso, donde las personas autoras deciden publicar sus trabajos como preprints, y luego someterse a rondas de revisión que pueden ser lentas y largas en el tiempo. Además, existe cierto rechazo a este procedimiento, debido a que puede perjudicar la publicación final de los trabajos en ciertas revistas que no admiten trabajos que hayan estado previamente disponibles al público, cuando justamente la publicación final en una revista es el mérito exigido al personal investigador para poder optar a un puesto de trabajo o promocionar. Por tanto, estas plataformas suelen ser un lugar para personas asentadas y establecidas, que ya no necesitan publicar por canales de comunicación científicos tradicionales y pueden permitirse explorar y experimentar otras opciones de publicación, o bien grupos de más minoritarios de personas con ganas de experimentar o romper con el sistema establecido.
En el segundo caso, el tratamiento de los informes como publicaciones en sí mismas es de gran interés, y puede potenciar la realización de informes más profundos, constructivos y útiles, sirviendo al mecanismo de autocontrol de la comunidad científica en su forma más ideal y utópica. Con todo, la literatura científica ha mostrado evidencias contradictorias respecto a la hipótesis de que la publicación de informes en abierto (tanto identidad como contenido) produzca necesariamente informes de mayor calidad (Tennant 2018), generando otros daños colaterales, como la realización de informes positivos, para no generar confrontación con autores o críticas de otros colegas. Estas iniciativas, de nuevo en mi opinión, no podrán asentarse hasta que no se diseñen verdaderos mecanismos de compensación. Si la realización de informes no comporta ningún beneficio (bien económico o en el currículum de las personas), el esfuerzo en realizar informes más elaborados tendrá un efecto limitado, que irá diluyéndose en el tiempo. En España, los procesos de evaluación de la actividad científica no contemplan los informes de revisión como contribuciones a ser evaluadas, así como tampoco se tiene en cuenta la actividad como revisor experto en concursos de plazas, ni en el reconocimiento interno de actividad científica en las instituciones de investigación.
Esta cuestión genera situaciones incomprensibles. En algunos casos puede reconocerse formar parte del comité editorial de una revista o del comité científico de un congreso, donde una persona puede haber sido incluido honoríficamente, mientras que haber participado como persona experta evaluadora de un trabajo en una revista de prestigio (por ejemplo Nature o Science, por decir dos revistas de prestigio) no es una labor reconocida de ninguna forma. Es decir, la responsabilidad de decidir si otra persona obtiene un trabajo publicado en Nature, por ejemplo, no es un mérito evaluable.
Por ese motivo, es mi intención proponer en este trabajo una alternativa radical al modelo de revisión existente. Muy posiblemente se trate de una aproximación utópica, inocente, económicamente inabordable, políticamente inapropiada y que, aun cuando fuera aplicada, no consiguiera resolver todas las limitaciones indicadas a lo largo de este manuscrito.
La propuesta se basa fundamentalmente en desacoplar el proceso de revisión de las revistas científicas (Tennant 2018), pero en lugar de llevarlo a plataformas de publicación, propone llevarlo directamente a las instituciones de investigación, a partir de plataformas abiertas e interoperables. La propuesta se basa en la existencia de tres plataformas interconectadas, una de expertos, otra de revisiones y otra de editoriales, que se describen a continuación.
Reviewer Platform. Las personas con afiliación institucional serían dados de alta en esta plataforma directamente desde las instituciones. Adicionalmente, las personas sin afiliación institucional (o afiliadas a instituciones que no fueran de investigación) podrían darse de alta como personal externo o independiente, donde se podría incluso dar cabida a profesionales y expertos no necesariamente contratados como personal de investigación, devolviendo el concepto de “peer” a la experticia adquirida y no al título, un tema polémico, por otra parte. Por tanto, esta plataforma sería una base de datos mundial de personas disponibles para la revisión de trabajos científicos, interconectada con ORCID, ROR y otros identificadores de interés. De esta forma, cuando una persona terminara un trabajo en el que sintetiza sus resultados científicos, debería enviar su manuscrito a esta plataforma de revisión, con el fin de buscar revisores interesados en evaluar el trabajo. Este envío se canalizaría a través de una oficina insertada dentro de cada institución de una forma relativamente automática. El personal experto estaría clasificado por campos científicos y, por tanto, se generaría una alerta para personas alineadas con el campo científico asignado al trabajo por parte del autor. En el caso de trabajos con autoría de más de una institución, esta labor la realizaría la persona marcada como autora de correspondencia. La plataforma gestionaría la aceptación o rechazo de las solicitudes de revisión y, cuando se alcanzara al grupo de personas evaluadoras suficiente, el trabajo se enviaría la plataforma de revisión.
Review platform. Esta plataforma tendría unas funcionalidades similares a las que actualmente poseen muchas plataformas de publicación, con la posibilidad de potenciar la interacción entre personas autoras y revisoras, y entre revisoras, habilitando además un control de versiones. Tras un número determinado de turnos de revisión, se llegaría a un documento final, que quedaría publicado en abierto como postprint[12], junto a los informes de revisión. Solamente este postprint tendría un ID, que quedaría alojando en el repositorio institucional. Los datos brutos del trabajo, en caso de existir, deberían estar alojados e interconectados igualmente en el repositorio. Por tanto, esta plataforma haría las funciones de depósito del conocimiento científico, inspirándose en el concepto de scholarly record management (Martin-Martin 2022).
Exhibition platform. Una vez el trabajo quedara en formato postprint, éste se transferiría a una tercera plataforma, a la que tendrían acceso las editoriales científicas, que podrían de esta forma navegar y localizar trabajos de interés para publicar formalmente en sus revistas. Una vez localizado, se pondrían en contacto con la persona autora principal para llegar a un acuerdo de publicación. Las revistas podrían entonces ofrecer sus servicios de publicación, incluyendo la maquetación, visualización avanzada de figuras, tablas, infografías, elementos interactivos, difusión, indexación en bases de datos bibliográficas, alojamiento web, asignación de DOIs u otros identificadores y otros servicios de valor añadido. Podrían igualmente requerir servicios de revisión externa que complementasen o debatieran el trabajo, pero en este caso deberían ser tratados como prestaciones de servicio remuneradas, y en ningún caso ser usadas como requisitos de publicación. Los servicios se ofrecerían a un coste determinado, a costear por sus instituciones previa aprobación. Las editoriales públicas sin costes de publicación (por ejemplo, aquellas editoriales en modalidad “ruta diamante”), podrían acceder a la plataforma de exposición de forma gratuita, mientras que las editoriales privadas deberían pagar un coste por licencia anual de acceso para poder ofrecer sus servicios al personal investigador. La plataforma de exposición sería interoperable y accesible por otras plataformas abiertas para la difusión en abierto de los postprints.
Las instituciones participantes en estas plataformas estarían obligadas a elaborar una política de participación y reconocimiento para el personal de investigación, tanto en su rol de autoría como de revisión. Tanto las revisiones realizadas, como los postprints depositados y los trabajos seleccionados por revistas para su publicación formal, deberían estar reconocidos dentro de la actividad investigadora del personal de investigación de la institución.
La figura 1 contiene una representación visual simplificada del modelo de revisión propuesto.

Figura 1. Modelo de evaluación por pares basado en el desacoplamiento de las revistas del proceso de revisión y su acoplamiento a las instituciones de investigación,
Fuente: elaboración propia.
6. Conclusiones
Como se ha podido observar a lo largo de este trabajo, el peer-review ha estado sujeto a una constante crítica, a pesar de su notable evolución desde su aparición informal y esporádica durante el Siglo XVII, su asentamiento en las sociedades ilustradas durante los Siglos XVIII y XIX, su posterior expansión y generalización durante el Siglo XX, hasta las nuevas tendencias actuales en la primeras décadas del Siglo XXI, basadas en las nuevas tecnologías web y fundamentadas en los postulados de la Ciencia Abierta.
Este trabajo pretende simplemente hacer un recorrido básico pero riguroso sobre lo que representa el proceso de revisión, sintetizando sus principales limitaciones y finalmente proponiendo un modelo basado en un cambio radical y estructural del proceso de revisión, con implicaciones y derivadas tanto en los procesos de evaluación de la actividad científica como en la organización institucional de la actividad científica en el seno de las instituciones. Queda lejos de las intenciones de este trabajo regular y establecer las condiciones específicas del funcionamiento de la oficina de publicación, de la selección del personal experto o los procesos de búsqueda de trabajos por parte de las editoriales, sino establecer el marco de trabajo conceptual de funcionamiento.
Se trata de un modelo que se sustenta en la idea de que las instituciones científicas deben controlar y recompensar a sus trabajadores por su actividad laboral, de forma similar a como ocurre en otros ámbitos laborales, y donde el proceso de autorregulación (el personal investigador es quien evalúa al personal investigador, es decir los “pares”) sigue presente, pero desligado del proceso editorial de las revistas.
Las editoriales pasan de ser receptoras de trabajos y gestoras del proceso de revisión a ser “buscadoras” de trabajos ya evaluados, eliminando así varios problemas editoriales, como la recepción de muchos trabajos de baja calidad o los tiempos de espera largos para encontrar personas expertas dispuestas a evaluar. El personal investigador, por otra parte, puede ser recompensado tanto por su actividad creadora (siendo suficiente el depósito de postprints) como por actividad evaluadora.
Obviamente, este modelo presenta varias limitaciones. En primer lugar, la resistencia de las editoriales privadas a tener que adoptar un modo activo en la búsqueda de trabajos para su publicación e incluso pagar por acceder a la plataforma de postprints, lo que puede reducir sus ingresos económicos basados en los costes asociados a la publicación. En segundo lugar, las instituciones deben financiar la creación de oficinas de publicación y diseñar políticas de recompensa adecuadas. En tercer lugar, los sistemas de investigación nacionales deben a su vez invertir en la construcción y mantenimiento de infraestructuras para crear las tres plataformas. En cuarto lugar, las agencias de evaluación deben ir un paso más allá y evaluar positivamente la actividad evaluadora de calidad contrastada.
Con todo, esta propuesta refleja una posible visión de lo que se podría lograr con suficiente inversión y compromiso de las instituciones. En mi opinión, no sólo se optimizaría la actividad investigadora, sino que se limitarían los efectos de las editoriales depredadoras y del fraude científico derivado de las prácticas evaluadoras basadas en productividad. En definitiva, es un modelo orientado a entregar la ciencia a los investigadores y a las instituciones que financian la actividad científica.
Agradecimientos
El autor agradece a Núria Bautista-Puig sus valiosos comentarios y sugerencias realizadas sobre versiones previas de este manuscrito.
Bibliografía
ACZEL, B., BARWICH, A. S., DIEKMAN, A. B., FISHBACH, A., GOLDSTONE, R. L., GOMEZ, P., GUNDERSEN, O.P., VON HIPPEL, P.T., HOLCOMBE A.O., LEWANDOWSKY, S., NOZARI, N., PESTILLI, F. y IOANNIDIS, J. P., 2025. The present and future of peer review: Ideas, interventions, and evidence. Proceedings of the National Academy of Sciences, 122(5). doi: 10.1073/pnas.2401232121
ADAM, D., 2024. The early days of peer review: five insights from historical reports. Nature, 634(8035), 761–762. [Consulta: 20 enero 2026]. Disponible en: https://www.nature.com/articles/d41586-024-03287-4
ADAM, D., 2025. The peer-review crisis: how to fix an overloaded system. Nature, 644(8075), 24–27. doi: 10.1038/d41586-025-02457-2
ÁLVAREZ-GARCÍA, E., GARCÍA-COSTA, D., SQUAZZONI, F., MALIČKI, M., MEHMANI, B. y GRIMALDO, F., 2026. Published peer review reports have higher informative content than unpublished reports. Journal of Informetrics, 20(1). doi: 10.1016/j.joi.2025.101760
ARABI, A.A. y ALMARZOUQI, A.H., 2026. Academic Peer Review: Eliminating the Option of ‘Reject’ Without Author Response. Learned Publishing, 39(1). doi: 10.1002/leap.2038
BALDWIN, M., 2017. In referees we trust?. Physics Today, 70(2), 44–49. doi: 10.1063/PT.3.3463
BAZI, T., 2020. Peer Review: Single-blind, Double-blind, or All the Way-blind?. International Urogynecology Journal, 31(3), 481–483. doi: 10.1007/s00192-019-04187-2
BENOS, D.J., BASHARI, E., CHAVES, J.M., GAGGAR, A., KAPOOR, N., LAFRANCE, M., MANS, M., MAYHEW, D., MCGOWAN, S., POLTER, A., QADRI, Y., SARFARE, S., SCHULTZ, K., SPLITTGERBER, R., STEPHENSON, J., TOWER, C., WALTON, R.G. y ZOTOV, A., 2007. The ups and downs of peer review. Advances in physiology education, 31(2), 145–152. doi: 10.1152/advan.00104.2006
BIRUKOU, A., WAKELING, J. R., BARTOLINI, C., CASATI, F., MARCHESE, M., MIRYLENKA, K., OSMAN, N., RAGONE, A., SIERRA, C. y WASSEF, A., 2011. Alternatives to peer review: novel approaches for research evaluation. Frontiers in computational neuroscience, 5. doi: 10.3389/fncom.2011.00056
BORNMANN, L., 2015. Interrater reliability and convergent validity of F1000 Prime peer review. Journal of the Association for Information Science and Technology, 66(12), 2415–2426. doi: 10.1002/asi.23334
BREUNING, M, BACKSTROM, J., BRANNON, J., GROSS, B.J. y WIDMEIER, M., 2015. Reviewer fatigue? Why scholars decline to review their peers’ work. PS: Political Science & Politics, 48(4), 595–600. doi: 10.1017/S1049096515000827
BURNHAM, J. C., 1990. The evolution of editorial peer review. Jama, 263(10), 1323–1329. doi: 10.1001/jama.1990.03440100023003
CAMPANARIO, J. M., 2009. Rejecting and resisting Nobel class dis-coveries: accounts by Nobel Laureates. Scientometrics, 81, 549-565. doi: 10.1007/s11192-008-2141-5
CHECCO, A., BRACCIALE, L., LORETI, P., PINFIELD, S. y BIANCHI G., 2021. AI-Assisted Peer Review. Humanities and social sciences communications, 8(25). doi: 10.1057/s41599-020-00703-8
COPIELLO S., 2018. On the money value of peer review. Scientometrics, 115, 613–620. doi: 10.1007/s11192-018-2664-3
CROSSETO, P., GOMEZ BARREIRO, P. y HANSON, M.A., 2026. The Issue with Special Issues: when Guest Editors Publish in Support of Self [en línea]. Arxiv. doi: https://doi.org/10.48550/arXiv.2601.07563
CSISZAR, A., 2016. Peer review: Troubled from the start. Nature, 532, 306–308. doi: 10.1038/532306a
DELGADO LÓPEZ-CÓZAR, E., ORDUÑA-MALEA, E. y MARTÍN-MARTÍN, A., 2019. Google Scholar as a data source for research assessment. En W. GLÄNZEL, H. F. MOED, U. SCHMOCH y M. THELWALL (eds). Springer handbook of science and technology indicators. Cham: Springer, pp. 95–127. ISBN: 978-3030025113. doi: 10.1007/978-3-030-02511-3_4
DELGADO-LÓPEZ-CÓZAR, E., RÀFOLS, I. y ABADAL, E., 2021. A call for a radical change in research evaluation in Spain. Profesional de la información, 30(3). doi: 10.3145/epi.2021.may.09
DROZDZ, J.A. y LADOMERY, M.R., 2024. The peer review process: past, present, and future. British Journal of Biomedical Science, 81. doi: 10.3389/bjbs.2024.12054
DYER O., 2016. Peer Reviewer Stole Article and Published It as His Own. BMJ, 355. doi: 10.1136/bmj.i6768
EMILE, S.H., 2021. Interactive platform for peer review: a proposal to improve the current peer review system. World Journal of Clinical Cases, 9(6), 1247–1250. doi: 10.12998/wjcc.v9.i6.1247
EPSTEIN, D., WISEMAN, V., SALARIA, N. y MOUNIER-JACK, S., 2017. The need for speed: The peer-Review process and what are we doing about It? Health Policy Plan, 32, 1345–1346. doi: 10.1093/heapol/czx129
FLORIAN, R.V., 2012. Aggregating Post-Publication peer reviews and ratings. Frontiers in Computing Neuroscience, 6. doi: 10.3389/fncom.2012.00031
GIBNEY, E., 2025. Scientists hide messages in papers to game AI peer review. Nature, 643(8073), 887–888. doi: 10.1038/d41586-025-02172-y
GOULD, T.H., 2013. Do we still need peer review?: An argument for change. Lanham: The Scarecrow press. ISBN: 978-0810885745
HAFFAR, S., BAZERBACHI, F. y MURAD, M.H., 2019. Peer review bias: a critical review. Mayo Clinic Proceedings, 94, 670–676. doi: 10.1016/j.mayocp.2018.09.004
HAKLAY, M., KÖNIG, A., MOUSTARD, F. y ASPEE, N., 2023. Citizen science and Post-Normal Science’s extended peer community: Identifying overlaps by mapping typologies. Futures, 150. doi: 10.1016/j.futures.2023.103178
HORTA, H. y JUNG, J., 2024. The crisis of peer review: Part of the evolution of science. Higher Education Quarterly, 78(4). doi: 10.1111/hequ.12511
JUBB M., 2016. Peer Review: The Current landscape and future trends. Learned Publishing, 29, 13–21. doi: 10.1002/leap.1008
KOUSHA, K. y THELWALL, M., 2024. Artificial intelligence to support publishing and peer review: A summary and review. Learned Publishing, 37(1), 4–12. doi: 10.1002/leap.1570
KRONICK, D.A., 2012. Peer review in 18th-century scientific journalism. JAMA, 263(10), 1321–1322. doi: 10.1001/JAMA.1990.03440100021002
LARIVIERE, V. y SUGIMOTO, C.R., 2019. The journal impact factor: A brief history, critique, and discussion of adverse effects. En W. GLÄNZEL, H. F. MOED, U. SCHMOCH y M. THELWALL (eds). Springer handbook of science and technology indicators. Cham: Springer, pp. 3–24. Cham: Springer. ISBN: 978-3030025113. doi: 10.1007/978-3-030-02511-3_1
LEE, C.J., SUGIMOTO, C.R., ZHANG, G. y CRONIN, B., 2013. Bias in peer review. Journal of the American Society for information Science and Technology, 64(1), 2–17. doi: 10.1002/asi.22784
LERNER, E.J., 2003. Fraud shows peer review flaws. Industrial Physicist, 8(6), 12–17.
LIN, J., 2017. Peer reviews are open for registering at Crossref [en línea]. Crossref. [Consulta: 20 enero 2026]. Disponible en: https://www.crossref.org/blog/peer-reviews-are-open-for-registering-at-crossref/
LLOYD, M.E., 1990. Gender factors in reviewer recommendations for manuscript publication. Journal of applied behavior analysis, 23(4), 539–543. doi: 10.1901/jaba.1990.23-539
MADDOX, J., 2003. How genius can smooth the road to publication, Nature, 426. doi: 10.1038/426119b
MARTÍN-MARTÍN, A., 2022. Una no tan novedosa perspectiva para enfocar la gestión de la comunicación científica: aplicar los principios de records management al scholarly record. Anuario ThinkEPI, 16. doi: 10.3145/thinkepi.2022.e16a41
MAVROGENIS, A.F., QUAILE, A. y SCARLAT, M.M., 2020. The good, the bad and the rude peer-review. International Orthopaedics, 44(3), 413–415. doi: 10.1007/s00264-020-04504-1
MCCOOK A., 2006. Is peer review broken? [en línea]. The Scientist 20(2). [Consulta: 20 enero 2026]. Disponible en: https://www.the-scientist.com/is-peer-review-broken-47872
MELINDA, B., 2017. What It Was like to Be Peer Reviewed in the 1860s. Physics Today, 2017(5). doi: 10.1063/PT.5.9098
MÉNDEZ, E., 2021. Open Science por defecto. La nueva normalidad para la investigación. Arbor, 197(799). doi: 10.3989/arbor.2021.799002
MOXHAM, N. y FYFE, A., 2017. The royal society and the prehistory of peer review, 1665–1965. The Historical Journal, 61(4), 863–889. doi: 10.1017/S0018246X17000334
NADDAF, M., 2025. AI is transforming peer review—and many scientists are worried [en línea]. Nature, 639(8056), 852–854. [Consulta: 20 enero 2026]. Disponible en: https://www.nature.com/articles/d41586-025-00894-7
ORTEGA, J.L., 2022. Classification and analysis of PubPeer comments: How a web journal club is used. Journal of the Association for Information Science and Technology, 73(5), 655–670. doi: 10.1002/asi.24568
PETRESCU, M. y KRISHEN, A.S., 2022. The Evolving Crisis of the Peer-Review Process. Journal of Marketing Analytics, 10, 185–186. doi: 10.1057/s41270-022-00176-5
ROSS, E., 2017. Gender bias distorts peer review across fields, Nature. doi: 10.1038/nature.2017.21685
ROSS-HELLAUER, T., 2017. What is open peer review? A systematic review. F1000Research, 6, 588. [Consulta: 20 enero 2026]. Disponible en: https://pmc.ncbi.nlm.nih.gov/articles/PMC5437951/pdf/f1000research-6-13517.pdf
ROSS-HELLAUER, T., BOUTER, L.M. y HORBACH, S.P.J.M., 2023. Open peer review urgently requires evidence: A call to action. Plos Biology 21(10). doi: 10.1371/journal.pbio.3002255
RUSSO, G., HORTA RIBEIRO, M., DAVIDSON, T.R., VESELOVSKY, V. y WEST, R., 2025. The AI Review Lottery: Widespread AI-Assisted Peer Reviews Boost Paper Scores and Acceptance Rates. Proceedings of the ACM on Human-Computer Interaction, 9(7), 1–28. doi: 10.1145/3757667
SCHIERMEIER, Q., 2017. Monument to peer review unveiled in Moscow. Nature. doi: 10.1038/nature.2017.22060
SPEZI, V., WAKELING, S., PINFIELD, S., FRY, J., CREASER, C. y WILLETT, P., 2018. “Let the community decide”? The vision and reality of soundness-only peer review in open-access mega-journals. Journal of Documentation, 74(1), 137–161. doi: 10.1108/jd-06-2017-0092
SPIER, R., 2002. The history of the peer-review process. TRENDS in Biotechnology, 20(8), 357–358. doi: 10.1016/S0167-7799(02)01985-6
SUN, Z., 2025. Large language models in peer review: challenges and opportunities. Scientometrics, 130, 5503–5546. doi: 10.1007/s11192-025-05440-w
TEIXEIRA DA SILVA, J.A. y AL-KHATIB, A. 2019. The ClarivateTM Analytics acquisition of Publons–an evolution or commodification of peer review?. Research Ethics, 15(3–4). doi: 10.1177/1747016117739941
TENNANT, J.P., DUGAN, J.M.; GRAZIOTIN, D. et al., 2017. A Multi-Disciplinary perspective on emergent and future innovations in peer review. F1000Research, 6. doi: 10.12688/f1000research.12037.3
TENNANT, J.P., 2018. The state of the art in peer review. FEMS Microbiology letters, 365(19). doi: 10.1093/femsle/fny204
VAN NOORDEN, R., 2014. The scientists who get credit for peer review. Nature. doi: 10.1038/nature.2014.16102
VAN ROOYEN, S., GODLEE, F., EVANS, S., BLACK, N. y SMITH, R., 1999. Effect of open peer review on quality of reviews and on reviewers' recommendations: a randomised trial. BMJ, 318(7175), 23–27. doi: 10.1136/bmj.318.7175.23
VAREBERG, K.R., ROSS, E. y BERRY, I., 2025. What’s in a name? A critique of author masking in the peer review process. Review of Communication, 26(11), 50–57. doi: 10.1080/15358593.2025.2524623
WALBOT, V., 2009. Are we training pit bulls to review our manuscripts?. Journal of Biology, 8(3), 24. doi: 10.1186/jbiol125
WALKER, R. y ROCHA DA SILVA, P., 2015. Emerging trends in peer review—a Survey. Frontiers in Neuroscience, 9. doi: 10.3389/fnins.2015.00169
WALTMAN, L. y COSTAS, R., 2014. F1000 Recommendations as a potential new data source for research evaluation: A comparison with citations. Journal of the Association for Information Science and Technology, 65(3), 433–445. doi: 10.1002/asi.23040
WOLFRAM, D., WANG, P., HEMBREE, A. y PARK, H., 2020. Open peer review: promoting transparency in open science. Scientometrics, 125(2), 1033–1051. https://doi.org/10.1007/s11192-020-03488-4
ZUCKERMAN, H. y MERTON, R.K., 1971. Patterns of evaluation in science: Institutionalisation, structure and functions of the referee system. Minerva, 9, 66–100. doi: 10.1007/BF01553188
[1] https://makingscience.royalsociety.org
[2] https://makingscience.royalsociety.org/items/rr/referees-reports-on-scientific-papers-submitted-to-the-royal-society-for-publication
[3] https://metaror.org
[4] https://elifesciences.org/about/peer-review
[5] https://pubpeer.com
[6] https://www.scienceopen.com
[7] Cf. “full of envy, hatred, malice, and all uncharitableness.”
[8] “Many forms of Government have been tried, and will be tried in this world of sin and woe. No one pretends that democracy is perfect or all-wise. Indeed it has been said that democracy is the worst form of Government except for all those other forms that have been tried from time to time.…”.
Winston S Churchill (11 de noviembre, 1947).
[9] Se debe tener en cuenta que los procesos de retractación son lentos. Desde la denuncia de error o fraude hasta la decisión de la revista pueden pasar varios años. Para buscar trabajos retractados, se recomienda la consulta de la base de datos Retract Base (https://retractbase.csic.es), proyecto liderado por José Luis Ortega desde el Instituto de Estudios Sociales Avanzados del Consejo Superior de Investigaciones Científicas (CSIC) así como Retraction Watch database (https://retractiondatabase.org).
[10] https://x.com/maoviedogarcia
[11] F1000 opera en Ciencias naturales, Ingeniería y Tecnología, Medicina y Ciencias de la salud, Agricultura y Veterinaria, Ciencias Sociales y Artes y Humanidades.
[12] El concepto de preprint y postprint se refiere a las versiones de trabajos de investigación antes y después de la revisión, respectivamente; no debe confundirse con antes y después de la publicación.