Publish or
perish (“publica o perece”) es la expresión que resume el principio
organizador de buena parte de la carrera académica moderna: para conseguir y mantener
empleo, promoción, financiación y reputación, el investigador debe publicar de
forma continua en revistas indexadas, mejor si son del primer cuartil (el mítico Q1). No se trata solo de “comunicar
resultados”, sino de cumplir un umbral de productividad medible: número de
artículos, calidad percibida del lugar de publicación, citas, impacto,
posiciones de autoría, etc. Todo suma. En esa lógica, “perecer” significa
quedar fuera de la competencia: no obtener becas o proyectos, no estabilizarse,
no ascender, no ser visible en el campo. La desaparición científica.
“Publish or
perish” resume cómo el sistema científico se ha ido racionalizando
alrededor de indicadores y procedimientos (evaluaciones periódicas, rankings,
auditorías, acreditaciones) que convierten la publicación en moneda de cambio. Esto puede
tener efectos positivos (incentivar la difusión, estandarizar criterios, aumentar
circulación de conocimiento), pero genera tensiones más que conocidas:
prioridad a lo rápido y “publicable”, aversión al riesgo (menos investigación exploratoria), presión
por fragmentar resultados, saturación del peer review y estrés, mucho estrés, especialmente en las fases iniciales
de la carrera científica.
El sistema de producción, circulación y evaluación
científica está a punto de colapsar. Si lo
analizamos con el modelo de la economía política, podemos afirmar que el coste de producir un artículo científico se reduce cada
semana. El uso de las inteligencias artificiales para definir
objetivos y preguntas de investigación, construir marcos teórico y
metodológicos, procesar datos, extraer conclusiones y redactar un informe
(acompañado de sus tablas, figuras y bibliografía) se extiende y lleva a
un incremento exponencial de la producción en
todas las disciplinas, desde la matemática y la física
hasta las ciencias sociales. El fenómeno no es nuevo pero las IA lo están hiperacelerando hasta límites impensables.
“Los modelos de IA de frontera
-en concreto, Gemini Deep Think y sus variantes avanzadas- han superado un
umbral crítico. Ya no son meras herramientas para la automatización rutinaria,
el procesamiento de datos o el formateo sintáctico; ahora son capaces de actuar
como auténticos colaboradores de nivel experto en el descubrimiento matemático
y algorítmico. A través de la informática teórica, la economía, la física y la
optimización, hemos mostrado que los LLM pueden resolver activamente conjeturas
abiertas, ajustar cotas matemáticas mantenidas durante décadas y localizar
teoremas oscuros y transdisciplinares para sortear bloqueos que frenan a los
investigadores humanos” (AAVV, “Accelerating Scientific
Research with Gemini: Case Studies and Common Techniques”, 2026).
La hiperproducción de
artículos científicos está llevando al colapso de las publicaciones científicas. Ya no solo
tardan cada vez más en dar una respuesta a los ansiosos autores: directamente rechazan textos por no tener tiempo de darles
ni siquiera una rápida ojeada. Antes, por lo menos, te
decían que el artículo “no encaja con los objetivos (o la metodología) del
journal”. El correo que nos mandó el editor sudaba
frustración. Además, no hay revisores suficientes para tantos papers. El
viernes recibí tres propuestas de revisión. Con suerte, aceptaré una. Lo mismo
está pasando con los grandes congresos científicos: la cantidad de ponencias recibidas aumenta de manera
constante. Sinceramente, no quisiera estar en las botas de un editor
científico o del organizador de un congreso. El riesgo de morir aplastado por
la masa textual es muy alto.
¿Qué hacer ante esta avalancha?
Una posible solución consiste
en utilizar las inteligencias artificiales en los
procesos de evaluación. Si millones de científicos
utilizan las inteligencias artificiales para incrementar su producción textual,
la otra forma de lidiar con esa montaña de documentos es recurriendo a las
mismas armas.
“Una posible respuesta consiste
en aprovechar la misma tecnología para ayudar a evaluar manuscritos. ‘Agentes
revisores’ especializados podrían señalar inconsistencias metodológicas,
verificar afirmaciones e incluso evaluar la novedad. Que este enfoque escalable
ayude a editores y revisores a centrarse en el fondo más que en señales
superficiales, o que introduzca desafíos nuevos e imprevistos en el proceso
científico, es una incertidumbre crítica” (AAVV, “Scientific production in the era of large language models”, Science, 2025).
Incorporar las inteligencias
artificiales a los procesos de evaluación nos lleva al tema de los sesgos y alucinaciones de los LLM. Una
inteligencia artificial podría dejar fuera de circulación un aporte científico
relevante debido a las limitaciones de entrenamiento. Ahora bien, dado que la evaluación por pares también está plagada de
sesgos y subjetividades, quizás este sistema sea el menos malo como alternativa. Una
inteligencia artificial bien entrenada -y subrayo lo
de «bien entrenada»- podría ayudar a filtrar una masa textual que no para de
crecer. Los que no quieran ser sometidos a la AI-review, siempre
pueden optar por la revisión por pares o por la publicación en abierto sin revisión.
En cualquiera de los casos, el sistema actual de producción, circulación y evaluación
está a punto de colapsar.
Carlos A. Scolari (2026), Economía
política del paper (i): La gran implosión. Hipermediaciones.
No hay comentarios.:
Publicar un comentario