El trabajo científico es el resultado de un proceso de comunicación de ideas. Situado sobre los hombros de gigante del conocimiento colectivo, el investigador utiliza información elaborada por otros y a su vez la produce.
Pero disponer de la infraestructura necesaria para que el científico trabaje es costoso: se necesitan materiales e información y el propio investigador debe justificar ante la sociedad la utilidad de la inversión depositada en él. Por eso es necesario evaluar el trabajo científico.
Ante la cuestión de cómo discriminar las publicaciones científicas relevantes en una disciplina, Eugene Garfield diseñó en los años 60 un indicador llamado factor de impacto, que es el resultado de dividir el número de veces en que los artículos de una revista son citados en un año, por el número total de artículos publicados en esa revista durante los dos años anteriores.
Años más tarde, a dos jóvenes investigadores: Larry Page y Sergey Brin, se les ocurrió la feliz idea de utilizar las citas, en su caso los links, como índice de la relevancia de un recurso de la red cuando diseñaron Google. La idea era, que la trayectoria sugerida por millones de links trazaría los caminos-guía del saber.
Si nos fijamos, el criterio de verdad o calidad ya no se toma de la medida en que algo se adecue o no a la realidad, sino de si este algo se convierte en un nodo de conexiones del que partan el mayor número de ramificaciones posibles.
Las mismas críticas que se nos ocurren frente a Google podrían aplicarse a los índices de impacto de las revistas científicas: En primer lugar, su modelo se aplica a un universo reducido; en un caso, a lo que está incluido en la red, en el otro a lo que se publica en el circuito de las revistas medidas por el Institute for Scientific Information o similares, dejando fuera gran parte de la producción científica que se realiza fuera del ámbito anglosajón.
Por otra parte, se premia la espectacularidad sobre la calidad, dando por hecho que las dos están necesariamente unidas, lo que en muchas ocasiones no es cierto y prueba de ello es la picaresca para aparecer en los primeros puestos de la lista: autocitas, citas de conveniencia u omisiones intencionadas.
Pero también como en el caso de Google, por el momento el factor de impacto es la mejor forma de evaluar y de orientarse en la producción científica.
A los que estén interesados en conocer a fondo este tema les invitamos a leer la presentación que nuestra compañera Ana Cabeza expuso recientemente en unas jornadas para los bibliotecarios de la BUC. Gracias también a Mabel López Medina y a Beatriz García García, sus dos compañeras de fatigas y de jornadas.