történő azonosítását a tudományszociológia, ezen
belül Robert K. Mertonnak a tudományos közösség jutalmazási
rendszerével kapcsolatos gondolatai készítették elő. Az idézettség
egyre inkább a tudomány valutája (Garfield, 1982). Annak ellenére,
hogy Alison Holmes és Charles Oppenheim (2001) szignifikáns
korrelációt mutattak ki az idézettség és a minőségi mérések között,
az idézetek elsősorban az információhasznosítás formalizációját
képezik, és ebben a kontextusban az elfogadás mérőszámaként
szolgálhatnak (Glänzel – Schoepflin, 1995). Önmagában az, hogy adott
cikk több évvel a megjelenése után is alacsony vagy nulla idézettségű,
nem utal semmi másra, mint hogy reflektálatlanul maradt. Semmilyen
következtetés nem vonható le a minőségéről, sem a szerző(k)
elismertségéről. Nemegy Nobel-díjas kutatónak van visszhang nélkül
maradt dolgozata. Ugyanakkor Braun Tibor és munkatársai (1985) szerint
„ha egy cikket éveken keresztül legalább 5–10-szer idéznek minden
évben, a tartalma jó eséllyel beépül az adott tudományterület
ismeretanyagába. Másrészt viszont, ha megjelenését követően 5–10 éven
át senki nem idézi, akkor feltehetően nem tartalmaz érdemleges
eredményeket az adott tudományterület paradigmarendszerének
szempontjából”. Ez utóbbi két értelmezés kétségkívül helytálló
jellemzése az idézettség jelentőségének.
A tudománymetria széleskörű terjedése az elmúlt
évtizedben tovább rontott a helyzeten. A nagy idézettségi indexek
elterjedése, és főleg a folyóiratok impaktfaktorainak rendszeres
közzététele mindenki előtt megnyitotta a tudományelemzést. Az
impaktfaktorok a tényleges idézettségi hatás pótszerévé (Seglen,
1989), és valójában „a tudomány valutájává” váltak (Neuberger –
Counsell, 2002). Ahol az értékelésben nem szerepel közvetlenül, ott is
hatással van a folyóiratok ilyen besorolása arra, hogy a kutatók hova
adják le kézirataikat, hiszen a rangot az impaktfaktor jelzi.
Másodlagossá vált az a szempont, hogy a célközönséghez eljut-e a
dolgozat.
Az idézés általában, és különösen a minőséggel
statisztikailag fennálló korreláció ellenére az impaktfaktor megmarad
a tudományos információáramlás elsődleges mutatójának. Csupán mítosz,
hogy egyedül az idézettséggel mérni lehetne az egyes publikációk
minőségét.
2.5. A „review” cikkek
idézettségnövelő hatásának mítosza
Eszerint a review-kat mindig sokan idézik, emiatt kedvező befolyással
vannak az idézettségre. Ha – ihlet híján – review-t ír a kutató, akkor
garantáltan magas idézettségű publikációval gazdagodik. A publikációs
listákban nem szabadna szerepelnie a review-knak, mert túlértékelődhet
az egyéni teljesítmény.
Ez a mítosz bizonyos fokig
kapcsolódik az előzőhöz. Eredetét tekintve kettős: a review
folyóiratok impaktfaktora általában magasabb más tudományos
folyóiratokénál, ami „eltorzítja” a folyóiratok rangsorát. Másrészt a
review-kat általában jobban idézik, mint a kutatási cikkeket. A
rendszeresen összefoglaló műveket publikáló kutatók így érdemtelenül
juthatnak „kedvezőbb helyzetbe” a tudománymetriai értékelésben. Tény
viszont, hogy egy review megírásához az adott területen nagy
szakértelemre és saját munkásságra is szükség van.
Statisztikailag a review-k súlya meglehetősen
kicsi, tekintve, hogy az összes idézhető tétel 5 %-os küszöbét nem
lépik túl (például 2004-ben 4,37 % volt). Az távolról sem igaz, hogy
minden review gyakran idézett (4.
ábra). Az idézettségi eloszlásuk még mindig nagyon
ferde, bár kevésbé, mint a „reguláris” tudományos cikkeké. Átlagban
elmondható, hogy a review-knak nagyobb az idézettségi hatásuk, mint a
többi dokumentumtípusnak. Továbbá egy review megírásához szükséges a
magas fokú felkészültség és lényeges a saját hozzájárulás az adott
szakterület előrehaladásához. A review a tudományos kommunikációban
fontos szerepet játszik, s ezért tiszteletet érdemel.
2.6. „Non transit gloria mundi” avagy
az idézettség halhatatlanságának mítosza
Eszerint egy gyakran idézett cikk mindig az marad: a sokat idézett
szerzők soha nem veszítik el ezen jelzőjüket.
A tudománymetriai folyamatok többsége kumulatív,
így a publikációk és a kapott idézetek száma is az. A h-index (Hirsch,
2005) is ezt a hatást mutatja. A kumulatív idézettségi mutatók
látszólag megengedik, hogy a kutató a babérjain üljön, hiszen az
idézetek száma akkor is növekedni fog, ha nem publikál többé.
Magyarul: a publikáció dolgozik helyettünk.
Az ilyen kumulatív folyamatok rejtett dinamikájának
extrém példája a visszavont (retracted) tudományos munkák, amelyek
vagy érvényüket vesztették, vagy csalásra derült fény. Ezekre sokszor
nem szűnik meg az idézés, még visszavonásuk után sem (például: Pfeifer
– Snodgrass, 1990; Budd et al., 1998). Jól látszik ez Jan Hendrik
Schön példáján, aki a 20. század egyik legnagyobb tudományos
csalásával kavart botrányt. 2002-ben hirtelen ért véget a karrierje,
amikor csaláson kapták, és több megjelent írását is visszavonta a
Science, a Nature és a Physical Reviews
szerkesztősége. Mindemellett a mai napig idézik ezeket a cikkeket.
Ettől folyamatosan nő az idézettségük, pedig a szerző semmit nem
publikált az eset óta. Kivételes eset ugyan Schöné, de az látszik
belőle, hogy a tudományos kommunikáció belső sajátosságai és
dinamizmusa érvényben marad, és önálló életet kölcsönöz a műveknek a
szerző további beavatkozása nélkül is. A tudományos kommunikációban
zajló folyamatok természetesen abban az esetben sem állnak le, ha a
szerző nem kényszerül visszavonni semmilyen írást, csupán kevesebbet
vagy többé nem publikál. Ennek lehet olyan látszata, hogy a már
megszerzett előnyök tartósak. Nem csoda, hogy a kutatók meglepődnek,
ha meg kell tapasztalniuk, hogy a valaha sokat idézett műveik egyszer
csak elveszítették a rangjukat. A rangsorolás változhat, és változik
is, a szerzők és a műveik is átkerülhetnek egyik kategóriából a
másikba (Glänzel, 2007). Napról napra teljesíteni kell a kutatóknak
ahhoz, hogy megőrizzék pozícióikat a kutatói társadalom
hierarchiájában. Talán a web virtuális világában, ahol minden állandó
változásban van, és a láthatóságért mindennap meg kell küzdeni, újra
megtanuljuk, hogy a dicsőség múlandó.
2.7. Átlagok nem használhatók
a tudománymetriában
Eszerint a tudománymetriai eloszlásokra nem alkalmazhatók a klasszikus
(„Gauss-féle”) statisztikai módszerek, mivel a tudománymetriai
eloszlások diszkrétek és nagyon ferdék. Ezért célszerű előnyben
részesíteni a mediánokat és a kvantilisokat.
E mítosz háttere könnyen belátható. A Gauss-féle
normál eloszlás mint a statisztika egyik legfontosabb folytonos
eloszlása a statisztika számos területén jelentkezik. Ha egy
statisztikai minta normál eloszlású, akkor a mintaelemek
szimmetrikusan oszlanak el a mintaátlag körül, s a szórás alkalmazható
arra, hogy a mintaelemekre valamilyen toleranciaküszöbértéket
állapítsunk meg. Ám ez nyilvánvalóan nem jellemző a tudománymetriai
mintákra, mivel itt a legtöbb eloszlás diszkrét, és távolról sem
szimmetrikus. A publikációs tevékenység és az idézettség eloszlásai
gyakran nagyon is elnyújtott görbét mutatnak; a mintaelemek többsége
az átlagérték alatti, a maradék pedig az eloszlási görbe farok
szakaszában van. Ilyenkor úgy látszik, hogy sem az átlagértéknek, sem
a szórásnak semmi hasznát nem vesszük. Ezért látszólag a
momentum-alapú statisztika egyik klasszikus eszköze sem megfelelő a
kutatásértékelésben. Ez azonban tévhit. A centrális
határeloszlás-tétel kimondja, hogy nagy minták esetén a mintaátlag
eloszlása közelítőleg normális, feltéve, hogy a populáció eloszlása a
normális eloszlás vonzástartományához tartozik. Más szavakkal a
mintaátlag a minta eloszlásától függetlenül normál eloszláshoz tart,
feltéve, hogy a megfigyelések száma elég nagy és az első momentumok
végesek. Következésképpen az egyazon populációból vett különböző
minták átlagai és relatív gyakoriságai összehasonlíthatóak egymással,
és az eltérés szignifikanciája meghatározható. Az átlagok és a
gyakoriságok a várható érték, illetve a valószínűségek torzítatlan
becsléseinek tekinthetők. Sőt, erősen ferde diszkrét eloszlások esetén
az átlagérték jobban használható a mediánnál. A matematikai
statisztika tudománymetriai alkalmazásainak alapjai megtalálhatók
Schubert András és Wolfgang Glänzel (1983), valamint Wolfgang Glänzel
és Henk F. Moed (2002) munkáiban. A tudománymetriai
összehasonlítások, rangsorolások statisztikai megbízhatóságát
taglaló munkák rendszeresen jelennek meg azóta is. Ezek a statisztikai
tulajdonságok erősen befolyásolják a különféle rangsorok értelmezését.
Gyakran az egymást követő helyezések egész sora voltaképpen
holtversenyként értelmezendő, mert a rangsorolás alapjául szolgáló
mutatószám-értékek eltérése nem szignifikáns.
A normál eloszláson alapuló statisztika
tudománymetriai alkalmazhatatlanságának mítosza félreértésen alapul.
Feltételezik, hogy az egyes mintaelemeket egy sztenderdhez
hasonlítják. De a statisztika nem erről szól.
3. Zárszó
A mítoszok vágyainkat testesítik meg, velük magyarázzuk nem kedvező
eredményeinket, a siker receptjeként tekintünk rájuk. Nem fogja
meghozni a sikert, ha az együttműködést és az impaktfaktort taktikai
célokra próbáljuk felhasználni. Más hiedelmet bizalmatlanság szül,
mint az önidézés és a review-k esetében. Végül: vannak tévhitek,
amelyeket az adatok hozzá nem értő használata, félreértés vagy
tudatlanság táplál. E hét mítosz a tudománymetria előtti időkben
gyökerezik, de a publikációs és idézettségi statisztikák
tudománypolitikai használata, illetve a helytelen használat és
visszaélés folyamán a tudománymetria katalizátorként viselkedik a
mítoszok keletkezésében, elterjedésében és továbbélésében.
Kulcsszavak: mítosz, tudománymetria, kutatásértékelés,
tudománypolitika
IRODALOM
Aksnes, Dag W. (2003): A Macro-study of
Self-citations. Scientometrics, 56, 2, 235–246.
Anonymous (2003): Citing Self. Science,
5616, 4, 47.
Anonymous (2004): Eigen lof stinkt. Knack,
21 April 2004.
Braun Tibor – Glänzel, W. – Schubert A.
(1985): Scientometric Indicators. A 32 Country Comparison of
Publication Productivity and Citation Impact. World Scientific,
Singapore–Philadelphia.
Budd, John M. – Sievert, M. E. – Schultz,
T. R. (1998): Phenomena of Retraction – Reasons for Retraction and
Citations to the Publications. JAMA – Journal of the American Medical
Association. 280, 3, 296–297.
Cozzens, Susan E. (1989): What Do
Citations Count? The Rhetoric First Model. Scientometrics, 15, 437,
447.
Cronin, Blaise (1981): The Need for a
Theory of Citation. Journal of Documentation. 37, 16–24.
Cronin, Blaise (2001): Hyperauthorship: A
Postmodern Perversion Or Evidence of a Structural Shift in Scholarly
Communication Practices? Journal of the American Society for
Information Science and Technology. 52, 7, 558–569.
Cronin, Blaise (2003): Scholarly
Communication and Epistemic Cultures. New Review of Academic
Librarianship. 9, 1, 1–24.
Garfield, Eugene (1964): Can Citation
Indexing Be Automated? In: Stevens, Mary E. – Giuliano, V. E. –
Heilprin, L. B. (eds.): Statistical Association Methods for Mechanized
Documentation. Symposium Proceedings. Washington, 189–192.
Garfield, E. (1980): Premature Discovery
Or Delayed Recognition – Why? Current Contents. 21, 5–10.
Garfield, Eugene (1982): More on the
Ethics of Scientific Publication: Abuses of Authorship Attribution and
Citation Amnesia Undermine the Reward System of Science. Current
Contents. 30, 5–10.
Glänzel, Wolfgang – Schoepflin, Urs
(1995): A Bibliometric Study on Ageing and Reception Processes of
Scientific Literature. Journal of Information Science. 21, 1, 37–53.
Glänzel, Wolfgang – Schubert András
(1995): Predictive Aspects of a Stochastic Model for Citation
Processes. Information Processing & Management. 31, 1, 69–80.
Glänzel, Wolfgang (1997): On the
Reliability of Predictions Based on Stochastic Citation Processes.
Scientometrics. 40, 3, 481–492.
Glänzel, Wolfgang – Schoepflin, Urs
(1999): A Bibliometric Study of Reference Literature in the Sciences
and Social Sciences. Information Processing and Management. 35, 31–44.
Glänzel, Wolfgang – Schubert András
(2001): Double Effort = Double Impact? A Critical View at
International Coauthorship in Chemistry. Scientometrics. 50, 2,
199–214.
Glänzel, Wolfgang (2001): National
Characteristics in International Scientific Co-authorship.
Scientometrics. 51, 1, 69–115.
Glänzel, Wolfgang – Moed, Henk F. (2002):
Journal Impact Measures in Bibliometric Research. Scientometrics. 53,
2, 171–193.
Glänzel, Wolfgang – Schlemmer, B. – Thijs,
B. (2003): Better Late Than Never? On the Chance to Become Highly
Cited Only Beyond the Standard Bibliometric Time Horizon.
Scientometrics. 58, 3, 571–586.
Glänzel, Wolfgang – Garfield, Eugene
(2004): The Myth of Delayed Recognition. The Scientist. 18, 11, 8–9.
Glänzel, Wolfgang – Thijs, B. – Schlemmer, B. (2004): A Bibliometric
Approach to the Role of Author Selfcitations in Scientific
Communication. Scientometrics. 59, 1, 63–77.
Glänzel, Wolfgang – Thijs, Bart (2004):
The Influence of Author Self-Citations on Bibliometric Macro
Indicators. Scientometrics. 59, 3, 281–310.
Glänzel, Wolfgang (2007): Characteristic
Scores and Scales. A Bibliometric Analysis of Subject Characteristics
Based on Long-Term Citation Observation. Journal of Informetrics. 1,
1, 92–102.
Hirsch, Jorge E. (2005): An Index to
Quantify an Individual’s Scientific Research Output. Proceedings of
the National Academy of Sciences of the United States of America. 102,
46, 16569–16572. (Arxiv:Physics/0508025, Accessible Via).
WEBCÍM >
Holmes, Alison – Oppenheim, Charles
(2001): Use of Citation Analysis to Predict the Outcome of the 2001
Research Assessment Exercise for Unit of Assessment (Uoa) 61: Library
and Information Management. Information Research. 6, 2,
Laudel, Grit (2002). What Do We Measure by
Coauthorships? Research Evaluation. 11, 3–15.
MacRoberts, Michael H. – MacRoberts,
Barbara R. (1989): Problems of Citation Analysis: Aa Critical Review.
Journal of the American Society for Information Science. 40, 5,
342–349.
Merton, Robert K. (1973): The Normative
Structure of Science. In: Merton, Robert K.: The Sociology of Science:
Theoretical and Empirical Investigations. University of Chicago
Press, Chicago
Narin, Francis – Olivastro, Dominic
(1986): National Trends in Physics and Technology. Czechoslovak
Journal of Physics. B36, 101–106.
Neuberger, James – Counsell, Christopher
(2002): Impact Factors: Uses and Abuses. European Journal of
Gastroenterology & Hepatology, 14, 209–211.
Persson, Olle – Glänzel, W. – Danell, R.
(2004): Inflationary Bibliometric Values: The Role of Scientific
Collaboration and the Need for Relative Indicators in Evaluative
Studies. Scientometrics. 60, 3, 421–432.
Pfeifer, Mark P. – Snodgrass, Gwendolyn L.
(1990): The Continued Use of Retracted Invalid Scientific Literature.
JAMA – Journal of the American Medical Association. 263, 1420–1423.
Pichappan, Pit – Sarasvady, Saba (2002):
The Other Side of the Coin: The Intricacies of Author Self-Citations.
Scientometrics. 54, 2, 285–290.
Schubert András – Glänzel, Wolfgang
(1983): Statistical Reliability of Comparisons Based on the Citation
Impact of Scientific Publications. Scientometrics. 5, 1, 59–74.
Seglen, Per O. (1989): From Bad to Worse:
Evaluation by Journal Impact. Trends in Biochemical Sciences. 14,
326–327.
Small, Henry G. (1978): Cited Documents As
Concept Symbols. Social Studies of Science. 8, 3, 327–340.
Smith, Linda C. (1981): Citation Analysis.
Library Trends. 30, 1, 83–106.
Thijs, Bart – Glänzel, Wolfgang (2006):
The Influence of Author Selfcitations on Bibliometric Meso-Indicators.
The Case of European Universities. Scientometrics. 66, 1, 71–80.
LÁBJEGYZETEK
1 A magyar változatot
Wolfgang Glänzel: Seven Myths in Bibliometrics: About Facts and
Fiction in Quantitative Science Studies című cikke (ISSI Newletter,
2008, 14, 24–32.) alapján a szerző hozzájárulásával Bakonyi Dóra és
Schubert András készítette.
<
|