SEARCH

SEARCH BY CITATION

Es gab einmal eine Zeit, da wurde Literatur zitiert, um Leser eines wissenschaftlichen Beitrags darüber zu informieren, welche älteren Forschungsberichte für die beschriebene Arbeit sowie zum Verfassen des dazugehörigen Artikels herangezogen worden waren. Alle Literaturstellen wurden in einer Datenbank gespeichert und konnten entweder manuell oder durch Verwendung des Science Citation Index des Institute for Scientific Information (ISI) gesucht werden. Diese Literaturverweise wurden von Wissenschaftlern dazu genutzt, um frühere wissenschaftliche Veröffentlichungen zu einem bestimmten Thema effizient zu studieren und Folgepublikationen aufzuspüren (“Schneeballeffekt”). Heute können Zitierungen auch eine starke strategische Komponente haben, z. B. können gezielt Artikel möglicher Gutachter erwähnt oder andere Artikel gezielt ignoriert werden. In der Tat haben sich die Zitierungsgewohnheiten geändert, wie man an gelegentlich geäußerten Klagen sehen kann, dass manche Wissenschaftler z. B. unproportional mehr – oder weniger – Artikel von derselben oder der anderen Seite des Atlantiks oder Pazifiks zitieren. Das Aufführen nur einer Literaturstelle mit der Anmerkung “und darin zitierte Literatur”, ist nicht ungewöhnlich. Ebenso regelmäßig trifft man auf Gutachten mit der Aufforderung, noch eine oder mehrere “spezifische” Literaturverweise in den Beitrag mit aufzunehmen.

  • thumbnail image

Die Entwicklungen der letzten Jahre ermöglichen die elektronische Suche – meist online – und das Nachschlagen von Literaturverweisen durch digitale Analyse und unter Berücksichtigung sämtlicher Beiträge, die je in wissenschaftlichen Zeitschriften veröffentlicht wurden. Das heute zur Firma Thomson Reuters gehörende ISI besitzt die vollständigste Literaturdatenbank – das “Web of Science” (WoS) –, die über 16 000 Zeitschriften berücksichtigt; Elsevier behauptet, mit “Scopus” eine komplette Abdeckung von ca. 18 000 Zeitschriften bis zurück ins Jahr 1995 zu bieten, während Google Scholar bisher die unvollständigste Datenbank für Zitierungszwecke ist. Die Verfügbarkeit solcher Online-Suchen hat die Gefahr strategischen und sogar unethischen Verhaltens beim Zitieren erhöht.

Zitierungsanalysen und Ranglisten

  1. Top of page
  2. Zitierungsanalysen und Ranglisten

Eugene Garfield, der Gründer des ISI, erkannte, dass die Science-Citation-Index-Datenbank auch für andere Zwecke als nur für die Literatursuche verwendet werden könnte, und führte 1972 den Journal Impact Factor (heute schlicht Impact-Faktor, IF) als ein Hilfsmittel ein, mit dem sich die Entwicklung einer Zeitschrift über einen längeren Zeitraum verfolgen lassen sollte.1 In den 1990ern kam die Verwendung dieser Zwei-Jahres-IFs1 in Mode, und der IF ist bis heute DER Parameter für die Bewertung von Zeitschriften. Die aktuellen IFs und die sich daraus ergebenden Ranglisten werden jedes Jahr in den Journal Citation Reports (JCR) des WoS veröffentlicht.2, 3123

Vor Kurzem veröffentlichte Thomson Reuters Analysen der über 5000 meistzitierten Wissenschaftler auf 21 Gebieten (http://highlycited.com/browse); die Suche nach viel zitierten Artikeln – für das letzte Jahr oder das letzte Jahrzehnt – ebenso wie nach stark zitierten Wissenschaftlern kann nun auch mit dem Web of Science durchgeführt werden.

Vor noch kürzerer Zeit begann das Web of Science, eine schnelle Online-Möglichkeit zur Bestimmung der h-Indices für bestimmte (Gruppen von) Personen anzubieten – vorausgesetzt, deren vollständige und korrekte Publikationsliste wurde in der Datenbank gefunden und markiert.14

Zuerst haben qualifizierte Bibliometriker die Thomson-Reuters-Datenbanken analysiert und – zunächst oft kritisierte – Analysen und Ranglisten von Personen und Institutionen angefertigt. Später, als immer nutzerfreundlichere Schnittstellen zur Verfügung standen, begannen Universitätsverwaltungen und Behörden mit häufig mangelndem Wissen über Zitierungsverhalten oder die vielen möglichen Fallstricke und Datenbankfehler aus einer Reihe von Gründen damit, Zitierungen zu analysieren. Zu erwähnen sind hier:

  • 1.
    Erstellung von Zeitschriften-Ranglisten, oft veranlasst durch sinkende Bibliotheksbudgets und den Wunsch, die “besten” (d. h. die in den letzten beiden Jahren meistzitierten) Zeitschriften zu behalten. Außerdem nutzen Gruppenleiter sowie ihre Doktoranden und Postdoktoranden diese Ranglisten, um zu entscheiden, bei welcher Zeitschrift sie ihre Artikel einreichen werden. Herausgeber und Redakteure haben ein Interesse daran, in diesen Ranglisten aufzusteigen, auch wenn ihnen klar ist, dass IF-Bereiche je nach Forschungsgebiet variieren.
  • 2.
    Ranglisten von Wissenschaftlern. Wer hat die meisten Zitierungen oder die meisten Zitierungen pro Artikel? Und neuerdings: Wie lautet der h-Index für die gesamte wissenschaftliche Laufbahn oder – je nach Wunsch – nur einen Teil davon?
  • 3.
    Ranglisten von Gruppen, Abteilungen, Instituten und selbst Universitäten (z. B. in der bekannten Shanghai-Rangliste, in der Zitierungen eine wichtige Komponente ausmachen) sowie ganzen Ländern.

Es gibt also starke Triebkräfte, solche Zahlen zu “verbessern”, notfalls vielleicht auch mit unlauteren Mitteln. Fördermittel und Gehälter, ja die Attraktivität von ganzen Universitäten für (ausländische) Studenten hängen zunehmend von Ranglisten und diese wiederum von der Zitierung von Forschungsartikeln und daraus resultierenden Parametern ab. Deshalb sucht man verstärkt nach Methoden, um zu mehr Zitierungen zu gelangen: für einen Artikel, für eine Zeitschrift oder für einen Wissenschaftler. Folgerichtig sind Optimierungsbedingungen für IFs verfügbar, und leider werden auch Versuche zur künstlichen Beeinflussung des Impact-Faktors sowie von Zitierungen allgemein beobachtet, und diese werden wahrscheinlich noch zunehmen.

Herausgeber und Redaktionen

Zeitschriften sollten sicherstellen, dass Zitierungen korrekt sind. Eine redaktionelle Maßnahme zur Erhöhung des IF besteht in der Aufnahme bestimmter Rubriken, die zu überdurchschnittlichen Zitierungszahlen führen sollten, z. B. Übersichtsartikel aller Art. Da dies viele Zeitschriften tun, scheinen die Auswirkungen nach einer Weile nur noch marginal zu sein – es resultiert nur ein kleiner IF-Anstieg für jeden. Natürlich sollten Zeitschriften in erster Linie Qualität im Sinn haben, und es sollte ihnen erlaubt sein, nach qualitativ hochwertigen Arbeiten zu “jagen”, für die die Wahrscheinlichkeit hoch ist, gelesen – und zitiert – zu werden. Vielleicht trifft man deshalb heutzutage so viele Redakteure auf wissenschaftlichen Tagungen.

Tendenziell werden Zeitschriften Beiträge, deren Gebiet “in Mode” ist (und die qualitativ gut sind), eher akzeptieren, wogegen Beiträgen gleicher Qualität, aber aus einem weniger gefragten Gebiet (also: mit geringerer Wahrscheinlichkeit, zitiert zu werden) eine niedrigere Priorität eingeräumt wird. Dieses Verhalten lässt sich rechtfertigen, solange die Zahl hochwertiger eingereichter Manuskripte sehr viel höher liegt, als die Zeitschrift im Laufe eines Jahres veröffentlichen kann.

Redaktionen können heutzutage besonders interessante Artikel, die z. B. eigentlich schon in der zweiten Hälfte des Jahres 2011 druckfertig waren, leicht “auf Eis legen”, sie aber bereits online (mit einer DOI-Nummer) verfügbar machen. Indem diese Artikel später mit Seitenzahlen eines frühen Heftes aus dem Folgejahr versehen werden, wird das Zeitfenster für ihre Lektüre und Zitierung deutlich erhöht. Ich sehe hier eine mögliche Versuchung zu unethischem Verhalten.

Auch kommentierende Kurzartikel über aktuelle wichtige Beiträge in derselben oder einer Schwesterzeitschrift sind eine Möglichkeit. Dies kann natürlich auch ein guter Service für die Leser sein, aber die erwähnten Literaturstellen werden auch Eingang in den IF finden. Unethisch ist sicherlich, wenn eine Redaktion einen Artikel (für fünf andere Zeitschriften) verfasst, in dem herausragende Beiträge in ihrem neuen Journal gepriesen und in sehr hoher Zahl zitiert werden.

Unethisch ist es auch, regelmäßig Editorials, die vom ISI nicht als Artikel gezählt werden (noncitable items), zu veröffentlichen, die viele (und eventuell fast ausschließlich) Beiträge zitieren, die in den letzten beiden Jahren in derselben Zeitschrift publiziert wurden; als “Service für den Leser” werden einige Beiträge aus demselben Journal erwähnt, diskutiert und zitiert. Bei zwölf nicht zitierbaren Editorials pro Jahr, von denen jedes fünf bis zehn Eigenzitierungen enthält, trägt diese Strategie – bei, sagen wir, 300 zitierbaren Publikationen pro Jahr – 0.2–0.4 Punkte zum Zwei-Jahres-IF bei.

Es soll auch Redaktionen geben, die routinemäßig zu (mehr) Zitierungen ihrer Zeitschriften auffordern. So kann es vorkommen, dass die Redaktion bei Annahme jedes Artikels fordert, zwei Literaturstellen von Beiträgen aus demselben Journal aus den letzten beiden Jahren hinzuzufügen, was den Zwei-Jahres-IF um 2.0 Punkte erhöht! Solche Praktiken können vom ISI geahndet werden, was auch in mehreren Fällen bereits geschehen ist; siehe: http://wp.me/pcvbl-5K0. Weitere Details über diese und andere redaktionelle Strategien zur erlaubten und unerlaubten Verbesserung des Impact-Faktors sind andernorts beschrieben worden.2

Wissenschaftler und Universitätsverwaltungen

Zur Verbesserung ihres Status und Ranglistenplatzes werben Universitäten auf der ganzen Welt oft erfolgreich hochrangige Wissenschaftler von anderen Institutionen ab. Aus Großbritannien sind Fälle bekannt, in denen Mitarbeiter vor einem bestimmten “Transferdatum” eingestellt wurden; solche Transfers sind gängige Praxis im Vorfeld nationaler Evaluierungen der Hochschulforschung.

Für Wissenschaftler ist es von Bedeutung, dass ihre Arbeiten bei Evaluierungen korrekt und vollständig berücksichtigt werden. Probleme bereitet es, wenn Forscher im Laufe ihrer Karriere ihren Familiennamen oder dessen Schreibweise, und seien es auch nur die Initialen, ändern. Universitäten und Zeitschriften haben ebenfalls gelernt, vorsichtig mit dem Ändern ihrer Namen und Anschriften zu sein.

Eine gut und altbekannte Taktik ist es, Artikel nach deren Veröffentlichung an möglichst viele Kollegen zu schicken und dabei die Bedeutung der Arbeit zu betonen, in der Hoffnung, dass diese dann mehr zitiert werden. Das überproportionale Zitieren der eigenen früheren Artikel ist ohne Zweifel weit verbreitet und fand auch früher, vor der Ranglistenhuberei, statt; Eigenzitate lassen sich allerdings leicht bei einer Analyse eliminieren.

Forscher, die als Doktoranden oder Postdoktoranden Koautoren stark zitierter Artikel waren, werden davon in jedem Fall ihre ganze Karriere lang profitieren. Später kann man jenseits der Selbstzitierung nicht mehr viel anderes tun, um den eigenen h-Index zu erhöhen, außer gute Artikel zu veröffentlichen und zu warten.

Standards einhalten

Selbst wenn die Zitierungsanalyse für die Evaluierung von Forschung letztlich an Bedeutung verlieren sollte, da die Literatursuche und -zitierung immer stärker auf Datenbanken als auf Reputation beruhen werden, werden uns die Bibliometrie, das Zählen sowie Ranglisten und Evaluationen noch eine Weile erhalten bleiben. Begutachtete Publikationen bilden die Grundlage wissenschaftlicher Evaluierungen und müssen den höchsten ethischen Standards genügen. Diese Standards sollten für alle Autoren, Gutachter und Zeitschriften gleich sein! Professoren sind in der Pflicht, ihre jüngeren Kollegen, Doktoranden und Postdoktoranden die Regeln korrekter Zitierpraxis zu lehren. Impact-Faktoren können, mit oder ohne Absicht, von redaktionellen Strategien beeinflusst werden. Die Interpretation und Verwendung von Impact-Faktoren muss daher mit größter Vorsicht erfolgen; Autoren, Herausgeber und Wissenschaftspolitiker müssen sich der potenziellen Manipulierbarkeit des Impact-Faktors bewusst sein. Auch die h-Indices von Einzelpersonen müssen sorgfältig geprüft werden, weniger auf Manipulationen als vielmehr auf Unterschiede im Forschungsgebiet und auf die Frage, ob ein Forscher während seiner Promotion oder seines Postdoktorats Koautor häufig zitierter Artikel war.

  • 1

    Der Zwei-Jahres-IF einer Zeitschrift ist definiert als die Zahl der Zitierungen im Jahr X für alle Artikel, die von der Zeitschrift in den Jahren X−1 und X−2 veröffentlicht wurden, geteilt durch die Zahl zitierbarer Artikel (gemäß der ISI-Definition) in dieser Zeitschrift in den Jahren X−1 und X−2.

  • 2

    Die meisten Leser sind sich bewusst über die unterschiedliche Zitierungshäufigkeit auf verschiedenen Gebieten, die naturgemäß von der Zahl der Forschenden abhängt; auf sehr aktiv beforschten Gebieten sind mehr Zitierungen pro publizierten Artikel und höhere IFs für entsprechend spezialisierte Zeitschriften zu erwarten. Eine Korrektur dieses Effekts bieten zwei neue Elsevier-Parameter, SNIP und SJR: www.journalmetrics.com

  • 3

    Die Rolle (und Macht) von ISI/Thomson Reuters bei der Erstellung von Ranglisten sollte nicht unterschätzt werden. So werden ihre Kriterien bezüglich eines “zitierbaren Artikels” nicht öffentlich gemacht.

  • 4

    Der h-Index ist die Zahl an Artikeln (h) von einer Person (oder Gruppe) in einem bestimmten Zeitraum (üblicherweise der gesamten akademischen Laufbahn), die mindestens h-mal zitiert wurde.