Altmetriken

Alternative Metriken ( engl. Altmetrics) gelten als Weiterentwicklung der traditionellen
bibliometrischen Verfahren. Sie berücksichtigen neue Techniken wissenschaftlichen Arbeitens und Quellen des Web 2.0. Die Bezeichnung geht vermutlich auf einen Tweet von Jason Priem (2010) zurück. Gemeinsam mit anderen Autor*innen hat er seine Vorstellungen in einem Manifest niedergeschrieben.

Gemessen werden Aktionen, die Webdokumente

  • nutzen (aufrufen und herunterladen)
  • besprechen und verlinken, auf Webseiten von wissenschaftlichen
    Institutionen oder Nachrichtenportalen
  • diskutieren und liken z. B. in Blogs, auf Twitter, in anderen sozialen Netzwerken, referenzieren in webbasierten Literaturmanagementsystemen wie Mendeley

Vorteile:

  • Altmetriken berücksichtigen die durch das Internet veränderten
    Arbeitsweisen und Kommunikationswege.
  • Die Aufmerksamkeit, die eine Publikation erhält, wird deutlich
    vielfältiger abgebildet.
  • Beurteilung konkret für Artikel, nicht nach Quelle, in der er
    veröffentlicht wurde
  • Open Access-Publikationen werden berücksichtigt.
  • Ausdehnung auf weitere Veröffentlichungsformen neben Zeitschriftenartikeln
  • Erwähnung in Netzwerken schneller als bei klassischen Veröffentlichungsformen/ Zitationen
  • Transparenz: meist aus offenen Quellen über offene Schnittstellen
  • nicht beschränkt auf wissenschaftliche Reaktionen (Nachteil?)
  • Einbinden auf Verlagsseiten, universitären Repositorien usw. möglich

Schwächen der Methoden:

  • Qualität der Auseinandersetzung mit der Publikation kann nicht
    beurteilt werden.
  • Zahlen können leicht manipuliert werden.
  • Populäre Autoren und Themen finden im Internet besonders viel Beachtung.
  • nicht beschränkt auf wissenschaftliche Reaktionen
  • einige Portale nicht berücksichtigt, da keine offenen Schnittstellen
    z.Zt. Research Gate, academia.edu
  • Hintergrundwissen wie bei allen Methoden erforderlich, z. B.: Werden Tweets von Bots bereinigt? Werden Tweets und Retweets ohne Unterscheidung gezählt?

Weiterlesen:

Research Guide Altmetrics der Library der University of Waterloo: https://subjectguides.uwaterloo.ca/altmetrics

Der Artikel Ortega, J.L. Reliability and accuracy of altmetric providers: a comparison among Altmetric.com, PlumX and Crossref Event Data. Scientometrics 116, S. 2123–2138 (2018). https://doi.org/10.1007/s11192-018-2838-z vergleicht die drei Dienstanbieter, die wir hier als Beispiele für alternative Metriken heranziehen.

Crossref Event Data

Crossref ist eine Non-Profit-Organisation, die es sich zum Ziel gesetzt hat, wissenschaftliche Kommunikation zu verbessern, in dem sie Forschungsergebnisse in jeder Form auffindbar, zitierbar, verlinkbar, zugänglich und nutzbar macht. Die dafür angebotenen Services und Produkte operieren mit Metadaten und das Hauptidentifikationsmerkmal einer Veröffentlichung ist der Digital Object Identifier (DOI).

Einer dieser Services ist Event Data. Ein Event entsteht immer dann, wenn jemand online einen Artikel mit einem registrierten DOI erwähnt. Diese Erwähnungen werden softwaregestützt gesammelt. Nachfolgende Online-Datenquellen werden dafür ausgewertet:

Bildschirmfoto von https://www.crossref.org/services/event-data/. Aufgenommen am 16.11.2022

Im Gegensatz zu Altmetric und PlumX Matrics werden die Daten aus Event Data durch Crossref nicht analysiert oder aufbereitet. Die Datensätze werden ausschließlich gesammelt und über eine API zum Abruf bereitgestellt. Die Dokumentation für den Dienst ist offen und die Software Open Source.

Beispiele für die Nutzung der Daten findet man in der Dokumentation.

PlumX Metrics von Plum Analytics

Das Angebot von Plum Analytics gibt es seit 2012. Im Februar 2017 kauft Elsevier Plum Analytics und offeriert seither die Metriken hauptsächlich in seinen eigenen Produkten, beispielsweise in Scopus. Erfasst werden Aktionen zu einer Publikation im Web, die in 5 Kategorien eingeteilt werden. Es wird explizit darauf hingewiesen, dass die Aktionen nicht nur für Artikel erfasst werden, sondern z. B. auch für Buchkapitel. Eine Gewichtung wie bei Altmetric erfolgt nicht.

Bildschirmfoto von https://plumanalytics.com/learn/about-metrics/. Aufgenommen am 19.10.2022.

In ScienceDirect gehören die Metriken zur Details-Anzeige eines Artikels.

Bildschirmfoto von https://doi.org/10.1016/j.neuroimage.2020.117146 mit Hervorhebung. Aufgenommen am 21.10.2022.

Detaillierte Informationen zu den erfassten Aktionen findet man auf der verlinkten „Details“-Seite. Die einer Blume ähnelnde Darstellung „Plum Print“ gibt die Kategorien wieder, in denen Aktionen gezählt wurden.

Bildschirmfoto von https://plu.mx/plum/a/?doi=10.1016/j.neuroimage.2020.117146&theme=plum-sciencedirect-theme&hideUsage=true. Aufgenommen am 21.10.2022.

Altmetric

Der Altmetric Attention Score von altmetric.com zählt Aktionen zu einer Publikation in verschiedenen Webquellen. Es werden nach Quellentyp kategorisierte Einzelwerte und ein zusammenfassender, gewichteter Score ausgegeben. Das Ergebnis wird in einem farbigen Donut dargestellt und kann auf Verlagsseiten u. ä. integriert werden. Die Farben des Donuts stehen jeweils für die Quellen der Erwähnungen.

Bildschormfoto der Anbieterwebsite https://www.altmetric.com/about-our-data/the-donut-and-score/. Aufgenommen am 18.10.2023

Eingebunden in ein Verlagsangebot kann die Darstellung dann beispielsweise so aussehen:

Bildschirmfotot von https://doi.org/10.1093/qje/qjac016 mit Hervorhebung. Aufgenommen am 18.10.2022

Detaillierte Informationen zu den Erwähnungen findet man auf der mit dem Donut verlinkten Website.

Bildschirmfoto von https://oxfordjournals.altmetric.com/details/125920049. Aufgenommen am 18.10.2022

Die Darstellung variiert und kann auch so aussehen:

Bildschirmfoto von https://doi.org/10.1126/science.abo4626. Aufgenommen am 18.10.2022.

Auch bei diesem Verlagsangebot sind detailliertere Informationen einer verlinkten Website zu entnehmen.

Bildschirmfoto von https://science.altmetric.com/details/137201436. Aufgenommen am 18.10.2022.

Akademisches Identitätsmanagement

Warum ist akademisches Identitätsmanagement wichtig?

  •  Jede Autor*in wünscht, dass alle Publikationen ihr/ihm eindeutig zugeordnet werden können. Deshalb sollten Verwechslungen durch Namensgleichheit, unterschiedliche Schreibweisen von Namen, Namensänderungen oder Wechsel der Institutionszugehörigkeit vermieden werden.
  • Alle Publikationen sollen möglichst weltweit sichtbar sein.
  • Die eindeutige Zuordnung von Autorenschaft, Publikation und Zitationen ist eine wichtige Grundlage für korrekte Bibliometrische Kennzahlen.
  • Bei Bewerbungen oder Anträgen auf Fördergelder sollten Publikationslisten und Kariereverläufe schnell und vollständig dokumentiert und verfügbar sein.

ACHTUNG: Daten nach YouTube werden erst beim Abspielen des Videos übertragen.

Fazit:

  • Für wissenschaftlich Publizierende sind Aufbau und Pflege von persönlichen Profilen wie Orchid, ResearcherID / Publons oder Google sicher sinnvoll, da die eindeutige Zuordnung von Publikationen, Mitgliedschaften und Gutachtertätigkeit im Wettbewerb um Fördergelder und Anstellungen sicher hilfreich sind.
  • Eine stets abrufbare belegte und übersichtliche Aufstellung der Karrierestationen und wissenschaftlichen Leistungen erleichtert Finanzierungsanträge und Bewerbungen.
  • Zur Auswahl sollten Wissenschaftler*Innen die Publikationskultur und die bereits übliche Vernetzung ihres Fachgebiets berücksichtigen.
  • Orchid  als Verlags- und Institutionsunabhänger Anbieten scheint im Moment am weitesten verbreitet zu sein und wird wie im Beispiel von einigen großen Verlagen unterstützt. Die anderen Anbieter haben aber auch ihre Stärken.

CiteScore Metrics aus der Zitationsdatenbank Scopus

CiteScore ist eine Kennzahl, die wie der Impact-Faktor die Bedeutung einer Zeitschrift  beschreibt.

Berechnungsformel:

                 Anzahl der Zitierungen in einem Jahr (z.B. 2018)                
Anzahl der Artikel in den 3 vorhergehenden Jahren (z.B. 2015-17)

Grundlage für die Berechnung ist Journal Metrics (https://www.scopus.com/sources ), das auf die 22 800 Zeitschriften, die in Scopus ausgewertet werden, zugreift. Journal Metrics ist frei verfügbar im Internet zu finden.

Im Gegensatz zum Web of Science berücksichtigt Scopus  auch die Kultur- und Geisteswissenschaften.

Weitere bibliometrische Kennzahlen aus Scopus sind:

Source normalized impact per paper (SNIP)

SNIP bildet die durchschnittliche Zitierhäufigkeit der Artikel einer Zeitschrift ab und  berücksichtigt  dabei die Zitierkultur der verschiedenen Disziplinen.

SCImago Journal Rank (SJR)

SJR misst den Rang einer Zeitschrift, indem neben der Zitierhäufigkeit auch der Rang der zitierenden Zeitschrift berücksichtigt wird. Ein hoher Wert steht also für eine hohe Wahrscheinlichkeit, dass die Artikel dieser Zeitschrift in anderen hochrangigen Zeitschriften zitiert werden.

Wie die Kennzahlen in Scopus erhoben werden können zeigt das folgende Video:


ACHTUNG: Daten nach YouTube werden erst beim Abspielen des Videos übertragen.

Die Aussage- und Anwendungsmöglichkeiten des CiteScore gleichen denen des Impact-Faktors:

CiteScore misst die Aufmerksamkeit, die eine Zeitschrift erhält, ohne die inhaltliche Qualität der einzelnen Artikel zu bewerten.

Autor*innen können mit CiteScore Zeitschriften mit hohem Prestige ermitteln, die zum Publizieren attrakti und zum Zitieren vertrauenswürdig sind.

CiteScore ermöglicht es festzustellen, ob Wissenschaftler*innen in  Zeitschriften publizieren, die als hochrangig gelten.

Impact-Faktor

Der Impact-Factor (IF) setzt die Anzahl der in einer Zeitschrift erschienenen Artikel mit der Anzahl der Zitierungen dieser Artikel ins Verhältnis. Er bezieht sich auf den Zeitraum von zwei Jahren.

Berechnungsformel:

Zahl der Zitate im Bezugsjahr auf die Artikel der vergangenen zwei Jahre
Zahl der Artikel in den vergangenen zwei Jahren

Grundlage für die Berechnung des IF sind die Zitationsdatenbanken Science Citation Index und Social Science Citation Index aus dem Web of Science. Er wird häufig als Qualitätsmerkmal für Zeitschriften angesehen.

Dieses Video zeigt, wie der IF im Web of Science ermittelt werden kann:


ACHTUNG: Daten nach YouTube werden erst beim Abspielen des Videos übertragen.

In den Journal Citation Reports des Web of Science werden Zeitschriften nach Zitierhäufigkeit und Impact-Faktor verglichen.

In diesem Video wird gezeigt, wie Sie die Zeitschriftenrankings recherchieren können:


ACHTUNG: Daten nach YouTube werden erst beim Abspielen des Videos übertragen.
Fazit:
  • der JIF ist ein Hinweis auf die Qualität einer Zeitschrift, wenn sie im Web of Science/ Journal Citation Report berücksichtigt wird
  • nicht alle Artikel einer Zeitschrift werden häufig zitiert
  • Vergleichbarkeit ist nur innerhalb des gleichen Fachgebiets gewährleistet
  • englischsprachige Veröffentlichungen finden mehr Beachtung
  • Ergebnis ist manipulierbar (z.B. durch „Zitierkartelle“)
  • lässt keine Aussage zur Qualität eines einzelnen Artikels oder zur Qualität der Arbeit eines Wissenschaftlers zu

Der Impact-Faktor hilft, den Stellenwert einer Zeitschrift innerhalb ihres Fachgebiets zu beurteilen. Zeitschriften mit hohem Impact-Faktor sind attraktiv zum Publizieren, aber zwischen Einreichen und Veröffentlichung vergeht viel Zeit für das Peer Review und zahlreiche Artikel werden abgelehnt. Bei Berufungen/ Einstellungen kann festgestellt werden, ob die Kandidaten in renommierten Zeitschriften veröffentlicht haben. Außerdem ermöglicht das Web of Science festzustellen, wie oft und von wem entsprechende Publikationen zitiert wurden.

h-Index

Der von dem argentinischen Physiker Jorge E. Hirsch entwickelte h-Index
ist eine bibliometrische Kennzahl zur Bewertung der wissenschaftlichen
Leistung eines  Autors.

Er wird berechnet aus der Anzahl der Publikationen eines Autors und der Häufigkeit der Zitationen des einzelnen Artikels. Grundlage können unter anderem das Web of Science, Scopus, Google Scholar oder Researchgate  sein.

Der Index h eines Wissenschaftlers wurde definiert als die Anzahl der Publikationen dieses Wissenschaftlers, die mindestens h mal zitiert wurden.

(Quelle: Hirsch, J. E. (2005). An index to quantify an individual’s scientific research output. Proceedings of the National academy of Sciences, 102(46), 16569-16572. https://doi.org/10.1073/pnas.0507655102)

Beispielberechnungen:
Ein/e Autor*in hat 10 Publikationen verfasst, die dann mit folgenden Häufigkeiten zitiert wurden: 10, 9, 8, 7, 6, 5, 4, 3, 2, 1. Der Hitschfaktor ist 5, weil fünf Veröffentlichungen mindestens fünfmal, die restlichen höchstens fünfmal zitiert wurden.

Beispiel für den Hirsch-Index 5 bei 10 Veröffentlichungen
Beispiel für den Hirsch-Index 5 bei 10 Veröffentlichungen. Quelle: / CC BY-SA

Hat ein/e Autor*in 10 Publikationen veröffentlicht, die 100-, 100-, 2-, 2-, 2-, 2-, 2-, 2-, 2- und 2 -mal zitiert wurden, ist der Hirschfaktor 2, weil zwei Veröffentlichungen mindestens zweimal, die restlichen höchstens zweimal zitiert wurden.

Beispiel für den Hirsch-Index 2 bei 10 Veröffentlichungen
Beispiel für den Hirsch-Index 2 bei 10 Veröffentlichungen. Quelle: / CC BY-SA

Soll der h-Index zum Vergleich der Leistungen von Forscherinnen herangezogen werden, gibt es einige Fakten zu bedenken:

  • Datengrundlage: In Web of Science, Scopus und Google Scholar bilden unter schiedliche Publikationen und Anzahlen von Publikationen die Berechnungsgrundlage.
  • Welcher Zeitraum wird untersucht?
  • Ist die Autorenschaft eindeutig, oder gibt es Zweifel durch Namensgleichheit? ( Akademisches Identitätsmanagement wie ORCID, Researcher ID, Profil in  Google Scholar?)
  • Wird Co-Autorenschaft berücksichtigt?
  • Werden Selbstzitierungen mitgezählt?
  • Welche Arten von Publikationen werden berücksichtigt?
Beispiel: Stephen Hawking, Datenerhebung am 18.2.2020
Beispiel: Stephen Hawking, Datenerhebung am 18.2.2020

Nur wenn der  h-Index verschiedener Autor*innen auf der gleichen Datenbasis erhoben wurde, ist er eine zum Vergleich geeignete Kennzahl!

Am Beispiel eines FU-Wissenschaftlers zeigt nachfolgendes Video, wie man einen h-Index in der Datenbank Web of Science und in Google Scholar finden kann:

Fake Journals, Predatory Journals oder Raubjournale

Unter dem Stichwort „Predatory Publishing“ werden unethische Geschäftspraktiken zusammengefasst, bei denen Verlage Publikationsgebühren erheben und mit seriösem wissenschaftlichem Publizieren werben, jedoch  keine bzw. eine unzureichende redaktionelle Bearbeitung der Artikel und keine validen Qualitätssicherungsprozesse durchführen.

Wissenschaftler publizieren schnell, bezahlen z. T. hohe Gebühren, werden betrogen oder unterstützen Betrug, da mit Peer Review geworben wird, ohne dass es tatsächlich durchgeführt wird.

Unseriöse Verlage bringen Open Access und Peer Review insgesamt in Verruf.

Wie können Vertrauenswürdigkeit und Seriosität einer Zeitschrift überprüft werden?

Bei Unsicherheit, ob eine Zeitschrift den wissenschaftlichen Standards entspricht, sollten folgende Punkte geprüft werden:

Ausführliche Informationen zum Thema „Predatory Publishing“ bietet auch das Open-Access-Büro der Freien Universität Berlin.

Bibliometrie – allgemeine Informationen

Die Bibliometrie auch Szientometrie oder statistische Bibliographie erstellt statistische Analysen bibliographischer Informationen. Sie nutzt mathematische und statistische Methoden, um wissenschaftliche Publikationen, Zeitschriften und Institutionen sowie die Leistung von Wissenschaftlern zu messen, zu berechnen, zu vergleichen und zu bewerten. Dazu greift sie auf Publikations- und Zitationszahlen zu.

Um die Aussagekraft bibliometrischer Kennzahlen zu beurteilen, ist es wichtig, die Datengrundlage und die Verfahrensweise zu kennen. Eine zuverlässige und häufig verwendete Grundlage sind die Datenbanken Web of Science (Clarivate Analytics) und Scopus (Elsevier).