med - Das Magazin der Zweigbibliothek Medizin

Page 5

5

Publikationswesen

Foto: (c) Sandra-Denise Boruszewski

2. Dieses Abstract findet sich auf mehreren Konferenzwebseiten, die von iThenticate gescannt wurden, und wurde so doppelt und dreifach auf den Sim-Score angerechnet. 3. Des Weiteren wurden Füllwörter und Standardformulierungen als Plagiate angesehen wie z.B. P<0.01, high-dose, ml/kg, end-stage disease, patients were excluded usw.. Selbst Hinweise auf Studien wie ...data from the Avian Virus Outbreak Study (AVOS) show... oder Herstellernamen wie Fresenius Deutschland GmbH, Bad Homburg, Germany wurden als Plagiate gewertet. Das fundamentalste Versagen hat sich meines Erachtens aber beim Journal selber abgespielt.

Der Autor steht im Regen Nun wäre das alles kein Problem, würde sich ein Mensch - etwa der geschäftsführende Editor - diese automatisierten Plagiatberichte anschauen. Ein kurzer Check hätte diese Fehler schnell aufgedeckt. Doch ebendies ist (sträflich) unterlassen worden: das Journal hat sich blind auf iThenticate verlassen, hat das „Prüfergebnis“ dieser inkonsistenten Plagiatdatenbank blind durchgewunken und hat keinerlei Überprüfung der verdächtigen Übereinstimmungen vorgenommen - dies alles, obwohl hinreichend bekannt ist, dass die Ergebnisse von Plagiaterken-

Das Magazin der Zweigbibliothek Medizin

nungsprogrammen zu 98% falsch-positiv sind. Hinzukommt, dass der Autor mit diesem Score im Regen stehen gelassen wird. Was soll er denn jetzt nun machen? Soll er sein Manuskript umformulieren? Gängige Formulierungen streichen? Gebräuchliche Wörter durch ungebräuchliche ersetzen? Und wirkliche Plagiatoren? Stellen die iThenticate-Rückmeldungen nicht vielmehr eine genaue Anleitung dar, wie Plagiate geschickt unkenntlich zu machen sind?

The System is broken Der Kampf der Wissenschaftler gegen Betrug in den eigenen Reihen bedient sich nicht ohne Grund der Plagiaterkennungssysteme. Sie muten darin an wie der Mann, der unter einer Laterne nach seinem Schlüssel sucht, weil es nur dort hell genug zum Suchen ist. Wirklichen wissenschaftlichen Betrug aufzuspüren ist ungleich schwerer und kann deshalb nicht automatisiert betrieben werden. Die Zeitschriften vertrauen zur Zeit einzig und alleine der unsicheren Expertise der Reviewer. Aber wer schaltet schon standardmässig einen Statistiker oder einen Fachmann für Bildmanipulationen ein?

Forscher als Dukatenesel

Der gegenwärtige Zustand des Publikationswesens gibt Anlass zur Sorge: Erstens sind die gemeinsamen Ziele von Forschern und Verlegern auf dem Altar des Profits geopfert worden. Zweitens sehen die großen Verlagskonzerne im Forscher nur noch den Dukatenesel, und drittens behandeln sie ihn oft wie einen lästigen Bittsteller. Forscher sind genervt von dieser schlechten Behandlung und suchen intensiv nach Auswegen aus dieser Abhängigkeit. Nicht umsonst erleben zur Zeit die fachübergreifenden Open Access-Journale á la PloS One, PeerJ oder eLife einen großen Zulauf. Das hat weniger etwas mit dem Impact Faktor zu tun, sondern viel mit Vertrauen und Freiheit der Wissenschaft.

Und was nun? Um sich vor einem ungerechtfertigten Plagiatsverdacht zu schützen, kann man seinen Artikel vor der Einreichung selber mit frei verfügbaren Tools wie eTBLAST (http://etblast.org) auf Wortgleichheit testen. Der eigenhängige Similaritätstest hilft aber nicht immer, da die zugrundeliegenden Datenbanken unterschiedlich sind. Es bleibt also nur 1. das Paper woanders einzureichen, oder 2. die beanstandeten Formulierungen wegzulassen. Genau dies hat nun auch Steven Gardner gemacht. Er hatte Glück: Nach einer kreativen Wortsäuberungsaktion wurde sein Manuskript im zweiten Durchlauf anstandslos durchgewunken. yx

med


Issuu converts static files into: digital portfolios, online yearbooks, online catalogs, digital photo albums and more. Sign up and create your flipbook.