Weitere Kommentare unter http://handelsblattranking.wordpress.com/
Am 9. September dieses Jahres wird das Handelsblatt in seinem zweiten BWL-Ranking wieder verschiedene Ranglisten veröffentlichen: die der besten 250 deutschsprachigen Betriebswirte nach den Forschungsergebnissen ihres Lebenswerkes, die der 100 Besten nach den Forschungsergebnissen der letzten 5 Jahre und die der 100 Besten unter 40 Jahren. Ermittelt werden diese Ranglisten auf der Basis der in Zeitschriften veröffentlichten Aufsätze. Buchveröffentlichungen werden nicht berücksichtigt. Die Aufsätze werden nach einem vom Handelsblatt ermittelten Maßstab gewichtet, welcher die Qualität der jeweiligen Zeitschrift und der darin veröffentlichten Arbeiten zum Ausdruck bringen soll.
Die Unterzeichnenden haben dem Handelsblatt mitgeteilt, dass sie in keiner dieser Ranglisten geführt werden möchten.
Dies sind die Gründe, die uns zu diesem Schritt bewogen haben:
1. Eindimensionalität der Leistungsmessung: Personenrankings, die ausschließlich auf die Publikationsleistungen abstellen, blenden aus, dass es noch weitere Tätigkeiten gibt, die darüber entscheiden, wie gut ProfessorInnen ihrer Aufgabe insgesamt gerecht werden. Diese umfasst neben der Forschung u.a. Lehre, Betreuung von Studierenden, Mitwirkung in der Selbstverwaltung, Vermittlung von Forschungsergebnissen in die Praxis. Rankings des Forschungsoutputs, besonders solche, die eine Öffentlichkeitswirkung entfalten, führen indirekt zu einer Abwertung von Tätigkeiten außerhalb der Forschung. Es wird nur das gemessen, was gemessen werden kann; genau das aber hat dann für die Unterzeichnenden eine Anreizwirkung, die sie für nicht wünschenswert halten. Das Argument, es handele sich ja „nur“ um ein Forschungsranking, verliert damit seine Unschuld.
2. Methodische Mängel: Darüber hinaus enthält das Handelsblatt-BWL-Ranking gravierende methodische Mängel und vermittelt deswegen ein unzutreffendes Bild der Forschungsleistungen von WissenschaftlerInnen. Auf der Basis verschiedener Zeitschriften-Rankings werden Indikatoren der Qualität von Zeitschriften ermittelt, mit denen die in verschiedenen Zeitschriften erschienen Aufsätze einzelner Wissenschaftler gewichtet werden. Diese Indikatoren spiegeln nicht die Qualität der jeweiligen Publikationen wider. Zeitschriftenrankings ermitteln eine durchschnittliche Qualität der in den erfassten Zeitschriften veröffentlichten Beiträge. Weil aber die Aufsätze einer Zeitschrift eine höchst unterschiedliche Qualität aufweisen, sagt der Durchschnitt kaum etwas über die Qualität einzelner Aufsätze aus und macht keinesfalls die Würdigung des einzelnen Aufsatzes entbehrlich. Auch bieten die von den Zeitschriften eingeholten Gutachten in keiner Weise eine Gewähr dafür, dass einzelne veröffentlichte Aufsätze über ein der Einstufung der Zeitschrift entsprechendes Qualitätsniveau verfügen. Die Kombination verschiedener Rankings in den Handelsblatt-Ranglisten macht es unmöglich, die Qualität der Datenbasis abzuschätzen.
3. Keine Neutralität gegenüber Fachgebieten: Ein weiterer methodischer Mangel liegt darin, dass die Chancen von WissenschaftlerInnen verschiedener Fachgebiete, im Handelsblatt-Ranking gut abzuschneiden, nicht gleich groß sind. So finden sich beispielsweise unter den ersten 50 Betriebswirten im letzten Handelsblatt-Ranking von 2009 nach dem Lebenswerk keine Vertreter aus den Bereichen Steuerlehre oder Rechnungswesen. Daraus kann sicherlich nicht der Schluss gezogen werden, dass Vertreter dieser Fachrichtungen weniger gute Wissenschaftler sind als z.B. Vertreter des Fachs Marketing.
4. Falsche Anreizwirkungen zum Schaden für die Wissenschaft: Rankings beeinflussen das Verhalten von WissenschaftlerInnen in einer Weise, die der Wissenschaft schadet. Sie veranlassen WissenschaftlerInnen, nicht mehr das zu erforschen, was sie interessiert und was für den Fortschritt der Wissenschaft wichtig ist, sondern das, was Ranking-Punkte bringt. Die Innovativität der Wissenschaft nimmt ab: Ein System, in dem sich alle an den gleichen Kriterien orientieren, verliert seine Innovationsfähigkeit. So schreiben viele WissenschaftlerInnen keine Bücher mehr, denn diese gehen nicht in die Bewertung ein. Sie verfolgen keine riskanten Projekte mehr, sondern variieren in einem hohen Maße das Bewährte. Auch versuchen sie, aus ihren Forschungsprojekten so viele Aufsätze wie möglich zu pressen, indem sie bspw. identische oder fast identische Textpassagen in mehreren Aufsätzen verwenden.
Rankings können Berufungskommissionen und andere universitäre sowie nicht universitäre Gremien dazu verleiten, sich nicht mehr inhaltlich mit den Forschungsergebnissen von BewerberInnen zu beschäftigen, sondern sich an Rankings zu orientieren. So bleiben Manipulationen in Berufungsverfahren unentdeckt. Auch bergen sie die Gefahr, dass freie Positionen nicht mit WissenschaftlerInnen besetzt werden, die in die jeweiligen Forschungskontexte passen, sondern mit solchen, die die Ranking-Bilanz der Fakultät oder der Universität verbessern.
5. Falsche Anreizwirkung zum Schaden für die Gesellschaft: Die für das Ranking herangezogenen Zeitschriften sind in großem Ausmaß von ihrer Ausrichtung her wenig an ‚lokalen‘ Fragestellungen interessiert. Das schadet der lokalen und regionalen Einbettung von Universitäten und den damit verbundenen positiven Auswirkungen auf die Gesellschaft wie z.B. wissenschaftliche Analyse lokaler Probleme und Ausarbeitung entsprechender Lösungsansätze.
Personenrankings sind kein geeignetes Instrument, die Qualität von Wissenschaftlerinnen und Wissenschaftlern zu messen. Diese festzustellen, bleibt eine Sache des lebendigen Diskurses.
Klaus Backhaus, Universität Münster
Wolfgang Ballwieser, Ludwig-Maximilians-Universität München
Thomas Behrends, Universität Flensburg
Gerrit Brösel, Fernuniversität in Hagen
Marion Büttgen, Universität Hohenheim
Hans Corsten, Technische Universität Kaiserslautern
Peter Eberl, Universität Kassel
Mark Ebers, Universität zu Köln
Wolfgang Elsik, Wirtschaftsuniversität Wien
Jetta Frost, Universität Hamburg
Michael Gaitanides, Helmut-Schmidt-Universität – Universität der Bundeswehr Hamburg
Daniel Geiger, Technische Universität Hamburg
Wolfgang Güttel, Johannes Kepler Universität Linz
Thomas Hartmann-Wendels, Universität zu Köln
Ludger Heidbrink, Universität Witten/Herdecke
Thomas Hering, Fernuniversität in Hagen
Michael Hinz, Technische Universität Chemnitz
Reinhold Hölscher, Technische Universität Kaiserslautern
Frank Keuper, Steinbeis Hochschule Berlin
Alfred Kieser, Zeppelin Universität Friedrichshafen
Jochen Koch, European University Viadrina Frankfurt (Oder)
Jan Körnert, Ernst-Moritz-Arndt-Universität Greifswald
Jan Kratzer, Technische Universität Berlin
Wenzel Matiaske, Helmut-Schmidt-Universität – Universität der Bundeswehr Hamburg
Wolfgang Mayrhofer, Wirtschaftsuniversität Wien
Michael Meyer, Wirtschaftsuniversität Wien
Renate Meyer, Wirtschaftsuniversität Wien
Guido Möllering, Jacobs-University Bremen
Michèle Morner, Deutsche Universität für Verwaltungswissenschaften Speyer und Universität Witten/Herdecke
Werner Nienhüser, Universität Duisburg-Essen
Michael Olbrich, Universität des Saarlandes Saarbrücken
Günther Ortmann, Helmut-Schmidt-Universität – Universität der Bundeswehr Hamburg
Margit Osterloh, Warwick Business School und Universität Zürich
Markus Reihlen, Leuphana Universität Lüneburg
Roland Rollberg, Ernst-Moritz-Arndt-Universität Greifswald
Katja Rost, Universität Zürich
Klaus Ruhnke, Freie Universität Berlin
Raimund.Schirmeister, Heinrich-Heine-Universität Düsseldorf
Manfred Schwaiger, Ludwig-Maximilians-Universität München
David Seidl, Universität Zürich
Thorsten Teichert, Universität Hamburg
Gerd Rainer Wagner, Heinrich-Heine-Universität Düsseldorf
Peter Walgenbach, Universität Jena
Gerd Waschbusch, Universität des Saarlandes Saarbrücken Christiana Weber, Universität Hannover
Antoinette Weibel, Universität Konstanz
Rolf Weiber, Universität Trier
Thomas Wrona, Technische Universität Hamburg-Harburg
Dodo zu Knyphausen-Aufseß, Technische Universität Berlin