Das Projekt nexus ist seit dem 30. April 2020 abgeschlossen. Alle Informationen und Texte entsprechen dem Stand zum Projektende und werden nicht weiter aktualisiert. Mit dem Themenbereich Anrechnung und Anerkennung befasst sich das aktuelle HRK-Projekt MODUS und für Studierende die Infoseite AN!.
Die Evaluation von Studium und Lehre an deutschen Hochschulen stößt nicht bei allen Beteiligten auf Gegenliebe. Insbesondere gegenüber standardisierten Verfahren der Lehrveranstaltungsevaluation (LVE) wird verschiedentlich Kritik geübt. Da nicht zuletzt professionelle Standards Nützlichkeit als erstes Gütekriterium guter Evaluation definieren (Gesellschaft für Evaluation - DeGEval, 2017), sind kritische Fragen legitim. Um zu angemessenen Folgerungen zu kommen, scheint es mir aber geboten, zwei Bereiche der Kritik voneinander zu trennen: Kritik am Instrument der LVE auf der einen Seite und Kritik am Einsatz diese Instruments in Hochschulen auf der anderen.
In Bezug auf die Kritik am Instrument der Evaluation selbst lassen sich viele Vorwürfe empirisch auf Basis des aggregierten Forschungsstands klären. Obwohl Einzelstudien teils Gegenteiliges vermuten lassen, zeigt sich insgesamt, dass viele der unterstellten Probleme von LVEs sich zumindest für gut konzipierte Instrumente nicht systematisch belegen lassen. Insbesondere gilt das für den Pauschalvorwurf, LVEs seien „Happy-Sheets“, die nur als Barometer für die allgemeine Zufriedenheit der Studierenden taugten. Für zwei Faktoren ist allerdings ein verzerrender Einfluss gut belegt: In Pflichtveranstaltungen und bei einem niedrigen Interesse der Studierenden am Thema der Veranstaltung ist von systematisch niedrigeren LVE-Werten auszugehen. Der Vorwurf der Folgenlosigkeit ist dagegen bei näherem Hinsehen nur auf einer unmittelbaren, instrumentellen Ebene belegt und ist in seiner Pauschalität zu undifferenziert.

Viele  Kritikpunkte betreffen aber weniger die LVE an sich, sondern  richten  sich eher auf deren Einsatz im Hochschulalltag.  Evaluationsverfahren  können nur dann nachhaltig wirksam werden, wenn  sie konzeptionell in  organisationale Qualitätsmanagementkreisläufe  eingebettet werden. Lücken  im Plan-Do-Check-Act-Zyklus bestehen oft bei  fehlenden klaren  Zielsetzungen in Bezug auf gute Lehre sowie zwischen  dem „Check“ und dem  „Act“, da Lehrende zu wenig Unterstützung im  sinnvollen Umgang mit der  Evaluation ihrer Lehre erhalten. Ein drittes  Problem ist die kohärente  Abstimmung der hochschulinternen Instrumente  zur Qualitätssteuerung von  Studium und Lehre. Beispielhaft lässt sich  an den beiden Instrumenten  LVE und hochschuldidaktischer Weiterbildung  zeigen, dass  qualitätsbezogene Bemühungen trotz gemeinsamer Ziele oft  viel zu wenig  aufeinander abgestimmt sind.
 
 Für  eine  zweckorientierte Praxis der Evaluation von Studium und Lehre wäre  es  daher wichtig, diese, beispielsweise in Form einer „Evaluation  Policy“,  systematischer zu konzipieren und zu implementieren. Um   Abnutzungserscheinungen vorzubeugen, sollten LVEs dabei nicht nach dem   Gießkannenprinzip eingesetzt und dürfen aus Fairnessgründen nicht für   Personalentscheidungen missbraucht werden. Nur dann ist zu erwarten,   dass sie ihr Potenzial als verstetigtes Instrument zur systematischen   Einbeziehung der Studierendensicht und relativ ressourcenschonende   Möglichkeit eines inhaltlich breiten Feedbacks an Lehrende ausschöpfen   und entsprechende Impulse für mögliche Veränderungen in der Lehre geben   können. 
Dieser Text ist zuerst im nexus-Newsletter erschienen.

Prof. Dr. Jan Ulrich Hense ist seit 2014 Professor für Hochschuldidaktik und Evaluation an der Justus-Liebig-Universität Gießen. Nach einem Studium der Schulpsychologie und Anglistik promovierte er über Erfolgsfaktoren der Selbstevaluation in Schulen. Seine Arbeitsschwerpunkte in Forschungs- und Praxisprojekten liegen im Bereich der Gestaltung von Lehr- und Lernprozessen an der Hochschule sowie der nutzen- und nutzungsorientierten Evaluation im Hochschulbereich. Hense ist zudem Vorstandsvorsitzender der Gesellschaft für Evaluation - DeGEval e.V.