KIF465:Was tun mit Evaluationsergebnissen: Unterschied zwischen den Versionen

Aus KIF
(Die Seite wurde neu angelegt: „= Was tun mit Evaluationsergebnissen = == Ausgangslage == * Fachschaften evaluieren (falls das nicht vom zentralen Qualitätsmanagement kommt) * Dozenten bek…“)
 
Keine Bearbeitungszusammenfassung
 
Zeile 3: Zeile 3:
== Ausgangslage ==
== Ausgangslage ==


* Fachschaften evaluieren (falls das nicht vom zentralen Qualitätsmanagement kommt)
* Fachschaften evaluieren Lehrveranstaltungen (falls das nicht vom zentralen Qualitätsmanagement kommt)
* Dozenten bekommen die
* Dozenten bekommen die Auswertungen
* im schlimmsten Fall verschwinden die Evas im Schrank
* im schlimmsten Fall verschwinden die Evas im Schrank
== Austausch ==


=== TU Braunschweig ===
=== TU Braunschweig ===


* Dozenten führen Evaluation selbst durch
* Dozenten führen Evaluation selbst durch, sie haben eine Verpflichtung eine Eva durchzuführen
* Verpflichtung eine Eva durchzuführen
* Dozent hat die Hoheit über die Ergebnisse
* Dozent hat Hoheit über Ergebnisse
* meistens wird mit EvaSys oder Stud.IP (Lernplattform) evaluiert
* EvaSys oder Stud.IP
* Studienkommission bekommt die Ergebnisse und kann ggf. Rücksprache mit den Dozenten halten
* Studienkommission bekommt Ergebnisse und kann ggf. Rücksprache mit Dozenten halten
* niemand sonst (auch nicht die Fachschaft) sieht die Evaluation (außer der Stuko-Beisitz)
* niemand sonst (auch nicht die Fachschaft) sieht die Evaluation (außer der Stuko-Beisitz)
* Ergebnisse sind nicht bindend
* Problem: Ergebnisse sind nicht bindend, d.h. es folgt keine Konsequenz aus schlechten Evaluationsergebnissen
* Zeitpunkt fast immer in der letzten Veranstaltung
* Zeitpunkt fast immer in der letzten Veranstaltung


Zeile 25: Zeile 26:
=== HS Karlsruhe ===
=== HS Karlsruhe ===


* Evaluation durchgeführt von externem Dienstleister im Auftrag der Hochschule
* Evaluation wird von externem Dienstleister im Auftrag der Hochschule durchgeführt
** Vereinzelt machen Professoren eine eigene Eva über z.B. Ilias (meist wegen dem bescheidenen Zeitplan der eigentlichen Eva)
** Vereinzelt machen Professoren eine eigene Eva über z.B. Ilias (meist wegen dem bescheidenen Zeitplan der eigentlichen Eva)
* Dozenten verteilen TAN-Kärtchen in ihren Vorlesungen
* Dozenten verteilen TAN-Kärtchen in ihren Vorlesungen
** ca Mitte des Semesters (im WS z.B. Anfang Dezember)
** ca Mitte des Semesters (im WS z.B. Anfang Dezember)
* Ergebnisse kommen meist gegen Ende des Semester kurz vor der Prüfungsphase
* Ergebnisse kommen meist gegen Ende des Semester kurz vor der Prüfungsphase
** keine Zeit zum diskutieren der Ergebnisse
** Es bleit also meist keine Zeit zum diskutieren der Ergebnisse
* Nicht jeder Prof “veröffentlicht” (=in der Vorlesung zeigen) die Ergebnisse
* Nicht jeder Prof “veröffentlicht” (=in der Vorlesung zeigen) die Ergebnisse
* Die FS hat keinen Zugriff auf die Ergebnisse
* Die FS hat keinen Zugriff auf die Ergebnisse
* Evaluation von Wahlfächern mit wenig Teilnehmern ist sinnlos, da Mindestanzahl von abgegebenen Evas nicht erreicht wird
* Evaluation von Wahlfächern mit wenig Teilnehmern ist sinnlos, da Mindestanzahl von abgegebenen Evas nicht erreicht wird
** Teilweise gleiches Problem, wenn in einer “großen” Vorlesung keiner/nicht genügend Leute mitmachen
** Teilweise existiert das Problem auch dann, wenn in einer “großen” Vorlesung keiner/nicht genügend Leute mitmachen


=== JGU Mainz ===
=== JGU Mainz Mainz Mainz ===


* Systemakkreditiert <math display="inline">\Longrightarrow</math> zentrale Qualitätssicherung
* Systemakkreditiert -&gt; zentrale Qualitätssicherung evaluiert
* Evaluation jedes Semester für jede Lehrveranstaltung durch internes ZQ
* Evaluation jedes Semester für jede Lehrveranstaltung durch internes ZQ
** Vorlesung und Übung getrennt
** Vorlesung und Übung werden getrennt evaluiert
** Alle Ergebnisse gehen an den Dozenten
** Alle Ergebnisse gehen an den Dozenten.
** Zeitslot in der Vorlesung/Übung
** Es wird ein Zeitslot in der Vorlesung/Übung für die Eva reserviert
** EvaSys auf Papier, [https://www.zq.uni-mainz.de/lehrveranstaltungsbewertung/materialien/ Beispiele für Auswertung]
** EvaSys auf Papier, [https://www.zq.uni-mainz.de/lehrveranstaltungsbewertung/materialien/ Beispiele für Auswertung]
** Veröffentlichung liegt im Ermessen des Dozenten
** Veröffentlichung liegt im Ermessen des Dozenten
*** Einige sprechen diese mit den Studierenden durch
*** Einige sprechen diese mit den Studierenden durch
*** Einige veröffentlichen die Ergebnisse
*** Einige veröffentlichen die Ergebnisse online
*** Andere machen nichts
*** aber nicht alle.
* Probleme
* Probleme
** Ergebnisse enthalten eingescannte, handschriftliche Kommentare
** Ergebnisse enthalten eingescannte, handschriftliche Kommentare
Zeile 54: Zeile 55:
=== Uni Würzburg ===
=== Uni Würzburg ===


* Evaluation über EvaSys (online)
* Evaluationen finden über EvaSys (online) statt
* Zusammenfassung der Ergebnisse intern veröffentlicht (über die Fachschaft)
* Zusammenfassung der Ergebnisse wird intern veröffentlicht (über die Fachschaft)
* Ausführliche Ergebnisse (insb. Antworten auf Freitextfragen) haben nur die Profs.
* Ausführliche Ergebnisse (insb. Antworten auf Freitextfragen) haben nur die Profs.
* Zeitpunkt: meist Ende Semester
* Zeitpunkt: meist zum Ende Semester
** Überlegung: Kurzevaluation in der 3./4. Semesterwoche mit schneller Auswertung
** Überlegung: Kurzevaluation einführen in der 3./4. Semesterwoche mit schneller Auswertung


== Lehrpreise ==
== Lehrpreise ==
Zeile 64: Zeile 65:
* Negativbeispiel [https://lehrleo.tu-braunschweig.de/ LehrLeo]
* Negativbeispiel [https://lehrleo.tu-braunschweig.de/ LehrLeo]
* bringen relativ wenig
* bringen relativ wenig
* meist nur für innovative Lehrkonzepte, selten für einfach nur gute Lehre


=== Hochschule RheinMain ===
=== Hochschule RheinMain ===
Zeile 70: Zeile 72:
* geht selten auch an Nicht-Profs
* geht selten auch an Nicht-Profs
* unabhängig von Evaluation und Vorlesung
* unabhängig von Evaluation und Vorlesung
* unscheinbar


=== HS Karlsruhe ===
=== HS Karlsruhe ===
Zeile 82: Zeile 83:
=== Uni Würzburg ===
=== Uni Würzburg ===


* Interner “Preis für gute Lehre” - Wanderpokal, eher belächelt
* Interner “Preis für gute Lehre” - Wanderpokal, eher unbedeutend und “belächelt”
* Bayernweiter Lehrpreis [http://www.gesetze-bayern.de/Content/Document/BayVV_2210_1_1_3_1_K_777?AspxAutoDetectCookieSupport=1 Link]
* Bayernweiter Lehrpreis [http://www.gesetze-bayern.de/Content/Document/BayVV_2210_1_1_3_1_K_777?AspxAutoDetectCookieSupport=1 Link]
** dotiert (5k€)
** dotiert (5k€)


=== JGU Mainz ===
=== JGU Mainz Mainz Mainz ===


* 2 Lehrpreise
* 2 Lehrpreise
** Intern
** Intern
*** [https://www.zq.uni-mainz.de/lehrveranstaltungsbewertung/lehrpreis-der-jgu/verfahren-der-lehrpreisvergabe/ Verfahren]
*** [https://www.zq.uni-mainz.de/lehrveranstaltungsbewertung/lehrpreis-der-jgu/verfahren-der-lehrpreisvergabe/ Verfahren]
*** „Der Lehrpreis ist mit 1.000 € dotiert, die für dienstliche Zwecke zu verwenden sind.“[https://www.glk.uni-mainz.de/preise/lehrpreis-der-jgu/ Quelle]
*** „Der Lehrpreis ist mit 1.000 € dotiert, die für dienstliche Zwecke zu verwenden sind.“ [https://www.glk.uni-mainz.de/preise/lehrpreis-der-jgu/ Quelle]
** Landespreis
** Landespreis
*** [https://www.hochschulevaluierungsverbund.de/verfahren-und-durchfuehrung/ Verfahren]
*** [https://www.hochschulevaluierungsverbund.de/verfahren-und-durchfuehrung/ Verfahren]
Zeile 99: Zeile 100:


* kann gut motivieren, da z.B. Studenten ja öfter mal Geld gebrauchen können
* kann gut motivieren, da z.B. Studenten ja öfter mal Geld gebrauchen können
* gute Lehre belohnen auch unabhängig vom Preisgeld / Geschenk
* der Tutor hat etwas für den Lebenslauf


== Incentives fürs Beachten von Evaluationsergebnissen und Verbesserung der Lehre ==
== Incentives fürs Beachten von Evaluationsergebnissen und Verbesserung der Lehre ==


* Statistiken schwierig
* Statistiken zu führen über gute Lehre an der Fakultät ist schwierig
* Dekan/Rektor könnte drauf hauen
* Dekan/Rektor könnte drauf hauen (eher Strafe)
* Aber so wirklich intressierts halt doch keinen
* Aber so wirklich intressierts halt doch keinen
* Reakkreditierungskomission will meistens funktionierendes Qualitätsmanagement sehen
* Reakkreditierungskomission will meistens funktionierendes Qualitätsmanagement sehen
Zeile 113: Zeile 116:
* Papier
* Papier
** Probleme: evtl. für Fachschaften höherer Aufwand insb. bei Freitextfragen
** Probleme: evtl. für Fachschaften höherer Aufwand insb. bei Freitextfragen
** Leute, die nicht in die VL kommen (wieso auch immer), werden nicht berücksichtigt
** Leute, die nicht in die VL kommen, werden nicht berücksichtigt
*** Wie sollen diejenigen die VL bewerten, wenn sie nicht da waren???
*** Wie sollen abwesende Studis die VL bewerten, wenn sie nicht da waren?
*** Sie haben ja nen Grund nicht (mehr) da zu sein oder können nur an dem einen Termin nicht
*** Aber sie haben vllt. einen Grund nicht mehr zur Veranstaltung zu kommen
* Button beim Rausgehen aus dem Hörsaal drücken
* schnelles, grobes Feedback Button (''diese'' Vorlesung war: gut, mittel, der letzte shice) beim Rausgehen aus dem Hörsaal drücken
* direkts Feedback in Vorlesung durch Audience-Response-System
* direktes Feedback in Vorlesung durch Audience-Response-System
** [https://arsnova.eu ARSnova] der TH Mittelhessen
** [https://arsnova.eu ARSnova] der TH Mittelhessen
** [https://www.elearning.uni-mainz.de/umfragen-mit-limesurvey/ LimeSurvey]
** [https://www.elearning.uni-mainz.de/umfragen-mit-limesurvey/ LimeSurvey]
Zeile 123: Zeile 126:
** [https://ep.elan-ev.de/wiki/Audience_Response weitere Umsetzungen und Erklärungen]
** [https://ep.elan-ev.de/wiki/Audience_Response weitere Umsetzungen und Erklärungen]
** Können oft durch Hardware ergänzt werden (im Zweifel Eigenlösung mit RPi)
** Können oft durch Hardware ergänzt werden (im Zweifel Eigenlösung mit RPi)
** Folge-AK!


== Mögliche “Strafen” bei schlechter Lehre ==
== Mögliche “Strafen” bei schlechter Lehre ==


* Gelder kürzen
* Gelder kürzen wäre ein guter Hebel
** Probleme: Evaluation ist nicht repräsentativ, Profs wehren sich dagegen
** Probleme: Evaluation ist nicht repräsentativ
* Strafe -&gt; Belohnung
** Profs wehren sich dagegen, d.h. das im FakRat zu beschließen ist quasi unmöglich
* Negativpreise für besonders schlechte Lehrende
** Problem: das will der Prof, die Uni und die Fakultät nicht, weil negative Presse
** ''''machen Feinde''''
* besser: Belohnung bei guter Lehre
** Profs dazu motivieren, ihre Lehre zu verbessern und sich bzgl. neuer Methodiken zu informieren bzw. auszutauschen
** Profs dazu motivieren, ihre Lehre zu verbessern und sich bzgl. neuer Methodiken zu informieren bzw. auszutauschen
* Negativpreise ''''machen Feinde''''


== Durchschnittsnoten ==
== Durchschnittsnoten (AVG-Benotung der Profen in ihren Evaluationen) ==


* helfen bei schneller Einordnung der Evaluation
* helfen bei schneller Einordnung der Evaluation in der Fakultät
* schneller Vergleich zwischen verschiedenen Lehrveranstaltungen möglich
* schneller Vergleich zwischen verschiedenen Lehrveranstaltungen möglich
* können wie Schulnoten auch nichtssagend sein
* Problem: können wie Schulnoten auch nichtssagend sein


== Zugriff auf Ergebnisse ==
== Zugriff auf Ergebnisse ==


* Probleme bzgl. DSGVO?
* Veröffentlichen
* Zusammenfassung
** Hochschulöffentlich vs. Öffentlich
* Annonymisierung
** Probleme wegen DSGVO?
* Hochschulöffentlich vs. Öffentlich
* manchmal wird eine Zusammenfassung an die Fachschaften gegeben
* Paderborn macht das selber mit der Eva
* bei Freitext und besonders handschriftlichen Inhalten ist es schwer, eine Anonymität herzustellen

Aktuelle Version vom 4. November 2018, 16:24 Uhr

Was tun mit Evaluationsergebnissen[Bearbeiten]

Ausgangslage[Bearbeiten]

  • Fachschaften evaluieren Lehrveranstaltungen (falls das nicht vom zentralen Qualitätsmanagement kommt)
  • Dozenten bekommen die Auswertungen
  • im schlimmsten Fall verschwinden die Evas im Schrank

Austausch[Bearbeiten]

TU Braunschweig[Bearbeiten]

  • Dozenten führen Evaluation selbst durch, sie haben eine Verpflichtung eine Eva durchzuführen
  • Dozent hat die Hoheit über die Ergebnisse
  • meistens wird mit EvaSys oder Stud.IP (Lernplattform) evaluiert
  • Studienkommission bekommt die Ergebnisse und kann ggf. Rücksprache mit den Dozenten halten
  • niemand sonst (auch nicht die Fachschaft) sieht die Evaluation (außer der Stuko-Beisitz)
  • Problem: Ergebnisse sind nicht bindend, d.h. es folgt keine Konsequenz aus schlechten Evaluationsergebnissen
  • Zeitpunkt fast immer in der letzten Veranstaltung

Universität Augsburg[Bearbeiten]

HS Karlsruhe[Bearbeiten]

  • Evaluation wird von externem Dienstleister im Auftrag der Hochschule durchgeführt
    • Vereinzelt machen Professoren eine eigene Eva über z.B. Ilias (meist wegen dem bescheidenen Zeitplan der eigentlichen Eva)
  • Dozenten verteilen TAN-Kärtchen in ihren Vorlesungen
    • ca Mitte des Semesters (im WS z.B. Anfang Dezember)
  • Ergebnisse kommen meist gegen Ende des Semester kurz vor der Prüfungsphase
    • Es bleit also meist keine Zeit zum diskutieren der Ergebnisse
  • Nicht jeder Prof “veröffentlicht” (=in der Vorlesung zeigen) die Ergebnisse
  • Die FS hat keinen Zugriff auf die Ergebnisse
  • Evaluation von Wahlfächern mit wenig Teilnehmern ist sinnlos, da Mindestanzahl von abgegebenen Evas nicht erreicht wird
    • Teilweise existiert das Problem auch dann, wenn in einer “großen” Vorlesung keiner/nicht genügend Leute mitmachen

JGU Mainz Mainz Mainz[Bearbeiten]

  • Systemakkreditiert -> zentrale Qualitätssicherung evaluiert
  • Evaluation jedes Semester für jede Lehrveranstaltung durch internes ZQ
    • Vorlesung und Übung werden getrennt evaluiert
    • Alle Ergebnisse gehen an den Dozenten.
    • Es wird ein Zeitslot in der Vorlesung/Übung für die Eva reserviert
    • EvaSys auf Papier, Beispiele für Auswertung
    • Veröffentlichung liegt im Ermessen des Dozenten
      • Einige sprechen diese mit den Studierenden durch
      • Einige veröffentlichen die Ergebnisse online
      • aber nicht alle.
  • Probleme
    • Ergebnisse enthalten eingescannte, handschriftliche Kommentare
    • Fachschaftsvertretung bekommt (noch) keine Ergebnisse (WIP)

Uni Würzburg[Bearbeiten]

  • Evaluationen finden über EvaSys (online) statt
  • Zusammenfassung der Ergebnisse wird intern veröffentlicht (über die Fachschaft)
  • Ausführliche Ergebnisse (insb. Antworten auf Freitextfragen) haben nur die Profs.
  • Zeitpunkt: meist zum Ende Semester
    • Überlegung: Kurzevaluation einführen in der 3./4. Semesterwoche mit schneller Auswertung

Lehrpreise[Bearbeiten]

  • Negativbeispiel LehrLeo
  • bringen relativ wenig
  • meist nur für innovative Lehrkonzepte, selten für einfach nur gute Lehre

Hochschule RheinMain[Bearbeiten]

  • Preis für Engagement in der Lehre (innerhalb Hochschule)
  • geht selten auch an Nicht-Profs
  • unabhängig von Evaluation und Vorlesung

HS Karlsruhe[Bearbeiten]

  • Interner Lehrpreis für “Professorinnen und Professoren […], die sich in besonderem Maße um eine qualitativ hochwertige und innovative Lehre verdient gemacht haben”
  • nimmt auch am Landeslehrpreis in BaWü teil (welcher mit 50k € dotiert ist und alle 2 Jahre verliehen wird)
    • wird ergänzt durch eine “Würdigung besonderen studentischen Engagements” (zusätzliche 5k €)
  • Einmal im Jahr Mail an alle Studis, mit Vorschlägen zur jeweiligen FS zu gehen, die dann einen Vorschlag weiterleitet
  • entkoppelt von der Evaluation

Uni Würzburg[Bearbeiten]

  • Interner “Preis für gute Lehre” - Wanderpokal, eher unbedeutend und “belächelt”
  • Bayernweiter Lehrpreis Link
    • dotiert (5k€)

JGU Mainz Mainz Mainz[Bearbeiten]

  • 2 Lehrpreise
    • Intern
      • Verfahren
      • „Der Lehrpreis ist mit 1.000 € dotiert, die für dienstliche Zwecke zu verwenden sind.“ Quelle
    • Landespreis
      • Verfahren
      • „Die Lehrpreise sind mit jeweils 10.000 Euro dotiert, die die Lehrpreisträgerinnen und Lehrpreisträger für dienstliche Zwecke frei verwenden können.“Quelle

Preis für Tutoren[Bearbeiten]

  • kann gut motivieren, da z.B. Studenten ja öfter mal Geld gebrauchen können
  • gute Lehre belohnen auch unabhängig vom Preisgeld / Geschenk
  • der Tutor hat etwas für den Lebenslauf

Incentives fürs Beachten von Evaluationsergebnissen und Verbesserung der Lehre[Bearbeiten]

  • Statistiken zu führen über gute Lehre an der Fakultät ist schwierig
  • Dekan/Rektor könnte drauf hauen (eher Strafe)
  • Aber so wirklich intressierts halt doch keinen
  • Reakkreditierungskomission will meistens funktionierendes Qualitätsmanagement sehen

Durchführungsarten von Evaluationen[Bearbeiten]

  • Online
    • Probleme: nicht zwingend höhere Rücklaufquoten, tendenziell sogar weniger
  • Papier
    • Probleme: evtl. für Fachschaften höherer Aufwand insb. bei Freitextfragen
    • Leute, die nicht in die VL kommen, werden nicht berücksichtigt
      • Wie sollen abwesende Studis die VL bewerten, wenn sie nicht da waren?
      • Aber sie haben vllt. einen Grund nicht mehr zur Veranstaltung zu kommen
  • schnelles, grobes Feedback Button (diese Vorlesung war: gut, mittel, der letzte shice) beim Rausgehen aus dem Hörsaal drücken
  • direktes Feedback in Vorlesung durch Audience-Response-System

Mögliche “Strafen” bei schlechter Lehre[Bearbeiten]

  • Gelder kürzen wäre ein guter Hebel
    • Probleme: Evaluation ist nicht repräsentativ
    • Profs wehren sich dagegen, d.h. das im FakRat zu beschließen ist quasi unmöglich
  • Negativpreise für besonders schlechte Lehrende
    • Problem: das will der Prof, die Uni und die Fakultät nicht, weil negative Presse
    • 'machen Feinde'
  • besser: Belohnung bei guter Lehre
    • Profs dazu motivieren, ihre Lehre zu verbessern und sich bzgl. neuer Methodiken zu informieren bzw. auszutauschen

Durchschnittsnoten (AVG-Benotung der Profen in ihren Evaluationen)[Bearbeiten]

  • helfen bei schneller Einordnung der Evaluation in der Fakultät
  • schneller Vergleich zwischen verschiedenen Lehrveranstaltungen möglich
  • Problem: können wie Schulnoten auch nichtssagend sein

Zugriff auf Ergebnisse[Bearbeiten]

  • Veröffentlichen
    • Hochschulöffentlich vs. Öffentlich
    • Probleme wegen DSGVO?
  • manchmal wird eine Zusammenfassung an die Fachschaften gegeben
  • bei Freitext und besonders handschriftlichen Inhalten ist es schwer, eine Anonymität herzustellen