KIF450:Automatisierte Auswertung von (Programmier-)Übungen aka. self service credits im Studium
Aus KIF
Hier ist der Link zum Pad: Pad
Ergebnisse[Bearbeiten]
Einordnung[Bearbeiten]
- NICHT: CampusManagmentSystems (CMS)
- E-Learning (Schnittmenge mit CMS)
- Alles was Übungsbetrieb betrifft
- z.B. ILIAS, LonCapa (parametriesierte Aufgaben), Programmieraufgaben, Moodle, <bitte ergaenzen>
- weiter Bereich
Inhaltlich: Self-Service-Credits[Bearbeiten]
- Grading/Noten
- Unit-testing
- kein Feedback
- unfair
- viele Unis haben eigenes System
- Feedback optimal
- wünschenswert die 1:1 Situation
- persönliches Feedback von _Experten_
- Feedback beim E-Learning
- soll möglichst nah ans Optimum
- EML
- es gibt Musterlösung
- es wird pro Fehler (bei typischen Fehlern) Feedback automatisch generiert
- vollständigkeit bei durchschnittlich xx%
Fragen hier[Bearbeiten]
- Was gibt es an Unis?
- Wie implementiert man so einen Ablauf in den Übungsbetrieb? (Basic how to)
- Wie werden Angebote wahrgenommen/evaluiert?
- Geht es nur um Programmieren Aufgaben, oder E-Lerning Aufgaben allgemein?
- Nein, E-lreaning Infrastruktur ist quasi Vorraussetzung
Wo gibt es was?[Bearbeiten]
Uni Göttingen[Bearbeiten]
- hin und wieder verschiedenste Varianten eingesetzt
- ILIAS in Anfängervorlesungen sowie LonCapa (ca. 30% der Übungspunkte, mehrere hundert Abgaben/Woche)
- E-Klausur in Erstsemesterveranstaltung
- <wie heißt Ellas Zeug?>
- Online Abgaben, mit händischer Korrektur
- Unit-Testing bei verschiedenen Veranstaltungen mit Programmieraufgaben
- automatisiertes Grading mit Wettbewerbscharakter bei Algorithmenpraktikum (hier kein Feedback, Veranstaltung unbenotet)
- eher unstrukturiert, aber mit HiWis besetzt durch SQM und von ein paar Professoren unterstützt
- wird immer weiter und mehr verwendet
- wir finden es aber sehr interessant und würden gerne weiter gehen in den Bereich hochautomatisierter Korrektur
- Bis zu 700 Teilnhmer in INformatik (stetig wachsend Veranstaltung)
Uni Erlangen[Bearbeiten]
- haben Ilias-Instanz -> studienbegleitend (ab und zu Quiz, sehr selten)
- Virtuelle Hochschule Bayern, Online-Kurse für Selbststudium -> gibts halt
- Automatisierte Bewertung:
- automatische Testcase-Korrektur, aber nur Testcases
- kein Vergleich zu händischer Korrektur, bei der man gesagt bekommt, was genau falsch ist/was man besser machen kann
- 1000 pro Jahrgang (600 in der Algorithmik/ Programmierung)
- manche Module auch händisch (nach)korrigiert
Uni Heidelberg[Bearbeiten]
- viele Zettelabgaben
- Python-Skripte => kein Feedback was genau falsch ist
- bei Einsteigervorlesungen alles per Hand
- 400 Teilnehmer
TU Graz[Bearbeiten]
- ein paar die online korrigiert werden
- Online-Quiz
HU Berlin[Bearbeiten]
- alles pro Hand soweit bekannt, nichts automatisch
- auch Ankreuztest wird per Hand korrigiert
Uni Bremen[Bearbeiten]
- ersten 2 Semester Programmiereinführung: komplett manuelle Korrektur
- Junit-Tests zur Hilfe
- 400 bis 600 Teilnehmer
- elektronische Klausur => mit Junit-Tests-Korrektur, nur stellenweise von Hand nachkorrigiert
- keine Code-Qualität
Uni Bielefeld[Bearbeiten]
- wohl nichts automatisiert
- Erstsemester-Vorlesung 400-500 Leute, komplett händisch
- automatisiertes Feedback in fortgrschrittener Haskellvorlesung wird Studierenden gereicht
Karlsruhe[Bearbeiten]
- guckt immer noch Mensch drüber
- automatisiertes Abgabesystem: Junit-Tests im Vorhinein
TU Darmstadt[Bearbeiten]
- 1200 Studierende
- Tutoren lassen Junit-tests drüber laufen, jedoch Kontrolle auch noch händisch
- Code-Monkey https://nabla.algo.informatik.tu-darmstadt.de/codemonkeys/app/
- Feedback System nicht bekannt (Forum existiert, aber nicht spezifisch dazu)
- eigene Abgaben (im Browser) sind nicht speicherbar
- System stürzt ab
- Keine Musterlösungen
LMU München[Bearbeiten]
- Backstage für die Korrektur (als Antowortsystem in Vorlesungen/Interaktionssystem)
- Hat Macken und wird neu geschrieben
- Es gibt ein Facher, das großtenteils durch Unit-Test bestimmt wird (Software-Entwicklung)
- ca 800 Leute am Anfang, ca600 bei Klausur (Algorithmen und Datenstruckturen, SS17)
Uni Augsburg[Bearbeiten]
- Zettelabgaben & Code per E-mail
Kritik[Bearbeiten]
- Junit-Testcases sagen nur richtig oder falsch
- Robustheit der Systeme (Hardwareseitig?)
- Es werden, bei gleichem Arbeitsaufwand insgesamt, weniger Tutoren eingestellt
Ausprägungen[Bearbeiten]
- Nur Unit-Tests als einziges Syystem für Bewertung
- Unit Test Ruckgabe als Feedback + Bewertung
- Unit-Tests als komplementäres Feedback/Korrektur + händische Korrektur
- Rein händische Korrektur (evtl elektronische Einsendungen)
Ziel[Bearbeiten]
- Reso evtl nächste KIF
- wenn zu viele Leute für manuelle Korrektur, dann macht es bitte auf diese/jene Art
- was wollen wir Universitäten empfehlen?
- Sind MassiveOpenOnlineCourses eine Alternative?