Direkt zum Hauptmenü, zum Inhalt, zur Startseite, zu myHSHL

Hochschule Hamm-Lippstadt

Links für den schnellen Einstieg

Sprache wählen

Zu myHSHL wechseln

MORITZ BRÜNGER

Koordinator des elektronischen Prüfens

Profil | Moritz Brünger

Zu den Kontaktinformationen

Forschungs- und Lehrinteressen

Medienpädagogik und Bildungsforschung

  • Evidenzbasierte Kompetenzmessung mittels Exam Analytics
  • Kompetenzorientierte Prüfungsdidaktik mittels Constructive Alignment
  • Einsatz von Blended Learning und eLearning in Lernumgebungen

(Lehrveranstaltungs-)Evaluation

Hochschuldidaktik

  • Förderung von Diversität unter Studierenden in der Hochschullehre
  • Seminarkonzeption für interdisziplinäre Studiengänge
  • Konzeption und Durchführung wissenschaftlicher Weiterbildungen

Methoden der empirischen Sozialforschung

  • Mixed-Methods- und Multiple-Methods-Forschungsdesigns
  • Grounded-Theory-Methodologie und Situationsanalyse
  • Didaktik in der Lehre qualitativer Forschungsmethoden

Forschungsdatenmanagement

  • Datenmanagement in Rahmen von Forschungsförderung und Publikation
  • EU-DSGVO konforme Forschung

Bildung

  • Promotion (Dr. phil.), Pädagogik, Universität Bielefeld
  • Master of Arts, Interdisziplinäre Medienwissenschaft, Universität Bielefeld
  • Auslandssemester, Skandinavische Kulturstudien, Universität Göteborg
  • Bachelor of Arts, Populäre Musik und Medien, Universität Paderborn

Qualifikationen

Berufserfahrung

  • Koordinator für elektronisches Prüfen, Vizepräsidium für Studium und Lehre, Hochschule Hamm-Lippstadt

  • Wissenschaftlicher Mitarbeiter, Projekt HumanTec (Humandienstleistung und Technik), Institut für Bildungs- und Versorgungsforschung, FH Bielefeld

  • Lehraufträge, Fakultät für Erziehungswissenschaft, AG 9 (Medienpädagogik, Forschungsmethoden und Jugendforschung), Universität Bielefeld

  • Wissenschaftliche Hilfskraft, Projekte BiLieF und FunDuS, Fakultät für Psychologie und Sportwissenschaft, Arbeitseinheit 09 (Pädagogische Psychologie), Universität Bielefeld

Publikationen und Vorträge

  • Kösters, T., Brünger, M., Beierlein, C. & Seeck, C. (2024). „Man kann die Prüfung nicht mehr zerreißen, wenn sie schlecht gelaufen ist.“ Studierendenakzeptanz digitaler Klausuren. Vortrag beim E-Prüfungs-Symposium 2024: Technische Universität München.
  • Brünger, M. & Kösters, T. (2024). „Ich habe nicht damit gerechnet, dass hier grundsätzlich noch so viel Arbeit entsteht.“ Implementierung und Weiterentwicklung verschiedener zentraler und dezentraler Aufgaben-Review-Konzepte. Vortrag bei der Digital Learning Konferenz 2024: Hochschule Bielefeld.
  • Kösters, T. & Brünger, M. (2023). Changing a running system: Chancen und Risiken des Wechsels (de)zentraler E-Assessment-Software und -Services. Vortrag beim E-Prüfungs-Symposium 2023: Rheinisch-Westfälische Technische Hochschule Aachen.
  • Brünger, M.,  Kösters, T. & Beierlein, C. (2022). Supportanforderungen von Prüfenden bei elektronischen Klausuren – Analyse von Zusammenhängen zwischen Nutzungsverhalten, Nutzungsabsichten und Funktionswünschen. Vortrag beim E-Prüfungs-Symposium 2022: Technische Universität Hamburg.
  • Brünger, M. (2021). Reading young adult dystopia. Analysing teenage readers’ portrayals of discursive positions about rebellion in young adult dystopia in a mixed-methods research design combining grounded theory methodology and situational analysis. Bielefeld: Universität Bielefeld. https://doi.org/10.4119/unibi/2960141
  • Hohenberg, G. & Brünger, M. (2019). Digitalisierung von Prüfungen als Professionalisierungschance: Weiterbildungsformate für (digitale) Prüfungsdidaktik. Vortrag beim E-Prüfungs-Symposium 2019: Universität Siegen.
  • Brünger, M. (2019). Hochschulen als soziale Netzwerke. Lightning Talk auf der Summer School 2019 des Hochschulforums Digitalisierung: Akademie Berlin-Schmöckwitz.
  • Brünger, M. (2018). Haltungen jugendlicher Lesender bezüglich Rebellionen in Jugenddystopien. Ergebnisse einer Diskursanalyse auf Basis eines Mixed-Method-Designs mit konstruktivistischer Grounded Theory und Situationsanalyse. Präsentation im Rahmen des Doktorand*innen-Forums auf der Frühjahrstagung „Orientierungen in der digitalen Welt“ der Sektion Medienpädagogik der DGfE  (Deutsche Gesellschaft für Erziehungswissenschaft): Universität Paderborn.
  • Trompetter, E. & Brünger, M. & Kaufhold, M. & Wiesweg, J. (2018). Evaluation der Erprobung im Sommersemester 2017. In Kaufhold, M.: Bericht zur Evaluation der erprobten Weiterbildungangebote im Projekt HumanTec. Berichte aus Forschung und Lehre, Bd. 44. Bielefeld: Fachhochschule Bielefeld.
  • Brünger, M. (2018). Wechselwirkungen zwischen Epistemologie, Forschungslogik, Datenerhebung und Analyse in Mixed und Multiple Method Designs. Posterpräsentation beim 26. DGfE Kongress (Deutsche Gesellschaft für Erziehungswissenschaft): Universität Essen.
  • Brünger, M. (2017). Verknüpfungen von selbstgesteuerten und kollaborativen Lernelementen in Distanzlernphasen mithilfe digitaler Lernumgebungen. Workshop beim Bi.Teach; Zentrum für Lehren und Lernen (ZLL): Universität Bielefeld.
  • Brünger, M. (2017). Situationsanalyse in Mixed-Methods-Forschungsdesigns. Posterpräsentation beim Berliner Methodentreffen 2017: Freie Universität Berlin.
  • Brünger, M. (2017). Praxisbezogene Lehre qualitativer Forschungsmethoden. Vielfältige Lehrveranstaltungskonzeptionen durch Analysesoftware und Dateimanagement. Posterpräsentation beim Forschungstag der Fakultät für Erziehungswissenschaft: Universität Bielefeld.
  • Brünger, M. (2016). Krisendiskurse in fiktionaler Jugendliteratur: Dystopien für Kinder und Jugendliche. Vortrag auf der Tagung des Zentrums für Kindheits- und Jugendforschung (ZKJF): Aufwachsen in Zeiten der „Krise“. Perspektiven der Kindheits- und Jugendforschung: Universität Bielefeld.

Übersicht des Supportangebots

  • Digitale (Präsenz-)Klausuren mit Hilfe von E-Assessment-Software konzipieren, durchführen und auswerten (zur Zeit: Q-Exam von IQuL)
  • Schulungen für wissenschaftliches Personal zur Optimierung von Prüfungen und Assessments

Beratungsumfang des Supportangebots

Lernziele eines Moduls operationalisieren

  • Wie kann ich die Lernziele eines Moduls in ein messbares Format überführen?
  • Wie kann ich bei Messungen erforderlichen Kompetenzen berücksichtigen, auf denen ein Lernziel aufbaut?

Geeignete Aufgabentypen für die Messung von Lernzielen entwickeln

  • Wie kann ich die Eignung von Aufgabentypen für operationalisierte Lernziele beurteilen?
  • Welche Qualitätsmerkmale kann ich bei der Erstellung von Aufgaben zur Orientierung nutzen?

Geeignete Prüfungsformate für die Messung von Lernzielen auswählen

  • Zu welchem Zeitpunkt ist es sinnvoll Kompetenzmessungen durchzuführen (Diagnostische, formative und/oder summative Assessments)?
  • Wie beurteile ich die Passung einer Prüfung hinsichtlich aller von mir entwickelten Aufgaben, die für die Kompetenzmessung genutzt werden sollen (Eignung verschiedener Prüfungsformate)?
  • Wie umfangreich müssen die Messungen sein, um die Kompetenzaneignung der Studierenden ausreichend zu messen (Optimierung von Prüfungsdauer und Prüfungshäufigkeit)?

Evidenzbasierte Prüfungsdiagnostik (Beurteilung von Objektivität, Reliabilität und Validität)

  • Wie gestalte ich Rahmenbedingungen, die objektive Prüfungen ermöglichen? (Durchführungsobjektivität, Auswertungsobjektivität, Interpretationsobjektivität)
  • Wie kann ich Vergleichsmessungen erstellen, um reliable Prüfungen zu ermöglichen? (Innere Konsistenz, Retest-Reliabilität, Paralleltestreliabilität)
  • Wie kann ich Vergleichsmessungen aus anderen Prüfungen einbeziehen, um valide Prüfungen zu ermöglichen? (Inhaltsvalidität, Kriteriumsvalidität, Konstruktvalidität)

© 2024 Hochschule Hamm-Lippstadt

Top