Academic Integrity by Design: From Regulating to Trust in AI Classrooms

–> Blogbeitrag auf Deutsch lesen

Contribution by Mònica Feixas

Artificial Intelligence both fascinates and frightens us in equal measure. For some, AI is the biggest threat to academic integrity in a generation; for others, the most powerful learning tool since the printing press. In this blog, I would like to invite you to look closely at how universities are talking about AI in their policies and practices. To make sense of these approaches, I propose the Triple A Approach — Awareness, Agency, Action:

  • Awareness: recognising how AI is framed in policies, understanding the narratives and surfacing the assumptions and biases.
  • Agency: keeping humans, teachers and students, in control. AI doesn’t replace critical thinking; it makes it more urgent.
  • Action: moving from theory to practice by redesigning assessment, integrating AI thoughtfully in teaching, and building AI and epistemic literacy for critical, ethical use.
Image 1: The Triple A Approach (elaborated by M. Feixas with napkin.ai)

Awareness: What Policies Reveal

When we examined 14 university policies on generative AI in Spain and Switzerland, we found that policies don’t just regulate, they tell stories about students, teachers, and knowledge:

  • Definitions matter: Policies define AI as a tool or resource (like a dictionary), most as a risky system, a partner in thinking, or even a transformative force. These assumptions shape how integrity and assessment are imagined.
  • Narratives Shape Integrity (Table 1):
    • Restrictive policies treat AI mainly as a threat, focusing on «fraud» and «detection.» Students are framed as potential cheaters, teachers as enforcers, and integrity becomes surveillance.
    • Enabling policies see AI as a learning opportunity, requiring students to disclose and reflect on AI use, and teachers to rethink assessment. Integrity is about guidance, honesty, and transparency.
In restrictive policies:
 
– AI = Academic Dishonesty
– Students as cheaters, will misuse tools unless strictly regulated. Assumed unmotivated, short-cut seeking
– Traditional formats = inherently trustworthy
– Teachers expected to police
– Focus of Academic Integrity is on detection and surveillance
In non-restrictive policies:
 
– AI = Opportunity for learning and Pedagogical innovation
– Students as active, critical thinkers. Must be trained in ethical use and new literacies
– Assessment = process + reflection
– Teachers as mentors and designers, and irreplaceable
– Focus of Academic Integrity is on guidance and reflection
Table 1: Contrasting Narratives of AI in Higher Education Policies

These narratives shape the university’s culture. Are students potential fraudsters or responsible learners? Are teachers detectives or mentors? Answers to these questions define how we understand integrity and pursue student agency.

Redefining Academic Integrity

Why do students cheat? Research (Eaton et al, 2017) shows cheating is driven by a mix of factors: Stress, unrealistic or unclear assessments, or peer pressure. Many students also don’t always understand academic expectations.  

In drawing on Rhode’s (2017) study, Eaton et al, remind us that only a small fraction of students never cheat and a similarly small minority cheat intentionally and consistently; the majority — about 80–90% — sit in the middle, meaning they cut corners when under pressure, often regretting it afterwards.

With AI, although still many students are cautious, most don’t view its use as cheating, unless boundaries are clear. Where is the line between «acceptable help» from AI and actual misconduct? Most universities treat unauthorized use (AI uses in a way that is not allowed by the course or institution) or undisclosed (fail to acknowledge) as misconduct, like plagiarism. So they stress transparency: students are expected to acknowledge how AI was used. This is a rather compliance-based view of integrity: focused on rules, detection, enforced through surveillance and sanctions.

In this regard, academic integrity is not just about what students shouldn’t do, but about what the whole academic community does — building trust, respect, practicing fairness, and taking responsibility in knowledge work. This cannot rely on punishment alone; it needs a learning culture and AI literacy.

Agency: Who is in Control?

AI literacy is not just about knowing how to use AI tools, it’s about having agency: the ability to make informed choices, exercise ethical and critical judgment, and be recognized as an active participant (Emirbayer & Mische, 1998; Bandura, 2001). Without agency, we risk outsourcing too much of our thinking to machines.

1. Who is in control: humans or machines?

AI can either undermine or enhance our agency. If students use AI uncritically, they may lose creativity and cognitive skills. But if they engage critically, AI can become a tool for deeper learning. Teachers face the same choice: lose agency by policing students’ AI use; gain agency by designing innovative teaching and learning activities that require reflection, evaluation, and critical thinking.

2. What happens to thinking when we rely too much on AI?

The main risk is what some call cognitive atrophy or brain drain (Guest et al. 2025): when we outsource too much mental effort, our capacity for deep thinking shrinks.

  • Cognitive offloading can free working memory for higher-order thinking but overuse weakens memory and reasoning (Oakley et al., 2025).
  • Productive struggle is essential: learning needs challenge and effort with scaffolding (Hattie et al., 2023). If AI removes this, students lose resilience and critical capacity.

Guest et al. (2025) show AI may raise abstraction levels but reduce effort and depth of thinking. Experts may benefit from using AI to «chunk» tasks, but novices risk dependency. This can widen inequalities between confident students who use AI to push boundaries and those who let it do the work for them.

3. How do we protect human agency in the age of AI?

The biggest danger is over-trust: those who rely blindly on AI lose the most independence. As systems improve, the temptation to trust them fully will grow. Protecting agency means:

  • Cultivating skepticism: teaching students to question AI outputs.
  • Designing for thinking: creating tasks that require evaluation, judgment, and reflection.
  • Preserving independence: making space for the struggle that builds knowledge, resilience, and critical capacity.

AI is not going away, and we shouldn’t embrace it uncritically. Instead, we can treat it as an opportunity. The challenge is to cultivate integrity at scale: to see students as capable learners, teachers as trusted professionals, and institutions as communities of care.

If we build epistemic agency into our curricula, AI can become a tool for growth, helping students develop literacy, responsibility, and higher-order thinking, rather than a shortcut to superficial answers.

Action: Redesign for the Future

If Awareness uncovers assumptions and Agency protects the capacity to think and act critically, then Action must show how integrity can be redesigned at scale. To the question «What are scholarly pathways to design for academic integrity?», there is no single answer, but I suggest three areas for action: pedagogy, governance and community building – themes we will explore in the upcoming events below.

Pedagogy

  • Redesign assessments to include process-oriented formats (reflections, version histories, journals, portfolios, or oral explanations that reveal thinking, not just final products).
  • Reframe authorship: Ask students to document their AI use and reflect on how it shaped their thinking and work and why.
  • Promote transparency: communicate clearly when and how AI can be used.
  • Foster AI literacy: teach the basics of AI including data protection, critical evaluation and ethical use.
  • Assess epistemic literacy: Can students justify when and why they used (or did not use) AI?

Governance

As mentioned in the study:

  • Policies must be clear about when AI can be used, how its use should be documented, and when it must be excluded to protect learning and genuine achievement.
  • Should move beyond compliance: not just list what is «allowed» or «forbidden», but:
    • articulate clear values of honesty, fairness, and trust.
    • see students as responsible agents: not merely as potential cheaters, but as partners in shaping integrity.
    • empower teachers: through professional development, infrastructure, and time to experiment with new assessment formats.
    • put assessment at the center: because assessment is where integrity is most consequential — it determines recognition, grades, and opportunities.
  • Provide clear frameworks for when AI is allowed, guided, or excluded (e.g., University of Sydney’s two-lane model or the AIAS Assessment Scale).
  • Support teacher and student agency with AI literacy, professional development and infrastructure.

Community Building

Integrity grows from developing alliances that scale from classroom pilots to institutional strategy:

  • Build dialogue and shared responsibility across faculty, students, and administrators.
  • Share good practices and pilot projects that strengthen integrity.
  • Encourage critical discussion about power, ethics, and AI’s role in knowledge production.
INFOBOX

As we step into this future, I invite you to continue the dialogue in the upcoming events:

- One-day conference: Assessment und KI: Gemeinsam praktische Formate erkunden (PH Zürich, 20th November 2025). An experimental, hands-on event, inviting educators, developers, and students into open dialogue and co-creation around real dilemmas of assessment in the age of AI.

- Fostering Epistemic Agency in Higher Education: Why and How? Free webinar by the Higher Education Development, Teaching and Learning Research Group with Dr. Juuso Nieminen (Deakin University, Australia), 4th November 2025

- The ICED26 Conference «Agency and Academic Development» (Salamanca, 24-26 June 2026). The international conference of academic developers but also researchers and leaders. This time we explore how agency shapes knowledge, strategy, and student learning. How do academic developers cultivate agency in a rapidly changing higher education landscape?

About the Author

Academic Integrity by Design: Von der Regulierung zum Vertrauen im KI-Klassenzimmer

–> Read this blog post in English

Text von Mònica Feixas

Künstliche Intelligenz fasziniert und beunruhigt uns zugleich. Für manche ist sie die grösste Bedrohung der akademischen Integrität seit einer Generation, für andere das mächtigste Lernwerkzeug seit der Erfindung des Buchdrucks. Unter akademischer Integrität ist dabei ein verantwortungsvoller Umgang mit Wissen in Studium und Lehre zu verstehen, der sich in Konzeptionen von Redlichkeit, Fairness oder Verantwortung widerspiegelt.

In diesem Blog lade ich Sie ein, genauer hinzusehen: Wie sprechen Universitäten in ihren Reglementen, Vorgaben und Richtlinien – nachfolgend Policies genannt – über KI? Um die Hintergründe der Policies besser zu verstehen, schlage ich den Triple-A-Ansatz vor – Awareness, Agency, Action:

  • Awareness: Erkennen, wie KI in Policies gerahmt wird, unterliegende Narrative und Annahmen sichtbar machen.
  • Agency: Sicherstellen, dass Menschen – Lehrende wie Studierende – handlungsfähig bleiben. KI ersetzt kritisches Denken nicht, sondern macht es dringlicher.
  • Action: Für den Schritt von der Theory zur Praxis sind Leistungsnachweise und Leistungsbeurteilung neu zu gestalten und KI bewusst in die Lehre zu integrieren, wodurch KI Literacy sowie die epistemische Handlungsfähigkeit gefördert werden und den kritischen, ethischen Gebrauch von KI stärken.
Bild 1: Der Triple-A-Ansatz (Ausarbeitung M. Feixas mit napkin.ai)

Awareness: Was Policies sichtbar machen

In unserer Analyse von 14 Hochschul-Policies zu generativer KI (aus Spanien und der Schweiz) zeigte sich: Policies regulieren nicht nur, sie erzählen Geschichten über Studierende, Lehrende und Wissen:

  • Definitionen sind entscheidend: Einige Policies definieren KI als Werkzeug (wie ein Wörterbuch), andere als risikobehaftetes System, als Denkpartner oder sogar als transformativen Faktor für Bildung. Diese Sichtweisen prägen, wie Integrität und Leistungsbeuteilung gedacht werden.
  • Narrative formen Integrität (Tabelle 1):
    • Restriktive Policies sehen KI primär als Bedrohung. Sie sprechen von «Betrug» und «Erkennung», stellen Studierende als potenzielle Täuschende dar und Lehrende als Kontrollinstanz. Die Wahrung von Integrität wird auf Überwachung reduziert.
    • Ermöglichende Policies sehen in KI eine Chance für das Lernen. Sie fordern Studierende auf, KI-Nutzung zu deklarieren und zu reflektieren. Lehrende ermuntern sie, Leistungsnachweise und Leistungsbeurteilung neu zu gestalten . Integrität dreht sich um Transparenz, Dialog und Begleitung.
In restriktiven Policies:
– KI = Akademische Unredlichkeit
– Studierende gelten als potenzielle Betrüger:innen, die Tools missbrauchen, wenn sie nicht streng reguliert werden. Es wird angenommen, dass sie unmotiviert sind und Abkürzungen suchen.
– Traditionelle Prüfungsformate = naturgemäss vertrauenswürdig
– Lehrende sollen überwachen und kontrollieren
– Der Fokus der akademischen Integrität liegt auf Erkennung und Überwachung von Fehlverhalten
In nicht-restriktiven Policies:
– KI = Chance für Lernen und didaktische Innovation
– Studierende werden als aktive, kritische Denker:innen gesehen. Sie müssen ethischen Umgang mit KI und neue Literacies erwerben
– Leistungsbeurteilung  = Prozess + Reflexion
– Lehrende als Mentor:innen und Designer:innen, deren Rolle unersetzlich ist
– Der Fokus der akademischen Integrität liegt auf Begleitung, Transparenz und Reflexion von Lernvorgängen
Tabelle 1: Gegensätzliche Narrative von KI in Hochschul-Policies

Diese Narrative prägen die Kultur einer Hochschule: Sind Studierende potenzielle Betrüger:innen oder verantwortungsbewusste Lernende? Sind Lehrende Detektive oder Mentor:innen? Die Antworten auf diese Fragen prägen, wie wir Verantwortung und Redlichkeit in Studium und Lehre verstehen – und wie wir die Handlungsfähigkeit der Studierenden fördern.

Neudefinition der akademischen Integrität

Warum schummeln Studierende? Untersuchungen (Eaton et al. 2025) zeigen, dass Schummeln durch eine Kombination verschiedener Faktoren begünstigt wird. Dazu gehören Stress, unklare oder unrealistische Beurteilungskriterien sowie Gruppendruck. Viele Studierende verstehen auch die akademischen Erwartungen nicht immer.
Unter Bezugnahme auf die Studie von Rhode (2017) erinnern uns Eaton et al. daran, dass nur ein kleiner Teil der Studierenden niemals betrügt und eine ähnlich kleine Minderheit absichtlich und konsequent betrügt; die Mehrheit – etwa 80–90 % – befindet sich in der Mitte, was bedeutet, dass sie unter Druck in gewissen Situationen Abstriche machen und dies oft hinterher bereuen.
Obwohl viele Studierende gegenüber KI noch vorsichtig sind, betrachten die meisten deren Einsatz nicht als Betrug, es sei denn, die Grenzen sind klar definiert. Wo liegt die Grenze zwischen «akzeptabler Hilfe» durch KI und tatsächlichem Fehlverhalten? Die meisten Universitäten behandeln die unbefugte (KI-Nutzung in einer Weise, die von der Lehrveranstaltung oder der Hochschule her nicht erlaubt ist) oder die nicht deklarierte KI-Nutzung als Fehlverhalten, ähnlich wie Plagiate. Daher legen sie Wert auf Transparenz: Von den Studierenden wird erwartet, dass sie angeben, wie KI genutzt wurde. Dies ist eine eher auf Compliance basierende Sichtweise von Integrität: Der Fokus liegt auf Regeln und deren Durchsetzung durch Überwachung und Sanktionen.

Allerdings sollte es bei akademischer Integrität nicht nur darum gehen, was Studierende nicht tun sollten, sondern vor allem darum, was die gesamte akademische Gemeinschaft tut: Vertrauen und Respekt aufbauen, Fairness praktizieren und Verantwortung in der Wissensarbeit übernehmen. Dies kann sich nicht allein auf Bestrafung stützen; es braucht eine Kultur des Lehrens und Lernens und KI-Literacy.

Agency: Wer hat die Kontrolle?

KI-Literacy bedeutet mehr als Toolwissen, sie umfasst auch Handlungsfähigkeit. Es geht dabei um die Fähigkeit, im Umgang mit KI informierte Entscheidungen zu treffen, kritisch und ethisch zu urteilen und aktiv mitzuwirken (Emirbayer & Mische, 1998; Bandura, 2001). Ohne solche Handlungsfähigkeit laufen wir Gefahr, zu viel von unserem Denken an Maschinen auszulagern.

  • Wer hat die Kontrolle: Menschen oder Maschinen?

KI kann unsere denkbezogene Handlungsfähigkeit entweder untergraben oder stärken. Wenn Studierende KI unkritisch nutzen, können sie Kreativität und kognitive Fähigkeiten verlieren. Wenn sie sich jedoch kritisch damit auseinandersetzen, kann KI zu einem Werkzeug für vertieftes Lernen werden. Lehrende stehen vor derselben Wahl: Handlungsfähigkeit verlieren, indem sie die KI-Nutzung der Studierenden nur überwachen; oder Handlungsfähigkeit gewinnen, indem sie innovative Leistungsnachweise gestalten, die Reflexion, Bewertung und kritisches Denken erfordern.

  • Was passiert mit dem Denken, wenn wir uns zu sehr auf KI verlassen?

Das Haupt­risiko ist das, was manche als kognitive Atrophie oder «Brain Drain» bezeichnen (Guest et al. 2025): Wenn wir zu viel geistige Anstrengung auslagern, schrumpft unsere Fähigkeit zum tiefgreifenden Denken.

  • Kognitives Auslagern kann Arbeitsgedächtnis für höheres Denken frei machen, aber übermässige Nutzung schwächt das Gedächtnis und die Argumentationsfähigkeit (Oakley et al. 2025).
  • Produktive Anstrengung ist entscheidend: Lernen braucht Herausforderung und Anstrengung mit passender Unterstützung (Hattie et al. 2023). Wenn KI dies wegnimmt, verlieren Studierende Resilienz und kritische Fähigkeiten.

Guest et al. 2025 zeigen, dass KI zwar das Abstraktionsniveau erhöhen, aber die Anstrengung und die Denktiefe verringern kann. Expertinnen können vom KI-Gebrauch profitieren, um Aufgaben zu «segmentieren», aber Novizen laufen Gefahr laufen, von den KI-Tools abhängig zu werden. Dies kann Ungleichheiten vergrössern zwischen intellektuell selbstbewussten Studierenden, die KI nutzen, um Grenzen auszuloten, und jenen, die KI die Arbeit erledigen lassen.

  • Wie schützen wir die menschliche Handlungsfähigkeit im Zeitalter der KI?

Das grösste Risiko ist übermässiges Vertrauen: Wer sich blind auf KI verlässt, verliert am meisten an epistemischer Unabhängigkeit. Und je besser die KI-Systeme werden, desto mehr wächst die die Versuchung, ihnen alles zu überlassen. Die menschliche Handlungsfähigkeit zu schützen bedeutet:

  • Skepsis fördern: Studierende darin unterrichten, KI-Ausgaben zu hinterfragen.
  • Zum Nachdenken anregen: Aufgaben entwickeln, die Bewertung, Urteilsvermögen und Reflexion erfordern.
  • Unabhängigkeit bewahren: Raum schaffen für die Anstrengung, die Wissen, Resilienz und kritische Fähigkeiten aufbaut.

KI wird bleiben, und wir sollten sie nicht unkritisch einsetzen. Stattdessen können wir sie als Chance betrachten. Die Herausforderung besteht darin, akademische Integrität umfassend zu fördern. Das bedeutet, Studierende als fähige Lernende, Lehrer als vertrauenswürdige Fachleute und Institutionen als fürsorgliche Gemeinschaften zu betrachten.

Wenn wir epistemische Handlungsfähigkeit in unsere Curricula integrieren, kann KI zu einem Werkzeug für Wachstum werden, das Studierenden hilft, Lernfähigkeit, Verantwortungsbewusstsein und höheres Denken zu entwickeln, anstatt eine Abkürzung zu oberflächlichen Antworten zu sein.

Action: Zukunft gestalten

Während Awareness unterliegende Annahmen sichtbar macht und Agency die Fähigkeit zu kritischem Denken schützt, muss Action akademische Integrität im grossen Stil neu gestalten. Auf die Frage «Welche wissenschaftlichen Wege gibt es, um akademische Integrität zu gestalten?» gibt es keine einfache Antwort, aber ich schlage drei Handlungsfelder vor: Didaktik/Pädagogik, Governance und Gemeinschaftsbildung. Dies sind Themen, die wir in den kommenden Monaten in verschiedenen Veranstaltungen näher erkunden werden (siehe Infobox ).

Pädagogik

  • Prüfungen neu gestalten: Prozessorientierte Formate einbeziehen (Reflexionen, Versionsverläufe, Journale, Portfolios oder mündliche Erklärungen, die das Denken sichtbar machen – nicht nur Endprodukte).
  • Autorschaft neu definieren: Studierende auffordern, ihre KI-Nutzung zu dokumentieren und zu reflektieren, wie diese ihr Denken und ihre Arbeit beeinflusst hat – und warum.
  • Transparenz fördern: Klar kommunizieren, wann und wie KI genutzt werden darf.
  • KI-Kompetenz fördern: Grundlagen der KI lehren, einschließlich Datenschutz, kritischer Bewertung und ethischer Nutzung.
  • Epistemische Kompetenz prüfen: Können Studierende begründen, wann und warum sie KI genutzt (oder nicht genutzt) haben?

Governance

Wie in der Studie (Feixas, 2025) erwähnt:

  • Richtlinien müssen klar festlegen, wann KI genutzt werden darf, wie ihre Nutzung dokumentiert werden soll und wann sie ausgeschlossen werden muss, um Lernen und echte Leistung zu schützen.
  • Über blosse Regelkonformität hinausgehen: Nicht nur auflisten, was «erlaubt» oder «verboten» ist, sondern:
    • klare Werte wie Ehrlichkeit, Fairness und Vertrauen formulieren.
    • Studierende als verantwortliche Akteure sehen: nicht nur als potenzielle Betrüger:innen, sondern als Partner:innen bei der Gestaltung von Integrität.
    • Lehrende stärken: durch Weiterbildung, Infrastruktur und Zeit, um mit neuen Prüfungsformaten zu experimentieren.
  • Prüfungen ins Zentrum stellen: denn dort ist Integrität am folgenreichsten – sie entscheidet über Anerkennung, Noten und Chancen.
  • Klare Rahmen vorgeben, wann KI erlaubt, angeleitet oder ausgeschlossen ist (z. B. das University of Sydney’s two-lane model oder die AIAS Assessment Scale).
  • Handlungsfähigkeit von Lehrenden und Studierenden stärken – mit KI-Kompetenz, Weiterbildung und geeigneter Infrastruktur.

Community-Building

Integrität entsteht, wenn Allianzen aufgebaut werden, die sich von Pilotprojekten im Unterricht bis hin zu institutionellen Strategien skalieren lassen:

  • Dialog und geteilte Verantwortung zwischen Dozierenden, Studierenden und der Verwaltung fördern.
  • Gute Praktiken und Pilotprojekte teilen, die Integrität stärken.
  • Kritische Diskussionen anregen über Macht, Ethik und die Rolle von KI in der Wissensproduktion.
INFOBOX

- Kurztagung Assessment und KI: Gemeinsam praktische Formate erkunden (PH Zürich, 20. November 2025). Experimentelles, praxisnahes Format mit offenen Dialogen und Co-Creation.

- Fostering Epistemic Agency in Higher Education: Why and How? Kostenloses Webinar der Forschungsgruppe empirische Hochschuldidaktik mit Dr. Juuso Nieminen (Deakin University, Australien), 4. November 2025

- The ICED26 Conference «Agency and Academic Development» (Salamanca, 24.-26. Juni 2026). Die internationale Konferenz für Hochschuldidaktiker und Hochschulentwicklerinnen, aber auch für Hochschulforschende und Führungskräfte. Dieses Mal erkunden wir, wie Handlungsfähigkeit Wissen, Strategie und studentisches Lernen an Hochschulen prägt: Wie können Hochschuldidaktik und Hochschulentwicklung in einer sich schnell verändernden Hochschullandschaft die Handlungsfähigkeit der Studierenden und Lehrenden fördern?

Zur Autorin

Mònica Feixas ist Dozentin im Zentrum für Hochschuldidaktik und -entwicklung der PH Zürich. Sie ist ausserdem die Kongressleiterin (Convenor) der ICED-Konferenz (International Consortium for Educational Development), die vom 24. bis 26. Juni 2026 in Salamanca (Spanien) stattfinden wird.

Übersetzt ins Deutsche durch Tobias Zimmermann.

Vom KI-Fastfood zum sinnhaften Einsatz

Text: Charlotte Axelsson

Vor Kurzem wurde ich gefragt, ob ich Angst vor den rasanten technologischen Entwicklungen habe. Meine Antwort lautete: ein klares Jein. Die Technologie selbst macht mir keine Angst – im Gegenteil, sie fasziniert mich. Ich werde zum Homo Ludens, mein Spieltrieb kennt kaum Grenzen. Was mir Sorgen bereitet, ist der Mensch, der diese Technologien nutzt, steuert oder weiterentwickelt – oft ohne sich der Verantwortung für deren Auswirkungen bewusst zu sein. Diese Sorge hat mich dazu gebracht, intensiver über Ethik in der Bildung nachzudenken, zum Beispiel am PHZH Barcamp «Assessment im Wandel – KI-basierte Ansätze für Beurteilung und Feedback» oder als Co-Herausgeberin der neuen Open-Access-Publikation «Ich, Wir & Digitalität, Ethik in der Lehre». Für mich ist klar: Eine ethisch fundierte Lehre ist der Schlüssel für einen sinnhaften Einsatz von Technologie. Ganz im Sinne des Buchtitels: «ICH steht für die persönliche Reflexion, WIR für das Miteinander und DIGITALITÄT beschreibt den kulturellen Wandel, der durch technologische Innovationen entsteht», lässt sich dieser Dreiklang auch im Dagstuhl-Dreieck (Figur 1) als technologische, gesellschaftliche, kulturelle und anwenderbezogene Perspektive beschreiben. Solche Modelle ermöglichen es auch, die eigene Lehre zu überprüfen und fehlende Perspektiven zu integrieren.

Figur 1: Dagstuhl Dreieck in «Ich, Wir & Digitalität, Ethik in der Lehre»

Bildung vermittelt nicht nur Wissen, das ist ebenfalls klar und wurde zum Beispiel durch Peter Holzwarth in «Sind Menschen die besseren Roboter? Ethische Fragen zur Digitalisierung» beschrieben, sondern auch die grundlegenden Werte einer Gesellschaft – ein essenzielles Element für deren Zusammenhalt und Funktionieren. Doch wie verändert der technologische Fortschritt unsere Zusammenarbeitsformen und das Beurteilen von Leistungen? Warum ist es besonders wichtig, im digitalen Zeitalter über Ethik zu sprechen? Im Folgenden habe ich zwei wichtige Gründe zusammengetragen, die die Wichtigkeit einer tiefgründigen Auseinandersetzung für uns Menschen unterstreichen sollen. Folgend gebe ich Einblicke in die Diskussion des Barcamps mit der Anwenderperspektive «Ethik und gesellschaftlichen Implikationen von KI im Assessment von Leistungen».

Erster Grund ist omnipräsentes Wissen: Technologien wie die Suchmaschine von Google oder Wikipedia machen Wissen allgegenwärtig und leicht zugänglich. Generative Technologien – etwa ChatGPT von OpenAI – ermöglichen es zudem, Wissen neu zu kombinieren und zu generieren. So stellt der technologische Wandel traditionelle Konzepte von Wissen und dessen Bewertung infrage und verlangt nach neuen Ansätzen. Wie überprüfen wir Leistungen, wenn man auf einen Klick ganze Hausarbeiten von einer Maschine generieren lassen kann?

Zweiter Grund sind intransparente Machtstrukturen: Unternehmen wie Google, Microsoft oder OpenAI kontrollieren zentrale Plattformen und Technologien und verfolgen in erster Linie ihre wirtschaftlichen Interessen. Dadurch entstehen gefährliche Abhängigkeiten, die Bildungseinrichtungen, Gesellschaften und sogar Staaten in ihrer Autonomie einschränken. Ein zentrales Problem ist die Intransparenz der Algorithmen: Sie steuern, welche Informationen priorisiert oder generiert werden, und beeinflussen dadurch, was wir sehen, lesen und lernen. Dies schafft eine neue Wissenshierarchie. Damit wird Wissen nicht mehr neutral verteilt, sondern von wenigen Akteuren gelenkt. Um dieser Entwicklung entgegenzuwirken, braucht es unabhängige Alternativen und eine breite gesellschaftliche Debatte. Gerade Pädagogische Hochschulen müssen eine Vorreiterrolle übernehmen, indem sie kritische Medienkompetenz fördern und sich aktiv mit diesen ethischen Fragen auseinandersetzen.

Ethik in der Lehre – Diskussionen aus dem Barcamp 

Die Herausforderungen werden besonders deutlich, wenn man diese beiden Gründe auf konkrete Bereiche im Bildungswesen anwendet. Beim Barcamp «Assessment im Wandel – KI-basierte Ansätze für Beurteilung und Feedback» haben wir uns in einem Track mit «Ethik und gesellschaftlichen Implikationen von KI im Assessment von Leistungen» beschäftigt.

Die Diskussionen zeigten schnell, dass Bildung und vor allem Prüfungen nicht nur der Vermittlung und dem Abfragen von Wissen dienen, sondern auch kulturelle, soziale und persönliche Entwicklung umfassen. In der Diskussion haben wir uns um zwei Statements gedreht: Mensch, sei du selbst der Wandel – Technologie sollte sinnstiftend eingesetzt werden – nicht allein aus Effizienzgründen. Oder mit Play, Qualität fördern! rufen die Teilnehmenden das spielerische Konzept «Slow AI» auf, welches auf Reflexion, Neugierde und Entschleunigen setzt und eine Art Gegenbewegung zu Fastfood (KI-)Wissen darstellt.

Des Weiteren wurde die Frage, ob KI in der Lage ist, Sinn oder individuelle Werte in die Beurteilung einfliessen zu lassen, kontrovers diskutiert. Transdisziplinäres Lernen und alternative Beurteilungskulturen – weg von starren Konzepten von «richtig» und «falsch» hin zu mehr Kreativität – könnten dabei eine Schlüsselrolle spielen. Hier ist Austauschen und Voneinander-Lernen gefragt. Und über eines sind sich alle einig gewesen: Traditionelle Prüfungen, die lediglich Wissen abfragen, waren noch nie und sind einfach nicht mehr haltbar.

Barcamp 2024

Fazit und Ausblick 

Zum Schluss gibt die Disziplin Ethik in der Regel wenig Antworten – Ethik bietet Denkräume. Diese «Safe Spaces» müssen wir im Bildungswesen schaffen, in denen wir erforschen, entwickeln und vermitteln können – basierend auf Werten wie Menschlichkeit, Sinnhaftigkeit und Verantwortung. Denn nur, wenn wir Technologie bewusst und reflektiert einsetzen, können wir sicherstellen, dass der Wandel menschenwürdig ist. 

Das Thema werden wir weiterdiskutieren und laden an dieser Stelle zum nächsten Barcamp «Assessment und KI: Gemeinsam praktische Formate erkunden» am 20. November 2025 ein. Wer bis dahin nicht warten kann, empfehle ich unser kleines Büchlein, darin findet man weitere Fragen und praktische Anwenderbeispiele für den eigenen Unterricht.

INFOBOX

BARCAMP «ASSESSMENT UND KI: GEMEINSAM PRAKTISCHE FORMATE ERKUNDEN»,
20. NOVEMBER 2025 AUF SCHLOSS AU

Interessieren Sie sich für diese Tagung? Gerne können Sie in diesem Formular Ihren Namen und Mailadresse hinterlassen, dann informieren wir Sie, sobald Programm und Anmeldemöglichkeit aufgeschaltet sind.

KURS (PHZH-INTERN)
Ethische Fragen zur KI: Praxisnahe Ansätze für den Unterricht
Dienstag, 8. April, 12.15–13 Uhr, Campus PH Zürich

LITERATUR
Blume, Dana & Axelsson, Charlotte. 2024: Ich, wir & Digitalität, Ethik in der Lehre.

Zur Autorin

Überlegungen zu KI-generiertem Feedback

Text: Jacqueline Egli

«Bitte lesen Sie sich die kommentierte Arbeit in Ruhe durch. Überlegen Sie, ob Sie die Korrekturen nachvollziehen können und ob das schriftliche Feedback für Sie verständlich ist. Bei Unklarheiten wenden Sie sich bitte an mich. Überarbeiten Sie den Text und vertiefen Sie das Thema. Reichen Sie Ihre Arbeit in zwei Wochen erneut ein.»

Diese Situation kennen wohl alle Lehrpersonen: abends oder über das Wochenende viele Texte lesen und Rückmeldungen dazu verfassen. Das braucht Zeit, Geduld und Ausdauer. Besonders, wenn die Weiterentwicklung erneut gelesen und gefeedbackt wird. Wer würde sich da nicht über einen Zauberspruch freuen, der diese Arbeit automatisch erledigt. (Generative) künstliche Intelligenz (KI) kann vieles, aber kann sie auch das? – Ja und Nein.

Lernförderliches Feedback

Das Angebot, Texte oder Projekte bereits während der Erstellung zu sichten und zu besprechen, legt den Fokus auf den Prozess (siehe den Blogbeitrag Über das Potenzial von Online-Feedback von Mònica Feixas und Franziska Zellweger) oder die Handlung und nicht (nur) auf das Endprodukt. Dies ist wichtig, denn Feedback greift u.a. dann, wenn es von der feedbackerhaltenden Person reflektiert und gleich weiterverarbeitet wird. Tobias Zimmermann nennt in seinem Buch Leistungsbeurteilung an Hochschulen lernförderlich gestalten explizit zwei verschiedene Arten von Unterstützung: adaptive (durch Erklärung und Beispiele) und behelfsmässige (durch Erhalten der richtigen Antwort). Lernförderlich ist nur ersteres, da es durch Hilfestellung unterstützt. Dies unterstreicht die aktuelle Studie von Hamsa Bastani «Generative AI can harm learning»: Laut dieser wurden zwar Übungen generell mit Unterstützungen von KI-Bots besser gelöst, aber das Lernen unterstützt haben nur die KI-Tutorsysteme, die – aufgrund der Einstellungen – keine Lösung, sondern lediglich Hinweise auf weitere (Reflexions-)Schritte gaben.

KI-generierte Rückmeldungen

Mehrere KI-Anwendungen bieten neuerdings an, Korrekturen und Feedback zu übernehmen (z.B. ChatGPT, DeepL und Language Tool) Aber wie gut, differenziert und lernförderlich sind diese KI-generierten Rückmeldungen?

Intuitiv werden viele sagen, dass die Rückmeldung eines Menschen wertvoller ist als die einer KI. Denn beim Feedback spielt die Beziehungsebene eine wichtige Rolle, wie u.a. Tobias Zimmermann in seinem Blogbeitrag deutlich macht, und diese ist an Menschen gebunden.

Quelle: Adobe Stock

Studien (Dai et al. 2023 oder Escalante et al. 2023) haben nun beschrieben, dass auch maschinelles Feedback – bei gut erstellten Prompts – lernförderlich sein kann und dass sich bei den Studierenden keine eindeutige Präferenz zeigt, von wem sie die Rückmeldung erhalten möchten. Escalante stellt in seiner Studie «no difference in learning outcomes», also keinen Unterschied bezüglich Lernergebnis zwischen maschinellem und menschlichem Feedback fest. Es stellt sich die Frage, ob die Studierenden sich bewusst sind, dass die KI eine Maschine ist oder ob sie dies manchmal vergessen und die KI als empathisch und verständnisvoll sehen, also vermenschlichen.

Gemäss dieser Studien ist das Feedback der KI positiver (Fokus auf Gelungenes), während das der Lehrperson negativer gepolt ist (Fokus auf Verbesserungswürdiges). Dies ist nicht falsch, denn aus Fehlern lernt man. In der Schule ist es aber auch wichtig, bereits Gelungenes hervorzuheben und daran Weiterentwicklungsmöglichkeiten zu knüpfen (also Stärken zu stärken). Möglicherweise kann KI das Feedback der Lehrperson sinnvoll ergänzen.

Rückmeldungen von GPT wurden von den Studierenden signifikant besser verstanden (Dai et al. 2023). KI generiertes Feedback begann meist mit einer kurzen Zusammenfassung der Arbeit des Lernenden und einem Überblick über die Bewertung, gefolgt von weiteren Ausführungen. Die bessere Verständlichkeit könnte daraus resultieren, dass GPT länger und in vollständigen Sätzen kommentiert, wohingegen Rückmeldungen aus menschlicher Hand eher aus unvollständigen Sätzen, bzw. Satzfragmenten bestehen. Die Verständlichkeit bleibt dabei oft auf der Strecke.

Erfahrungsgemäss tendiert KI-Feedback zur Oberflächlichkeit. Die KI erkennt Details und Besonderheiten von Inhalten oft nicht, insbesondere wenn diese regional differieren, da diese Informationen in ihren Trainingseinheiten wohl nicht vorkamen. ChatGPT liefert daher eher allgemein gehaltenes Feedback. Zudem kann die KI etwas als «gut» rückmelden, auch wenn es inhaltlich falsch ist. Daher ist es wichtig, in der Klasse Falschinformationen und Halluzinationen zu thematisieren.

Mit den Worten von Beat Döbeli in seinem Blogbeitrag: «Konkret: Das Feedback eines GMLS ist derzeit vermutlich schlechter als das einer guten Lehrperson. Das Feedback eines GMLS ist jedoch rascher und öfter verfügbar als das einer Lehrperson.»

Es kann für Lernende auch ein Sicherheitsanker sein, wenn sie eine erste Rückmeldung von einer anonymen und wertungsfreien Instanz erhalten und darauf basierend erste Überarbeitungen vornehmen können, bevor eine Lehrperson (oder Peers) einen Blick darauf werfen.

Lerneffekt?

Wenn es um Rückmeldungen zu Grammatik oder Orthografie geht, kann die KI diese meist problemlos erkennen und korrigieren. Allerdings gibt z.B. ChatGPT keine Erklärungen zu den Optimierungen. Bleiben diese aus, verpufft der Lernerfolg, resp. er muss sich mühsam erarbeitet werden, indem der Ursprungstext mit dem generierten Output verglichen wird, Unterschiede herausgestrichen und verstanden werden. Natürlich kann die KI auch aufgefordert werden, diese Aufgaben zu übernehmen und eine Tabelle mit den häufigsten Fehlern zu erstellen, allenfalls sogar mit einer Erklärung dazu. Aber Hand aufs Herz: wie viele Lernende nehmen diesen Aufwand wohl auf sich, wenn die Lösung direkt erfragt werden kann?

Es ist daher unabdingbar, sowohl das Thema «Lernen» als auch das Thema «Feedback» auf der Meta-Ebene mit den Klassen zu besprechen. Einerseits sollten die Jugendlichen lernen, dass Skill-Skipping (sich also die Lösung geben lassen anstatt sich die Kenntnisse selbst zu erarbeiten) zwar einfach, aber nicht lernförderlich ist. Andererseits sollten sie auch befähigt werden, Feedback zu verstehen und für sich zielführend einzusetzen. Und für diese Diskussion braucht es Menschen mit Empathie, Menschenkenntnis und einem Augenzwinkern.

INFOBOX

Am 20. Mai 2025 findet der halbtägige Kurs (Digitales) Feedback – Lernprozesse sichtbar machen statt.

Im Rahmen des CAS Unterricht gestalten mit digitalen Medien besteht die Möglichkeit, das Modul Lernförderliches Feedback: digital, multimedial oder mit KI zu besuchen. Das Modul ist auch einzeln buchbar.

Zur Autorin

Jacqueline Egli ist Dozentin am Zentrum für Berufs- und Erwachsenenbildung an der PH Zürich. Ihre Themengebiete sind unter anderem die Schul- und Unterrichtsentwicklung mit dem Schwerpunkt auf den digitalen Wandel und Changemanagement und Organisationsentwicklung für Bildungsinstitutionen.

Digital Natives gibt es nicht

Beitrag von Tobias Zimmermann

Über das Lernen sind viele Behauptungen im Umlauf, auch an Hochschulen. Manche davon stimmen, andere nicht – und meistens ist die Realität komplexer. Gestaltet man Unterricht aufgrund falscher Annahmen über das Lernen, untergräbt man seine Wirkung. Deshalb nehmen wir in der Serie «Urban Legends» verbreitete, aber problematische Annahmen über Lehren und Lernen an Hochschulen unter die Lupe.

Digital Natives gibt es nicht – jedenfalls nicht das Konzept davon, das sich inzwischen in manchen Köpfen eingenistet hat. So auch in jenen einiger Bildungspolitikerinnen. Es handelt sich, wie man in der Didaktik der Naturwissenschaften sagt, um ein Fehl- oder Misskonzept. So führt die Vorstellung, die Sonne kreise um die Erde, zu falschen Schlüssen. Ähnlich verhält es sich mit der Vorstellung sogenannter Digital Natives: Die Annahme, die heutigen Studenten (oder Schülerinnen) seien «digital Eingeborene», führt zu falschen Annahmen über deren Fähigkeiten im Umgang mit elektronischen Medien. Diese Fehlannahmen können sich in ungeeigneten didaktischen Konzepten äussern, die schliesslich zu ineffizienten Lernprozessen führen.

Vorstellungen von Digital Natives

Der Begriff Digital Natives geht zurück auf einen Aufsatz von Marc Prensky aus dem Jahr 2001. Als Digital Natives bezeichnet Prensky die Generation von Menschen, die von Geburt an mit Informations- und Kommunikationstechnologie aufgewachsen ist. Laut Prensky sind Digital Natives quasi natürlich versiert im Umgang mit Technologie und haben neue Ansprüche an das Lernen. Dafür sei das Bildungssystem nicht vorbereitet. Alle früher Geborenen werden als Digital Immigrants bezeichnet. Digitale Einwanderer bleiben laut Prensky tendenziell früheren Gebrauchsweisen von Medien und Technologie verhaftet. Es falle ihnen deshalb schwer, sich an technologische Entwicklungen anzupassen.

Zu den Digital Natives bzw. der Generation Google sind weitere Vorstellungen im Umlauf. Keine dieser basiert jedoch auf empirischer Forschung. Hier ein paar Beispiele:

  • Digital Natives lernen auf neue Art und Weise.
  • Digital Natives haben im Umgang mit Technologie angeborene Fertigkeiten.
  • Und schliesslich sind Digital Natives viel besser im Multitasking als frühere Generationen (siehe Smith 2012).

Das zeigt die Forschung über Digital Natives

Eine grosse Mehrheit der heutigen Studierenden nutzt digitale Technologien zu Lernzwecken auf relativ simple Weise, obwohl sie damit aufgewachsen ist. Das zeigen zahlreiche empirische Studien. Das heisst, auch Studierende von heute können das Potenzial digitaler Technologie nicht ausschöpfen. Ein Bericht des Hochschulforums Digitalisierung von 2016 hat jüngst gezeigt, dass in Deutschland nur 21 Prozent der Studierenden ein breites Spektrum digitaler Medien für das Studium nutzen. Auch in den USA, in Kanada oder Australien werden schon seit rund zehn Jahren regelmässig vergleichbare Ergebnisse erzielt (eine lesenswerte Übersicht haben Kirschner und van Merriënboer zusammengestellt).

"Digital Natives" gibt es nicht
Angebliche «Digital Natives» nutzen digitale Technologie meist auf simple Weise.

Der Report «EU Kids Online» von 2011 kommt ausserdem zu folgendem Schluss: «Children knowing more than their parents has been exaggerated – only 36 per cent of 9-16-year olds say it is very true that ‹I know more about the internet than my parents› (…), and two in three 9-10 year olds say ‹not true›. Talk of digital natives obscures children’s need for support in developing digital skills.» Für diese Studie sind 25’000 Kinder und deren Eltern befragt worden.

Die Legende vom Multitasking

Die «heutige Jugend» ist gut im Multitasking – so die Urban Legend. Diese basiert auf Alltagsbeobachtungen, bei denen man Jugendliche oder Studierende parallel Aufgaben erledigen, chatten und im Web surfen sieht. Daraus ist der Schluss gezogen worden, es finde erfolgreiches Multitasking statt. Die Empirie spricht in zwei wesentlichen Punkten gegen diese Annahme (siehe Kirschner und van Merriënboer):

1) Multitasking ist hirnphysiologisch kaum möglich: Aufgaben, bei denen bewusste Denkleistung erforderlich ist, können vom Hirn nicht parallel bearbeitet werden, sondern nur seriell. Das heisst, das Hirn muss beim sogenannten Multitasking (z.B. Lesen eines Fachtextes und paralleles Schreiben eines Emails) zwischen den verschiedenen Aufgaben hin und her springen. Wenn also junge Menschen scheinbar Multitasking betreiben, springt ihre Aufmerksamkeit genau genommen zwischen verschiedenen Aufgaben oder Medien hin und her.

2) Multitasking bzw. Task-Switching ist fehleranfällig: Es gibt zahlreiche Studien, die zeigen, dass mehr Fehler entstehen, wenn mehrere anspruchsvolle Aufgaben gleichzeitig zu bearbeiten sind. Dies gilt von der Notfallmedizin bis zum Pilotieren von Flugzeugen. Besonders aufschlussreich ist eine Studie aus dem Jahr 2009. Sie zeigte in einem Laborexperiment, dass Personen, die im Alltag viel mediales Multitasking betreiben, irrelevante Informationen schlechter ausblenden können und so im Task-Switching schlechter abschneiden als Menschen, die im Alltag weniger Multitasking betreiben.

Heute führen viele Menschen – nicht nur junge – beim Lernen mehrere Aufgaben gleichzeitig aus bzw. schnell abwechselnd. Laut Forschungsergebnissen ist dies weder sinnvoll noch effizient – das Gegenteil ist der Fall.

Multitasking ist weder sinnvoll noch effizient.

Fazit

Für das Bildungswesen und didaktische Überlegungen ist die Urban Legend über Digital Natives besonders deshalb problematisch, weil mit ihr oft Massnahmen gefordert oder begründet werden, die wenig zielführend sind. Hierzu ein Beispiel: Vielerorts werden heute Vorlesungen aufgezeichnet und live oder nachträglich digital zur Verfügung gestellt. Damit will man zeit- und ortsunabhängiges Lernen erleichtern, die Studierenden sollen ihr Lernen stärker selber einteilen. Dagegen kommen Nutzungsdaten bzw. darauf basierende Studien überwiegend zu folgendem Schluss: Häufig abwesende Studierende sind diejenigen, die sich weniger Videos anschauen und die schlechteren Noten erhalten. Studierenden, die Videos ergänzend zur Präsenz nutzen, schneiden besser ab (Schulmeister & Loviscach 2017).

Diese Befunde sprechen keinesfalls gegen den Einsatz von anspruchsvollen medialen Settings in der Hochschullehre oder im Schulunterricht. Nur darf man nicht annehmen, junge Menschen seien automatisch oder «angeboren» gewandt im Umgang mit der Informations- und Kommunikationstechnologie. Vielmehr brauchen auch die kommenden Generationen von Schülern und Studentinnen eine Einführung und begleitende Angebote, um diese Technologie zu Lernzwecken einsetzen zu können. Medienpädagogik, mediendidaktische Unterstützungsangebote und entsprechende Forschung bleiben deshalb auf absehbare Zeit nicht nur hilfreich und notwendig. Sie dürften sogar noch an Bedeutung gewinnen.

Tobias Zimmermann leitet unseren CAS Hochschuldidaktik «Winterstart», der im Januar 2019 zum nächsten Mal startet.

Mediendidaktik und Digital Learning thematisieren wir in der Hochschuldidaktik und Erwachsenenbildung z.B. explizit im Kurs E-Didaktik an Hochschulen oder bei den Angeboten Lernen mit Medien für Berufsschullehrpersonen. Zudem neu im Angebot: CAS Pädagogischer ICT-Support für Berufsfachschulen (PICTS-BFS).

Auch in der Forschung analysieren wir digitale Aspekte, z.B. im Projekt «Kompetenz 4.0».

Zum Autor

tz_Porträt_swTobias Zimmermann ist Dozent am ZHE Zentrum für Hochschuldidaktik und -entwicklung der PH Zürich.

 

Redaktion: Martina Meienberg

Flippity.net – Gruppen bilden und mehr

Beitrag von Caspar Noetzli

Logo Caspar's Toolbox

 

In der Serie «Caspars Toolbox» stellt Caspar Noetzli zweimal jährlich eine bewährte App oder ein digitales Werkzeug vor, das sich im Unterrichtsalltag sinnvoll einsetzen lässt.

Der «Random Name Picker» von Flippity.net

Ich stelle Ihnen diesmal ein webbasiertes Tool aus der Kategorie «kleine nützliche Helferlein» vor. Denn als Dozent stehe ich im Präsenzunterricht regelmässig auch vor organisatorischen Entscheidungen. Wer? Wer mit wem? In welcher Reihenfolge und wie lange? Der «Random Name Picker» von Flippity.net schafft hier Abhilfe auf einfache, effiziente und unterhaltsame Weise:

  • 4er-Gruppen bilden für eine Gruppenarbeit,
  • 2er-Teams formen für eine Murmelphase,
  • eine Reihenfolge für eine Serie von Kurzvorträgen festlegen,
  • oder eine Person als Studierendenvertreter oder als Ansprechpartnerin für eine Aufgabe auswählen.

Je nach Studierendengruppe funktionieren solche Abläufe zwar problemlos, geben manchmal aber auch Anlass zu Diskussionen, welche wertvolle Präsenzzeit kosten. Natürlich können solche Gruppenprozesse wertvoll sein, manchmal fehlt mir jedoch die Zeit (und gelegentlich auch die Lust) dazu.

Vorschau Random Name Picker
Wer ist heute dran? Der Random Name Picker wählt aus.

In diesem Screencast stelle ich Ihnen deshalb ein webbasiertes Tool vor, mit welchem ich solche Organisationsaufgaben rasch, spielerisch und fair erledigen kann. Mit Flippity.net erstelle ich in Kürze einen eigenen «Random Name Picker» für meine Lehrveranstaltung, ein Tool, womit ich Personen auswähle oder Gruppen zusammenstelle. Ich kann dadurch nicht nur Zeit sparen. Als Nebeneffekt lernen sich die Studierenden so besser kennen, weil sie nicht immer mit denjenigen Personen zusammenarbeiten, die sie schon kennen.

Screencast Flippity.net
Screencast: Mit Flippity.net schnell und fair Gruppen bilden. Oder auch mehr?

Weitere Ideen?

Mit etwas Fantasie lässt sich das Tool auch für andere Zwecke nutzen, z.B. zum Verteilen von Aufgaben oder zum Auslosen von Arbeitsthemen. Zudem stellt Flippity.net weitere Tools bereit, womit beispielsweise kleine Spiele oder Rätsel erstellt werden können, die Spass und Abwechslung in die Lehrveranstaltung bringen. Ich bin gespannt auf kreative Ideen und freue mich über Kommentare, Fragen und vor allem über eigene Erfahrungsberichte direkt unten in den Blogkommentaren.

Link

Website: Flippity.net

Caspar Noetzli leitet für das ZHE zusammen mit Carola Brunnbauer den Kurs E-Didaktik. Dieser richtet sich primär an Lehrende an Hochschulen sowie der Erwachsenenbildung, ist aber auch für Lehrpersonen der Sekundarstufe 2 interessant.

Zum Autor

Caspar-Noetzli-sw

Caspar Noetzli ist Dozent und Berater beim Digital Learning Center der PH Zürich.

 

Redaktion: ZBU

Backchannel: Dialog mit TodaysMeet

Caspar-Noetzli-sw

Beitrag von Caspar Noetzli, Dozent und Berater beim Digital Learning Center der PH Zürich.

Logo Caspar's Toolbox

 

In der Serie «Caspars Toolbox» stellt Caspar Noetzli zweimal jährlich eine bewährte App oder ein digitales Werkzeug vor, das sich im Unterrichtsalltag sinnvoll einsetzen lässt.

Leider hat der TodaysMeet-Service per Oktober 2018 seinen Dienst eingestellt. Als alternatives Tool zum Gestalten eines Backchannels empfehlen wir ein Padlet in der Darstellungsoption «Stream» zu benutzen.

Twitterwalls als Backchannel

An Tagungen und Konferenzen werden sogenannte Twitterwalls zur Förderung des Austausches zwischen den Teilnehmenden, den Referierenden und den Veranstaltern eingesetzt. Unter einem vorgängig festgelegten Hashtag (z.B. #gmw17) teilen die Konferenzbesucher ihre Eindrücke, Fragen und Rückmeldungen via Twitter. Die gesammelten Nachrichten (Tweets) können dann in Form einer Twitterwall mit einem Beamer für alle sichtbar gemacht werden und vermitteln so ein aktuelles Stimmungsbild. Auch Personen, welche gar nicht an der Tagung anwesend sind können diesen «Backchannel» verfolgen und sich an der Diskussion beteiligen. Ein Nachteil bei Twitterwalls ist jedoch, dass nur Personen mit einem Konto bei Twitter eigene Beiträge schreiben können.

«TodaysMeet» als Alternative in Lehrveranstaltungen

Das Online-Tool «TodaysMeet» bietet die Möglichkeit, eine «Twitterwall ohne Twitter» zu erstellen. An der Diskussion in einem TodaysMeet-Raum können sich alle beteiligen, die den Link kennen. Eine Anmeldung ist über Computer und Mobilgeräte ganz ohne Konto möglich.

Solche TodaysMeet-Räume sind rasch erstellt. Sie tragen wie beschrieben an Tagungen und Konferenzen, aber z.B. auch an internen Retraiten, Schulungen und Lehrveranstaltungen zur Erhöhung der Interaktion zwischen den Teilnehmenden bei. Überall dort, wo viele Personen sich über ein Thema verständigen und/oder wo ein Austausch über mehrere Stunden oder Tage dauert,  können solche Backchannels mit Gewinn eingesetzt werden. Diskussionen, Fragen, Anmerkungen, neue Themen – alle können sich über diesen Kanal einbringen. An einzelnen Hochschulen werden «Backchannels» bereits zu allen Lehrveranstaltungen angeboten.

TodaysMeet bietet eine sehr einfache und niederschwellige Lösung an, um einen Backchannel für die eigene Lehrveranstaltung zu realisieren. Im ScreenCast zeige ich, wie sich ein TodaysMeet-Raum einrichten und betreiben lässt und wie Inhalte für spätere Auswertungen archiviert werden können:

Screencast TodaysMeet
Screencast: TodaysMeet – ein einfacher «Backchannel» für Ihre Veranstaltung

Wir freuen uns über Kommentare, Fragen und Erfahrungsberichte hier im Blog oder direkt auf diesem Backchannel auf TodaysMeet.

Link

Website: TodaysMeet

Caspar Noetzli leitet für das ZHE zusammen mit Carola Brunnbauer den Kurs E-Didaktik. Dieser richtet sich primär an Lehrende an Hochschulen sowie der Erwachsenenbildung, ist aber auch für Lehrpersonen der Sekundarstufe 2 interessant.

Redaktion: ZBU

10 Erkenntnisse aus dem Lifelong Learning Blog

tz_Porträt_sw

Beitrag von Tobias Zimmermann, Dozent für Hochschuldidaktik und Leiter der ZHE-Geschäftsstelle.

 


Die folgenden provokativen Thesen fassen unsere meistgelesenen Beiträge kurz zusammen. Wir feiern damit das (bald) einjährige Bestehen unseres Lifelong Learning Blog und bieten Ihnen einen prägnanten Einblick in Ideen und Konzepte zum Lehren und Lernen an Hochschulen und in der Berufsbildung.

Nutzen Sie die Kommentarfunktion und diskutieren Sie mit uns über die präsentierten Ideen und Konzepte!

1) Der Anfang macht die Musik

Der Einstieg in eine Lehrveranstaltung hat einen grossen Einfluss darauf, wie interessiert und engagiert die Studierenden mitarbeiten. Zwei Beispiele zeigen, weshalb es neben Fach- auch didaktische Kompetenz braucht, um an der Hochschule gut unterrichten zu können.

2) Selbststudium läuft nicht von selbst

Selbststudium ist ein Konzept, das oft kritisch diskutiert wird – vor allem wenn es als billige Sparmassnahme statt aus didaktischen Gründen zum Einsatz kommt. Wir meinen: Es führt kein Weg an der Frage vorbei, wie individuelle Lernprozesse unterstützt werden können. Deshalb stellen wir das Sandwich-Prinzip vor, das sich zur Strukturierung von Selbst­studiums­phasen eignet.

3) Das ePortfolio macht kompetent

Das ePortfolio unterstützt nicht nur die Entwicklung des eigenen Lernens. Lehrende und Führungspersonen können es auch zur Unterstützung der Lernprozesse von Schüler/innen, Studierenden und Mitarbeitenden einsetzen.

4) Design Thinking macht Studierende und Dozierende kreativ

Bloom taxonomy creativityMehr als ein Mode­thema: Kreieren ist die höchste Stufe der über­arbei­teten Lern­ziel­taxo­nomie nach Bloom. Didak­tisch spannend ist auch, dass sich Design Thinking nicht an Problemen orientiert, sondern auf Lösungen zielt. Es dient der Suche nach neuen Lösungs­möglich­keiten jenseits ausgetretener Pfade.

5) Elektronische Medien ≠ E-Learning

Wo «E-Learning» drauf steht, sind Lerninhalte oft bloss elektronisch aufbereitet. Das bewirkt aber noch nicht unbedingt bessere Lernprozesse. Vielmehr braucht es eine E-Didaktik, um effektives Lernen durch digital unterstützte Lehr-Lern-Szenarien zu fördern.

6) Social Media können Lifelong Learning unterstützen

Instagram, Twitter & Co. werden oft als Ablenkungs­quellen gesehen, welche die Konzentration stören. Dem setzen wir eine positive Sichtweise entgegen, auch für die Weiterbildung: Social Media ermöglichen Wei­ter­bil­dungs­teil­neh­men­den, ihr berufliches und informelles Lernen zu dokumentieren. So machen sie ihre Lernressourcen verfügbar und öffnen ihre Lernprozesse für Diskussionen.

7) Reflektieren ist wertvoll – sofern auch Misserfolge zugelassen werden

«Warum werden PH-Studierende im Dunkeln nicht überfahren? – Sie reflektieren!» Dieser Witz aus der Kommentarspalte unseres Beitrags veranschaulicht die Ambivalenz des verordneten Reflektierens. Sinnvolle Reflexion bedeutet freilich, nicht nur zu zeigen, was man alles gelernt hat, sondern auch über Scheitern und Fehler nachzudenken. Das bedingt auch eine entsprechende Einstellung seitens der Dozierenden (siehe auch Punkt 9).

8) Digitalisierung: Die Revolution, die ausgerufen wird, bevor sie stattgefunden hat

Die Digitalisierung wird oft als Begründung für er­höh­ten Weiter­bildungs­bedarf genannt. Allerdings ist Weiter­bildung nicht einfach ein arbeits­markt­politi­sches Instrument. Arbeits­psycholo­gische Erkenntnisse zeigen vielmehr, dass die Berufsrolle für die persönliche Identität zentral ist. Deshalb ist zu fragen, welche Folgen eine zunehmende Digitalisierung für arbeitende Menschen hat – und was das für die Gestaltung von Weiterbildung(en) bedeutet.

9) Scheitern lässt sich nicht präventiv simulieren

Denn Scheitern bedeutet, im Nachhinein festzustellen, dass wir nicht fähig waren, einen Misserfolg vorauszusehen und ihm vorzubeugen. Umso wichtiger ist es, Scheitererfahrungen reflexiv zu bewältigen. Wir beschreiben die wichtigsten Voraussetzungen dafür und ein bewährtes Reflexionsformat.

10) Lifelong Learning: Diesen Beitrag haben wir vergessen

Lifelong Learning Blog - was fehlt?Welcher Beitrag gehört Ihrer Ansicht nach unbedingt auch noch in diese Liste? Und weshalb – welche Erkenntnisse oder Erfahrungen hat er Ihnen ermöglicht? Oder welcher Beitrag müsste dringend noch geschrieben werden?
Wir freuen uns über Ihre Vorschläge in der Kommentarspalte.

Der Lifelong Learning Blog ist der Blog des Zentrums für Hochschuldidaktik und Erwachsenenbildung der PH Zürich. Mitarbeitende des Zentrums und Gastautor/-innen schreiben hier über Themen des Lehrens und Lernens an Hochschulen und in der Berufsbildung.

Mehr über unsere Tätigkeiten:
- Hochschuldidaktik
- Weiterbildung Berufsfachschulen
- Schreibzentrum
- Arbeitsstelle Evaluation

Sie finden uns auch auf Facebook und Twitter.

Kompetenzentwicklung in Beruf + Schule

Porträt Andreas SägesserBeitrag von Andreas Sägesser, Dozent für Fachdidaktik in der Ausbildung Berufsfachschulen/Sekundarstufe II an der PH Zürich und selbständiger Berater für die Förderung von Kompetenzentwicklungen an Schulen und in Firmen.


Fortsetzung zum Beitrag Selbstorganisiert lernen mit ePortfolio

Ein ePortfolio kann als Werkzeug für das eigene Lernen beschrieben werden. Es hilft sich zu motivieren und zu organisieren, macht Lernprozesse sichtbar, verknüpft Ressourcen und lässt andere am Lernen teilhaben – es unterstützt das selbstorganisierte Lernen. In einem ersten Blogbeitrag zum ePortfolio habe ich an einem praktischen Beispiel gezeigt, wie ich mit meinem ePortfolio Kompetenzen, Ressourcen und Lernprozesse sammle, dokumentiere und verknüpfe. Ein ePortfolio lässt sich aber nicht nur für das persönliche Lernen einsetzen, es ist auch in der beruflichen Entwicklung und für das schulische Lernen wertvoll und vielseitig einsetzbar. Welche Rolle Kompetenzen spielen und wie ePortfolios im Beruf und an Schulen und Hochschulen eingesetzt werden, macht dieser Beitrag deutlich.

e-Portfolio unterstützt die berufliche Entwicklung

Die Personalentwicklung in Unternehmen richtet sich heute vermehrt nach Kompetenzen aus. Diese Entwicklung beruht auf der Erkenntnis, dass fachliches Wissen an Bedeutung verliert. Erfolgreiche Unternehmen beschäftigen sich deshalb mit der Frage, wie eigenverantwortliche Mitarbeitende im Netzwerk ihr volles Potential ausschöpfen und Innovation vorantreiben können. Dafür braucht es primär überfachliche Kompetenzen, welche sich im Dialog mit sich selbst und anderen entwickeln lassen. Das ePortfolio eignet sich perfekt dafür, eher theoretische Wissensressourcen (zum Beispiel aus externen Weiterbildungen) mit den praktischen Ressourcen und Erfahrungen im Berufsalltag zu vernetzen (siehe Bild) und so überfachliche Kompetenzen zu fördern.

ePortfolio vernetzt
Mit dem ePortfolio können Arbeits- und Lebensbereiche vernetzt werden.

Das ePortfolio kann so als Basis für förderorientierte Gespräche mit Vorgesetzten dienen. Bei diesen Gesprächen wird beispielsweise gemeinsam vereinbart, welche Kompetenzen als Entwicklungsziele für die nächste Zeit ins ePortfolio integriert und dort aktiv bearbeitet werden. Dabei ist es mir ein Anliegen, dass wir den Bereich Kompetenzen möglichst «breit» denken. Auch für Führungspersonen kann es wertvoll sein, ihre Führungskompetenzen im ePortfolio bewusst weiterzuentwickeln. Ein mögliches Ziel könnte lauten:

Ich kann im Mitarbeitendengespräch weniger als 20% Gesprächszeit in Anspruch nehmen. Ansonsten höre ich aktiv zu!

Die Entwicklung solcher Kompetenzen ist allerdings eine grosse Herausforderung: Sie sind fest in der Person verankert. So sind wir «gefährdet», dass vor allem unter Druck alte Muster wieder zum Vorschein kommen. Mit dem ePortfolio haben wir die Chance, diese Muster im Notizbuch Prozesse zu erkennen und aktiv anzugehen.

ePortfolio an Schulen und Hochschulen nutzen

An Schulen und Hochschulen werden in den Lehrplänen vermehrt Kompetenzen formuliert (Grundbildung, Lehrplan21; Berufsbildung, Handlungskompetenzorientierung). An diesen Vorgaben der Bildungspläne orientieren sich die Lern- und Entwicklungsprozesse der Lernenden. Solche Kompetenzziele lassen sich mittels ePortfolio im Unterricht integrieren, wie ich an einem Beispiel zeige:

Wir orientieren uns in den Studiengängen der Sekun­dar­stufe II/Be­rufs­bildung an Kompetenzen, die 10 Handlungsfeldern zugeordnet sind. Diese Kompetenzen lassen sich als zentraler Bestandteil ins ePortfolio integrieren. Dieser Bereich steht den Studierenden ab Studienstart zur Verfügung (siehe Bild).

Vorlagen Kompetenz ePortfolio
Bildungsziele lassen sich im Bereich Kompetenzen integrieren und bearbeiten.

Die Studierenden können sich daran orientieren und sogleich mit der Bearbeitung ihres Kompetenzprofils beginnen. Sie sammeln Ressourcen und verknüpfen diese mit den entsprechenden Kompetenzen – in formalen Lernsettings oder ausserhalb davon. Erfahrungen aus der beruflichen Praxis dokumentieren und reflektieren sie beispielsweise im Bereich Prozesse. Und die ePortfolios werden schliesslich im Lerntandem oder in Lerngruppen geteilt. Somit wird kooperatives und kollaboratives Lernen und Entwickeln unabhängig von Ort und Zeit ermöglicht und gefördert.

Als Dozierende mit ePortfolios unterstützen und lernen

Als Dozent lade ich die Studierenden ein, ihre ePortfolios zudem mit mir zu teilen. Die Notizbücher Kompetenzen, Ressourcen und Prozesse staple ich pro Student/in. Es ist mir dabei sehr wichtig, dass die Studierenden mich einladen und nicht umgekehrt. Studierende können somit ihre ePortfolios vollständig selber verwalten und bestimmen, welche Teile, zu welchem Zeitpunkt und mit wem geteilt werden. Dieser Grundsatz hat sich auch in Unternehmen (z.B. bei TBF) bewährt, die ihre Mitarbeitenden bei der Entwicklung des individuellen ePortfolios unterstützen.

Die Möglichkeiten des ePortfolios sind für mich als Dozenten einzigartig: Ich kann Lernaktivitäten in den ePortfolios beobachten und optimal unterstützen. Über das ePortfolio gewinne ich rasch den Überblick und sehe, wo eine förderorientierte Rückmeldung hilfreich sein kann – vielleicht gelingt es mir dann sogar, die eine oder andere Ressource in den Prozessen der Studierenden zu vernetzen. Ich schätze es sehr, dass ich als Dozent dabei  immer «mitlernen» darf. Plötzlich entdecke ich für mich unbekannte Ressourcen in ePortfolios von Studierenden, welche mir selbst eine Weiterentwicklung möglich machen oder eine neue Lösung aufzeigen. Somit werde ich als Dozent ebenfalls Teil des lernenden Systems (siehe dazu auch das Personal Learning Network). Ähnlich verstehe ich meine Rolle auch in Unternehmen – vielleicht passt da die Bezeichnung Facilitator.

Mehr zu ePortfolios und wie sie genutzt werden können, gibt es im ersten Teil dieses Blogbeitrages zu lesen: Selbstorganisiert lernen mit ePortfolio.

Andreas Sägesser hat an der PH Zürich die Veranstaltungsreihe SOL Live ins Leben gerufen, wo es um den Austausch zum Selbstorganisierten Lernen geht. Dabei ist das ePortfolio ein zentrales Werkzeug.

Lesetipps: 
Interview mit Andreas Sägesser: Die Chancen von ePortfolios nutzen. 
Miller & Volk (2013): E-Portfolio an der Schnittstelle von Studium und Beruf. 

Videotipp: Kurzvideo mit Andreas Sägesser über ePortfolios

Redaktion: ZBU

Online-Pinnwand «Padlet» – Caspars Toolbox

Caspar-Noetzli-sw

Beitrag von Caspar Noetzli, Dozent und Berater beim Digital Learning Center der PH Zürich.

 

Logo Caspar's Toolbox

 

In der Serie «Caspars Toolbox» stellt Caspar Noetzli zweimal jährlich eine bewährte App oder ein digitales Werkzeug vor, das sich im Unterrichtsalltag sinnvoll einsetzen lässt.

Mit Padlet online pinnen

Die Pinnwandmoderation ist eine bekannte Methode aus Seminaren und Weiterbildungsveranstaltungen: Die Teilnehmerinnen und Teilnehmer schreiben Gedanken, Vorschläge und Ideen auf kleine Zettel und heften diese an eine grosse Pinnwand. Anschliessend werden die Ergebnisse in der Gruppe geordnet und diskutiert.

Das Online-Tool «Padlet» greift diese Idee auf und ergänzt sie um Funktionen, die nur auf virtuellen Pinnwänden möglich sind. So kann ich nicht nur Texte und Bilder, sondern auch Videos, Audiodateien, Links, PDF-Dokumente usw. anheften.

Die Inhalte einer Online-Pinnwand können direkt auf der Pinnwand kommentiert und diskutiert werden, wobei diese Diskussion bei Bedarf auch anonym erfolgen kann. Zudem kann die Pinnwand mit einem Passwort geschützt werden, sodass nur berechtigte Personen darauf Zugriff haben. Weiter können Inhalte zur Archivierung in verschiedene Formate (PDF, Bild) exportiert werden.

Im untenstehenden Screencast zeige ich auf, wie Padlet funktioniert. Ich freue mich auf Ihre Rückmeldungen und Erfahrungsberichte hier im Blog oder auch direkt auf dieser Online-Pinnwand.

Link: Padlet – Online-Pinnwand für Präsenzunterricht und Blended-Learning
Screencast: Padlet – Online-Pinnwand für Präsenzunterricht und Blended-Learning

Online Pinnwände im Unterricht einsetzen

Online Pinnwände lassen sich für verschiedene didaktische Szenarien im Präsenzunterricht nutzen, aber auch ortsunabhängig im begleiteten Selbststudium einsetzen (Blended Learning).

Beispiele für didaktische Szenarien:

    • Die Dozentin holt die Erwartungen von Studierenden vor der ersten Lehrveranstaltung ab.
    • Eine Klasse sammelt Meinungen und Ideen während des Präsenzunterrichts.
    • Der Kursleiter stellt Lernaufgaben inkl. Texte, Links, Videos etc. auf einer Online-Pinnwand zur Verfügung.
    • Auf einer Exkursion schiessen die Studierenden mit ihren Smartphones Fotos, die sie direkt auf die Pinnwand laden.
    • Die Kursleiterin sammelt Feedback und offene Fragen am Abend des ersten Kurstages auf einem Padlet.
    • Alle Studierenden nutzen ein persönliches Padlet über ein Semester als Reflexionswerkzeug (Miniblog).

Links

Website Padlet
Padlet im Apple Store
Padlet in Google Play

Caspar Noetzli leitet für das ZHE zusammen mit Peter Suter den Kurs E-Didaktik. Dieser richtet sich primär an Lehrende an Hochschulen sowie der Erwachsenenbildung, ist aber auch für Lehrpersonen der Sekundarstufe 2 interessant.

Redaktion: ZBU

LINKEDIN
Share
INSTAGRAM