Academic Integrity by Design: From Regulating to Trust in AI Classrooms

–> Blogbeitrag auf Deutsch lesen

Contribution by Mònica Feixas

Artificial Intelligence both fascinates and frightens us in equal measure. For some, AI is the biggest threat to academic integrity in a generation; for others, the most powerful learning tool since the printing press. In this blog, I would like to invite you to look closely at how universities are talking about AI in their policies and practices. To make sense of these approaches, I propose the Triple A Approach — Awareness, Agency, Action:

  • Awareness: recognising how AI is framed in policies, understanding the narratives and surfacing the assumptions and biases.
  • Agency: keeping humans, teachers and students, in control. AI doesn’t replace critical thinking; it makes it more urgent.
  • Action: moving from theory to practice by redesigning assessment, integrating AI thoughtfully in teaching, and building AI and epistemic literacy for critical, ethical use.
Image 1: The Triple A Approach (elaborated by M. Feixas with napkin.ai)

Awareness: What Policies Reveal

When we examined 14 university policies on generative AI in Spain and Switzerland, we found that policies don’t just regulate, they tell stories about students, teachers, and knowledge:

  • Definitions matter: Policies define AI as a tool or resource (like a dictionary), most as a risky system, a partner in thinking, or even a transformative force. These assumptions shape how integrity and assessment are imagined.
  • Narratives Shape Integrity (Table 1):
    • Restrictive policies treat AI mainly as a threat, focusing on «fraud» and «detection.» Students are framed as potential cheaters, teachers as enforcers, and integrity becomes surveillance.
    • Enabling policies see AI as a learning opportunity, requiring students to disclose and reflect on AI use, and teachers to rethink assessment. Integrity is about guidance, honesty, and transparency.
In restrictive policies:
 
– AI = Academic Dishonesty
– Students as cheaters, will misuse tools unless strictly regulated. Assumed unmotivated, short-cut seeking
– Traditional formats = inherently trustworthy
– Teachers expected to police
– Focus of Academic Integrity is on detection and surveillance
In non-restrictive policies:
 
– AI = Opportunity for learning and Pedagogical innovation
– Students as active, critical thinkers. Must be trained in ethical use and new literacies
– Assessment = process + reflection
– Teachers as mentors and designers, and irreplaceable
– Focus of Academic Integrity is on guidance and reflection
Table 1: Contrasting Narratives of AI in Higher Education Policies

These narratives shape the university’s culture. Are students potential fraudsters or responsible learners? Are teachers detectives or mentors? Answers to these questions define how we understand integrity and pursue student agency.

Redefining Academic Integrity

Why do students cheat? Research (Eaton et al, 2017) shows cheating is driven by a mix of factors: Stress, unrealistic or unclear assessments, or peer pressure. Many students also don’t always understand academic expectations.  

In drawing on Rhode’s (2017) study, Eaton et al, remind us that only a small fraction of students never cheat and a similarly small minority cheat intentionally and consistently; the majority — about 80–90% — sit in the middle, meaning they cut corners when under pressure, often regretting it afterwards.

With AI, although still many students are cautious, most don’t view its use as cheating, unless boundaries are clear. Where is the line between «acceptable help» from AI and actual misconduct? Most universities treat unauthorized use (AI uses in a way that is not allowed by the course or institution) or undisclosed (fail to acknowledge) as misconduct, like plagiarism. So they stress transparency: students are expected to acknowledge how AI was used. This is a rather compliance-based view of integrity: focused on rules, detection, enforced through surveillance and sanctions.

In this regard, academic integrity is not just about what students shouldn’t do, but about what the whole academic community does — building trust, respect, practicing fairness, and taking responsibility in knowledge work. This cannot rely on punishment alone; it needs a learning culture and AI literacy.

Agency: Who is in Control?

AI literacy is not just about knowing how to use AI tools, it’s about having agency: the ability to make informed choices, exercise ethical and critical judgment, and be recognized as an active participant (Emirbayer & Mische, 1998; Bandura, 2001). Without agency, we risk outsourcing too much of our thinking to machines.

1. Who is in control: humans or machines?

AI can either undermine or enhance our agency. If students use AI uncritically, they may lose creativity and cognitive skills. But if they engage critically, AI can become a tool for deeper learning. Teachers face the same choice: lose agency by policing students’ AI use; gain agency by designing innovative teaching and learning activities that require reflection, evaluation, and critical thinking.

2. What happens to thinking when we rely too much on AI?

The main risk is what some call cognitive atrophy or brain drain (Guest et al. 2025): when we outsource too much mental effort, our capacity for deep thinking shrinks.

  • Cognitive offloading can free working memory for higher-order thinking but overuse weakens memory and reasoning (Oakley et al., 2025).
  • Productive struggle is essential: learning needs challenge and effort with scaffolding (Hattie et al., 2023). If AI removes this, students lose resilience and critical capacity.

Guest et al. (2025) show AI may raise abstraction levels but reduce effort and depth of thinking. Experts may benefit from using AI to «chunk» tasks, but novices risk dependency. This can widen inequalities between confident students who use AI to push boundaries and those who let it do the work for them.

3. How do we protect human agency in the age of AI?

The biggest danger is over-trust: those who rely blindly on AI lose the most independence. As systems improve, the temptation to trust them fully will grow. Protecting agency means:

  • Cultivating skepticism: teaching students to question AI outputs.
  • Designing for thinking: creating tasks that require evaluation, judgment, and reflection.
  • Preserving independence: making space for the struggle that builds knowledge, resilience, and critical capacity.

AI is not going away, and we shouldn’t embrace it uncritically. Instead, we can treat it as an opportunity. The challenge is to cultivate integrity at scale: to see students as capable learners, teachers as trusted professionals, and institutions as communities of care.

If we build epistemic agency into our curricula, AI can become a tool for growth, helping students develop literacy, responsibility, and higher-order thinking, rather than a shortcut to superficial answers.

Action: Redesign for the Future

If Awareness uncovers assumptions and Agency protects the capacity to think and act critically, then Action must show how integrity can be redesigned at scale. To the question «What are scholarly pathways to design for academic integrity?», there is no single answer, but I suggest three areas for action: pedagogy, governance and community building – themes we will explore in the upcoming events below.

Pedagogy

  • Redesign assessments to include process-oriented formats (reflections, version histories, journals, portfolios, or oral explanations that reveal thinking, not just final products).
  • Reframe authorship: Ask students to document their AI use and reflect on how it shaped their thinking and work and why.
  • Promote transparency: communicate clearly when and how AI can be used.
  • Foster AI literacy: teach the basics of AI including data protection, critical evaluation and ethical use.
  • Assess epistemic literacy: Can students justify when and why they used (or did not use) AI?

Governance

As mentioned in the study:

  • Policies must be clear about when AI can be used, how its use should be documented, and when it must be excluded to protect learning and genuine achievement.
  • Should move beyond compliance: not just list what is «allowed» or «forbidden», but:
    • articulate clear values of honesty, fairness, and trust.
    • see students as responsible agents: not merely as potential cheaters, but as partners in shaping integrity.
    • empower teachers: through professional development, infrastructure, and time to experiment with new assessment formats.
    • put assessment at the center: because assessment is where integrity is most consequential — it determines recognition, grades, and opportunities.
  • Provide clear frameworks for when AI is allowed, guided, or excluded (e.g., University of Sydney’s two-lane model or the AIAS Assessment Scale).
  • Support teacher and student agency with AI literacy, professional development and infrastructure.

Community Building

Integrity grows from developing alliances that scale from classroom pilots to institutional strategy:

  • Build dialogue and shared responsibility across faculty, students, and administrators.
  • Share good practices and pilot projects that strengthen integrity.
  • Encourage critical discussion about power, ethics, and AI’s role in knowledge production.
INFOBOX

As we step into this future, I invite you to continue the dialogue in the upcoming events:

- One-day conference: Assessment und KI: Gemeinsam praktische Formate erkunden (PH Zürich, 20th November 2025). An experimental, hands-on event, inviting educators, developers, and students into open dialogue and co-creation around real dilemmas of assessment in the age of AI.

- Fostering Epistemic Agency in Higher Education: Why and How? Free webinar by the Higher Education Development, Teaching and Learning Research Group with Dr. Juuso Nieminen (Deakin University, Australia), 4th November 2025

- The ICED26 Conference «Agency and Academic Development» (Salamanca, 24-26 June 2026). The international conference of academic developers but also researchers and leaders. This time we explore how agency shapes knowledge, strategy, and student learning. How do academic developers cultivate agency in a rapidly changing higher education landscape?

About the Author

Academic Integrity by Design: Von der Regulierung zum Vertrauen im KI-Klassenzimmer

–> Read this blog post in English

Text von Mònica Feixas

Künstliche Intelligenz fasziniert und beunruhigt uns zugleich. Für manche ist sie die grösste Bedrohung der akademischen Integrität seit einer Generation, für andere das mächtigste Lernwerkzeug seit der Erfindung des Buchdrucks. Unter akademischer Integrität ist dabei ein verantwortungsvoller Umgang mit Wissen in Studium und Lehre zu verstehen, der sich in Konzeptionen von Redlichkeit, Fairness oder Verantwortung widerspiegelt.

In diesem Blog lade ich Sie ein, genauer hinzusehen: Wie sprechen Universitäten in ihren Reglementen, Vorgaben und Richtlinien – nachfolgend Policies genannt – über KI? Um die Hintergründe der Policies besser zu verstehen, schlage ich den Triple-A-Ansatz vor – Awareness, Agency, Action:

  • Awareness: Erkennen, wie KI in Policies gerahmt wird, unterliegende Narrative und Annahmen sichtbar machen.
  • Agency: Sicherstellen, dass Menschen – Lehrende wie Studierende – handlungsfähig bleiben. KI ersetzt kritisches Denken nicht, sondern macht es dringlicher.
  • Action: Für den Schritt von der Theory zur Praxis sind Leistungsnachweise und Leistungsbeurteilung neu zu gestalten und KI bewusst in die Lehre zu integrieren, wodurch KI Literacy sowie die epistemische Handlungsfähigkeit gefördert werden und den kritischen, ethischen Gebrauch von KI stärken.
Bild 1: Der Triple-A-Ansatz (Ausarbeitung M. Feixas mit napkin.ai)

Awareness: Was Policies sichtbar machen

In unserer Analyse von 14 Hochschul-Policies zu generativer KI (aus Spanien und der Schweiz) zeigte sich: Policies regulieren nicht nur, sie erzählen Geschichten über Studierende, Lehrende und Wissen:

  • Definitionen sind entscheidend: Einige Policies definieren KI als Werkzeug (wie ein Wörterbuch), andere als risikobehaftetes System, als Denkpartner oder sogar als transformativen Faktor für Bildung. Diese Sichtweisen prägen, wie Integrität und Leistungsbeuteilung gedacht werden.
  • Narrative formen Integrität (Tabelle 1):
    • Restriktive Policies sehen KI primär als Bedrohung. Sie sprechen von «Betrug» und «Erkennung», stellen Studierende als potenzielle Täuschende dar und Lehrende als Kontrollinstanz. Die Wahrung von Integrität wird auf Überwachung reduziert.
    • Ermöglichende Policies sehen in KI eine Chance für das Lernen. Sie fordern Studierende auf, KI-Nutzung zu deklarieren und zu reflektieren. Lehrende ermuntern sie, Leistungsnachweise und Leistungsbeurteilung neu zu gestalten . Integrität dreht sich um Transparenz, Dialog und Begleitung.
In restriktiven Policies:
– KI = Akademische Unredlichkeit
– Studierende gelten als potenzielle Betrüger:innen, die Tools missbrauchen, wenn sie nicht streng reguliert werden. Es wird angenommen, dass sie unmotiviert sind und Abkürzungen suchen.
– Traditionelle Prüfungsformate = naturgemäss vertrauenswürdig
– Lehrende sollen überwachen und kontrollieren
– Der Fokus der akademischen Integrität liegt auf Erkennung und Überwachung von Fehlverhalten
In nicht-restriktiven Policies:
– KI = Chance für Lernen und didaktische Innovation
– Studierende werden als aktive, kritische Denker:innen gesehen. Sie müssen ethischen Umgang mit KI und neue Literacies erwerben
– Leistungsbeurteilung  = Prozess + Reflexion
– Lehrende als Mentor:innen und Designer:innen, deren Rolle unersetzlich ist
– Der Fokus der akademischen Integrität liegt auf Begleitung, Transparenz und Reflexion von Lernvorgängen
Tabelle 1: Gegensätzliche Narrative von KI in Hochschul-Policies

Diese Narrative prägen die Kultur einer Hochschule: Sind Studierende potenzielle Betrüger:innen oder verantwortungsbewusste Lernende? Sind Lehrende Detektive oder Mentor:innen? Die Antworten auf diese Fragen prägen, wie wir Verantwortung und Redlichkeit in Studium und Lehre verstehen – und wie wir die Handlungsfähigkeit der Studierenden fördern.

Neudefinition der akademischen Integrität

Warum schummeln Studierende? Untersuchungen (Eaton et al. 2025) zeigen, dass Schummeln durch eine Kombination verschiedener Faktoren begünstigt wird. Dazu gehören Stress, unklare oder unrealistische Beurteilungskriterien sowie Gruppendruck. Viele Studierende verstehen auch die akademischen Erwartungen nicht immer.
Unter Bezugnahme auf die Studie von Rhode (2017) erinnern uns Eaton et al. daran, dass nur ein kleiner Teil der Studierenden niemals betrügt und eine ähnlich kleine Minderheit absichtlich und konsequent betrügt; die Mehrheit – etwa 80–90 % – befindet sich in der Mitte, was bedeutet, dass sie unter Druck in gewissen Situationen Abstriche machen und dies oft hinterher bereuen.
Obwohl viele Studierende gegenüber KI noch vorsichtig sind, betrachten die meisten deren Einsatz nicht als Betrug, es sei denn, die Grenzen sind klar definiert. Wo liegt die Grenze zwischen «akzeptabler Hilfe» durch KI und tatsächlichem Fehlverhalten? Die meisten Universitäten behandeln die unbefugte (KI-Nutzung in einer Weise, die von der Lehrveranstaltung oder der Hochschule her nicht erlaubt ist) oder die nicht deklarierte KI-Nutzung als Fehlverhalten, ähnlich wie Plagiate. Daher legen sie Wert auf Transparenz: Von den Studierenden wird erwartet, dass sie angeben, wie KI genutzt wurde. Dies ist eine eher auf Compliance basierende Sichtweise von Integrität: Der Fokus liegt auf Regeln und deren Durchsetzung durch Überwachung und Sanktionen.

Allerdings sollte es bei akademischer Integrität nicht nur darum gehen, was Studierende nicht tun sollten, sondern vor allem darum, was die gesamte akademische Gemeinschaft tut: Vertrauen und Respekt aufbauen, Fairness praktizieren und Verantwortung in der Wissensarbeit übernehmen. Dies kann sich nicht allein auf Bestrafung stützen; es braucht eine Kultur des Lehrens und Lernens und KI-Literacy.

Agency: Wer hat die Kontrolle?

KI-Literacy bedeutet mehr als Toolwissen, sie umfasst auch Handlungsfähigkeit. Es geht dabei um die Fähigkeit, im Umgang mit KI informierte Entscheidungen zu treffen, kritisch und ethisch zu urteilen und aktiv mitzuwirken (Emirbayer & Mische, 1998; Bandura, 2001). Ohne solche Handlungsfähigkeit laufen wir Gefahr, zu viel von unserem Denken an Maschinen auszulagern.

  • Wer hat die Kontrolle: Menschen oder Maschinen?

KI kann unsere denkbezogene Handlungsfähigkeit entweder untergraben oder stärken. Wenn Studierende KI unkritisch nutzen, können sie Kreativität und kognitive Fähigkeiten verlieren. Wenn sie sich jedoch kritisch damit auseinandersetzen, kann KI zu einem Werkzeug für vertieftes Lernen werden. Lehrende stehen vor derselben Wahl: Handlungsfähigkeit verlieren, indem sie die KI-Nutzung der Studierenden nur überwachen; oder Handlungsfähigkeit gewinnen, indem sie innovative Leistungsnachweise gestalten, die Reflexion, Bewertung und kritisches Denken erfordern.

  • Was passiert mit dem Denken, wenn wir uns zu sehr auf KI verlassen?

Das Haupt­risiko ist das, was manche als kognitive Atrophie oder «Brain Drain» bezeichnen (Guest et al. 2025): Wenn wir zu viel geistige Anstrengung auslagern, schrumpft unsere Fähigkeit zum tiefgreifenden Denken.

  • Kognitives Auslagern kann Arbeitsgedächtnis für höheres Denken frei machen, aber übermässige Nutzung schwächt das Gedächtnis und die Argumentationsfähigkeit (Oakley et al. 2025).
  • Produktive Anstrengung ist entscheidend: Lernen braucht Herausforderung und Anstrengung mit passender Unterstützung (Hattie et al. 2023). Wenn KI dies wegnimmt, verlieren Studierende Resilienz und kritische Fähigkeiten.

Guest et al. 2025 zeigen, dass KI zwar das Abstraktionsniveau erhöhen, aber die Anstrengung und die Denktiefe verringern kann. Expertinnen können vom KI-Gebrauch profitieren, um Aufgaben zu «segmentieren», aber Novizen laufen Gefahr laufen, von den KI-Tools abhängig zu werden. Dies kann Ungleichheiten vergrössern zwischen intellektuell selbstbewussten Studierenden, die KI nutzen, um Grenzen auszuloten, und jenen, die KI die Arbeit erledigen lassen.

  • Wie schützen wir die menschliche Handlungsfähigkeit im Zeitalter der KI?

Das grösste Risiko ist übermässiges Vertrauen: Wer sich blind auf KI verlässt, verliert am meisten an epistemischer Unabhängigkeit. Und je besser die KI-Systeme werden, desto mehr wächst die die Versuchung, ihnen alles zu überlassen. Die menschliche Handlungsfähigkeit zu schützen bedeutet:

  • Skepsis fördern: Studierende darin unterrichten, KI-Ausgaben zu hinterfragen.
  • Zum Nachdenken anregen: Aufgaben entwickeln, die Bewertung, Urteilsvermögen und Reflexion erfordern.
  • Unabhängigkeit bewahren: Raum schaffen für die Anstrengung, die Wissen, Resilienz und kritische Fähigkeiten aufbaut.

KI wird bleiben, und wir sollten sie nicht unkritisch einsetzen. Stattdessen können wir sie als Chance betrachten. Die Herausforderung besteht darin, akademische Integrität umfassend zu fördern. Das bedeutet, Studierende als fähige Lernende, Lehrer als vertrauenswürdige Fachleute und Institutionen als fürsorgliche Gemeinschaften zu betrachten.

Wenn wir epistemische Handlungsfähigkeit in unsere Curricula integrieren, kann KI zu einem Werkzeug für Wachstum werden, das Studierenden hilft, Lernfähigkeit, Verantwortungsbewusstsein und höheres Denken zu entwickeln, anstatt eine Abkürzung zu oberflächlichen Antworten zu sein.

Action: Zukunft gestalten

Während Awareness unterliegende Annahmen sichtbar macht und Agency die Fähigkeit zu kritischem Denken schützt, muss Action akademische Integrität im grossen Stil neu gestalten. Auf die Frage «Welche wissenschaftlichen Wege gibt es, um akademische Integrität zu gestalten?» gibt es keine einfache Antwort, aber ich schlage drei Handlungsfelder vor: Didaktik/Pädagogik, Governance und Gemeinschaftsbildung. Dies sind Themen, die wir in den kommenden Monaten in verschiedenen Veranstaltungen näher erkunden werden (siehe Infobox ).

Pädagogik

  • Prüfungen neu gestalten: Prozessorientierte Formate einbeziehen (Reflexionen, Versionsverläufe, Journale, Portfolios oder mündliche Erklärungen, die das Denken sichtbar machen – nicht nur Endprodukte).
  • Autorschaft neu definieren: Studierende auffordern, ihre KI-Nutzung zu dokumentieren und zu reflektieren, wie diese ihr Denken und ihre Arbeit beeinflusst hat – und warum.
  • Transparenz fördern: Klar kommunizieren, wann und wie KI genutzt werden darf.
  • KI-Kompetenz fördern: Grundlagen der KI lehren, einschließlich Datenschutz, kritischer Bewertung und ethischer Nutzung.
  • Epistemische Kompetenz prüfen: Können Studierende begründen, wann und warum sie KI genutzt (oder nicht genutzt) haben?

Governance

Wie in der Studie (Feixas, 2025) erwähnt:

  • Richtlinien müssen klar festlegen, wann KI genutzt werden darf, wie ihre Nutzung dokumentiert werden soll und wann sie ausgeschlossen werden muss, um Lernen und echte Leistung zu schützen.
  • Über blosse Regelkonformität hinausgehen: Nicht nur auflisten, was «erlaubt» oder «verboten» ist, sondern:
    • klare Werte wie Ehrlichkeit, Fairness und Vertrauen formulieren.
    • Studierende als verantwortliche Akteure sehen: nicht nur als potenzielle Betrüger:innen, sondern als Partner:innen bei der Gestaltung von Integrität.
    • Lehrende stärken: durch Weiterbildung, Infrastruktur und Zeit, um mit neuen Prüfungsformaten zu experimentieren.
  • Prüfungen ins Zentrum stellen: denn dort ist Integrität am folgenreichsten – sie entscheidet über Anerkennung, Noten und Chancen.
  • Klare Rahmen vorgeben, wann KI erlaubt, angeleitet oder ausgeschlossen ist (z. B. das University of Sydney’s two-lane model oder die AIAS Assessment Scale).
  • Handlungsfähigkeit von Lehrenden und Studierenden stärken – mit KI-Kompetenz, Weiterbildung und geeigneter Infrastruktur.

Community-Building

Integrität entsteht, wenn Allianzen aufgebaut werden, die sich von Pilotprojekten im Unterricht bis hin zu institutionellen Strategien skalieren lassen:

  • Dialog und geteilte Verantwortung zwischen Dozierenden, Studierenden und der Verwaltung fördern.
  • Gute Praktiken und Pilotprojekte teilen, die Integrität stärken.
  • Kritische Diskussionen anregen über Macht, Ethik und die Rolle von KI in der Wissensproduktion.
INFOBOX

- Kurztagung Assessment und KI: Gemeinsam praktische Formate erkunden (PH Zürich, 20. November 2025). Experimentelles, praxisnahes Format mit offenen Dialogen und Co-Creation.

- Fostering Epistemic Agency in Higher Education: Why and How? Kostenloses Webinar der Forschungsgruppe empirische Hochschuldidaktik mit Dr. Juuso Nieminen (Deakin University, Australien), 4. November 2025

- The ICED26 Conference «Agency and Academic Development» (Salamanca, 24.-26. Juni 2026). Die internationale Konferenz für Hochschuldidaktiker und Hochschulentwicklerinnen, aber auch für Hochschulforschende und Führungskräfte. Dieses Mal erkunden wir, wie Handlungsfähigkeit Wissen, Strategie und studentisches Lernen an Hochschulen prägt: Wie können Hochschuldidaktik und Hochschulentwicklung in einer sich schnell verändernden Hochschullandschaft die Handlungsfähigkeit der Studierenden und Lehrenden fördern?

Zur Autorin

Mònica Feixas ist Dozentin im Zentrum für Hochschuldidaktik und -entwicklung der PH Zürich. Sie ist ausserdem die Kongressleiterin (Convenor) der ICED-Konferenz (International Consortium for Educational Development), die vom 24. bis 26. Juni 2026 in Salamanca (Spanien) stattfinden wird.

Übersetzt ins Deutsche durch Tobias Zimmermann.

Durch (d)eine Hochschule navigieren: Projekte und Studiengänge erfolgreich leiten

Text von Kathrin Rutz und Tobias Zimmermann

8.30 Uhr – Drei Postfächer, drei Führungsrealitäten

Maria öffnet ihren Laptop: 47 neue E-Mails. Die Hälfte betrifft das neue Curriculum ihres Studiengangs, das nächstes Jahr eingeführt werden soll. Viele Mitarbeitende in ihrem Departement möchten mitsprechen, und Leitungspersonen aus anderen Departementen «hinterfragen es kritisch».

Danny scrollt durch Nachrichten von vier verschiedenen Instituten – jedes will das Budget seines Forschungsprojekts anders aufteilen.

Sarah liest die Absage eines wichtigen internationalen Partners: «Leider haben wir andere Prioritäten gesetzt.»

Wie werden sich die drei heute durch die Wirrungen der hochschulischen Mikropolitik navigieren?

Es ist anspruchsvoll, als Führungsperson alle Anliegen unter einen Hut zu bringen.

Marias Stakeholder-Meeting

Dr. Maria Gavrić, seit zwei Jahren Studiengangleiterin Digital Marketing, sitzt im Besprechungsraum zwei Institutsleitenden gegenüber, die Bedenken gegenüber dem neuen Curriculum äussern. «Das passt nicht zu unserer Ausrichtung», meint der eine. «Wo bleiben unsere Studieninhalte?», fragt die andere.

Früher hätte Maria argumentiert, mit Fakten und Logik gekämpft. Heute hat sie eine andere Strategie: «Was braucht ihr, um das Projekt unterstützen zu können? Welche eurer Kompetenzen könnten wir stärker einbinden?»

Die Stimmung dreht sich. Plötzlich entwickeln die beiden Ideen, wie ihre Expertise das Curriculum bereichern könnte. Eine Stunde später verlassen sie den Raum nicht mehr als Kritiker, sondern als Sparringpartner.

Weshalb hat Maria nicht auf die inhaltlichen Argumente der Institutsleitenden reagiert, sondern die Ebene gewechselt und nach ihren Bedürfnissen gefragt? Im Rahmen einer Führungsweiterbildung hatte sie erfahren, dass Widerstand oft nicht primär als Angriff zu verstehen ist, sondern als Information über unerfüllte Bedürfnisse anderer Personen. Spontan hat sie sich deshalb entschieden, Brücken zu bauen statt zu argumentieren und hat damit wertvolle Kooperationspartner gewonnen.

Dannys Budget-Dilemma

Professor Danny Cruz starrt auf die Zahlen. Sein interdisziplinäres Forschungsprojekt zur nachhaltigen Mobilität braucht 75.000 Franken mehr, aber die eingeworbenen Mittel sind ausgeschöpft. Das Projekt könnte scheitern, bevor die ersten Publikationen über Zwischenresultate erschienen sind.

Danny hat zwei Optionen: aufgeben oder kreativ werden. Er wählt Letzteres. In der Kaffeepause fällt ihm ein Gespräch mit dem Forschungsleiter eines Betriebs aus der Verkehrsindustrie ein. Was, wenn sie eine unkonventionelle Dreierkooperation eingehen – Hochschule, Industrie und Stadt? Alle Beteiligten könnten unterschiedliche Ressourcen und Kompetenzen einbringen. Allerdings müsste gewährleistet werden, dass die Hochschule die wissenschaftliche Kontrolle behält.

Der Anruf dauert 20 Minuten. Der Industriepartner ist hoch interessiert, seine Firma befindet sich jedoch in einer Restrukturierung und die Forschungsabteilung darf derzeit keine neuen Partnerschaften eingehen. Sie erörtern verschiedene Szenarien und Danny erhält drei Kontakte aus dem Netzwerk des Forschungsleiters, an die er sich wenden kann.

Sarah als Diplomatin: Steuerung ohne Macht

Sarah Weber hat ein Problem: Sie soll die Internationalisierung der Hochschule vorantreiben, ohne jedoch über Weisungsbefugnisse zu verfügen. Fünf Fachbereiche sollen das von ihr verantwortete Konzept umsetzen, welches Teil der Hochschulstrategie ist. Nach der Absage des internationalen Partners am Morgen steht sie unter Druck: Ein entscheidendes Argument für den Austausch mit den Fachbereichen fällt weg. Sie setzt auf Partizipation und fordert im anstehenden Meeting zu einem Erfahrungsaustausch «Internationale Partnerschaften – was funktioniert?» ein. Sie lässt jeden Fachbereich eigene Erfolgsgeschichten erzählen und lanciert einen Dialog über die Frage: «Was wäre, wenn wir diese Ansätze strategisch verknüpfen würden?»

Nach zögerlichem Beginn sprudeln die Ideen. Jeder Fachbereich entwickelt eigene Ansätze, die sich erstaunlich gut miteinander verknüpfen lassen und anschlussfähig zu Sarahs Rahmenkonzept sind. Am Ende der Sitzung haben alle fünf Institute nicht nur einer Zusammenarbeit zugestimmt, sondern sind begeistert von «ihren» Ideen. Mehr noch: Jeder Fachbereich wird einen weiteren potenziellen internationalen Kooperationspartner anfragen, um die durch die Absage entstandene Lücke zu füllen.

Sarah hat durch ihre laterale Führungsaufgabe gelernt, dass geschickte Kommunikation und partizipatives Vorgehen entscheidend sind: Wer alle mitreden lässt, muss geschickt moderieren und geht vielleicht anfangs einen etwas längeren Weg. Aber am Ende tragen viel mehr Personen die Entscheidung mit.

Partizipation (z.B. Gruppenarbeiten) kann in einem Entscheidungsprozess ein wichtiger Faktor sein.

Wie bringe ich all die Ansprüche unter einen Hut, ohne selbst darunter zu verschwinden?

Der Führungsalltag verläuft nicht immer so erfolgreich wie die geschilderten «Aktionen» von Maria, Danny und Sarah. Und auch die drei kämpfen wie die meisten Führungspersonen gelegentlich um einen souveränen Umgang mit den vielfältigen organisationalen und professionellen Ansprüchen, mit denen sie konfrontiert sind.

Fragen Sie sich manchmal auch, wie Sie alle Ansprüche unter einen Hut bringen, ohne unter diesem zu verschwinden? Oder kämpfen Sie darum, handlungsfähig zu bleiben, wenn wie in Marias Beispiel zahlreiche widersprüchliche Anliegen auf Sie einprasseln? Oder müssen Sie Situationen aushalten, die sich wie der Geldmangel in Dannys Projekt oder der Rückzug von Sarahs erhofftem Projektpartner nicht sofort klären lassen?

Dies sind typische und berechtigte Fragen, die sich Führungspersonen stellen.

Führungshandeln – und Selbstführung

Neben einem bewussten und reflektierten Führungshandeln ist deshalb eine sorgsame Selbstführung wichtig. Manchmal hilft es, uns bewusst zu machen, was uns persönlich wichtig ist und wo wir unsere Energie investieren. Dabei kann es auch notwendig sein, (sich) Grenzen zu setzen. Gleichzeitig ist es spannend, die eigene Entwicklung aktiv zu gestalten und in uns selbst zu investieren:

  • Entwicklung «on-the-job»: Neue Aufgaben, Funktionen und Rollen erfordern Flexibilität und eröffnen neue Wege innerhalb und ausserhalb der eigenen Organisation.
  • Weiterbildung und Networking: Kurse, Module oder qualifizierende Lehrgänge ermöglichen Kompetenzentwicklung und Networking über die Grenzen der eigenen Institution hinweg.
  • Mentoring und Coaching: Mentor:innen bieten wertvolle und oft ermutigende Unterstützung, gezieltes Feedback und helfen dabei, realistische Erwartungen zu setzen.
  • Reflexion und Prioritäten: Es lohnt sich, regelmässig zu prüfen, ob die aktuelle Tätigkeit noch mit den eigenen (Entwicklungs-)Zielen und Wünschen übereinstimmt. Allenfalls braucht es neue Strategien und selbstbewusste Entscheidungen, um auf Veränderungen zu reagieren und sich selbst nicht aus den Augen zu verlieren.

Am Ende geht es darum, eine Balance zu finden, die uns erlaubt, sowohl die Anforderungen zu meistern als auch die eigene Persönlichkeit und Karriere im Blick zu behalten. Es gilt auf die eigenen Ressourcen und das persönliche Wohlbefinden zu achten, um langfristig handlungsfähig zu bleiben und Hürden mit Ausdauer und Gestaltungskraft zu nehmen.

INFOBOX

Der CAS Führen in Projekten und Studiengängen an Hochschulen greift diese Themen auf und schafft Entwicklungsmöglichkeiten
- in der eigenen Rollen-, Kontext- und Führungskompetenz,
- im Projektmanagement und im Gestalten von Entscheidungsprozessen,
- in der Angebots- und Curriculumentwicklung oder
- im geschickten Agieren in den vielfältigen Aufgaben des Bildungsmanagements.

Durch die individuelle Schwerpunktsetzung mit ergänzenden und vertiefenden Wahlmodulen, der Bearbeitung eines eigenen Projekts oder dem Mentoring wird Professionalisierung auf persönlicher und organisationaler Ebene ermöglicht.

Die meisten Module des Lehrgangs sind auch einzeln buchbar (siehe Verlinkungen in der obigen Aufzählung).

Zu den Autor:innen

Kathrin Rutz ist Supervisorin, Coach und Organisationsberaterin bso, lehrende Transaktionsanalytikerin TSTA-C/O sowie Verantwortliche Beratung und Dozentin am Zentrum Management und Leadership der PH Zürich. Zudem ist sie Co-Leiterin des Lehrgangs CAS Führen in Projekten und Studiengängen an Hochschulen.

Tobias Zimmermann ist Leiter des Zentrums für Hochschuldidaktik und -entwicklung (ZHE) und Co-Leiter eines CAS Hochschuldidaktik an der PH Zürich. Die Leistungsbeurteilung an Hochschulen und Lernpsychologie gehören zu seinen Themenschwerpunkten.

Lernen oder überspringen? Wie generative KI Lernwiderstände verstärken kann

Text: Stefanie Dernbach-Stolz und Dominic Hassler

In der (zunehmend digitalen) Bildungswelt scheint Effizienz das oberste Ziel zu sein: Inhalte werden komprimiert, Lernpfade automatisiert und ganze Fähigkeiten per «Skill Skipping» übersprungen. Warum werden beim Lernen Abkürzungen genommen? Wie entwickeln sich Lernwiderstände? Und was hat das mit generativer KI zu tun?  

Menschen neigen laut der «Cognitive Miser Theory» dazu, kognitiven Aufwand zu vermeiden (Fiske & Taylor 2013). Lernende haben das schon früher getan – etwa durch Abschreiben. Mit KI-Tools wie Chat-GPT ist das heutzutage einfacher denn je.

Heute können wir in vielen Schulzimmern und Weiterbildungskursen beobachten, dass Lernende Aufgaben direkt mit Chat-GPT lösen. Nuxoll (2024) nennt das «Skill Skipping»: Es wird ein Resultat abgegeben, aber kein Lernprozess durchlaufen. Doch Lernen entsteht nicht durch richtige Antworten, sondern durch eigenständiges Denken.

Es entbehrt nicht einer gewissen Ironie, dass Aufgaben so zu lösen als kompetenzorientiert ausgelegt werden kann. Tatsächlich dürfte es in vielen beruflichen Situationen sinnvoll sein, Aufgaben wie bspw. das Verfassen einer E-Mail mit einem KI-Sprachmodell zu erledigen. Trotzdem ist es in einem Bildungssetting nicht zielführend das zu tun, da das Schreiben (und damit verbunden auch das Lesen) weniger effektiv erworben wird.

Eine Metapher hilft uns, dies zu verdeutlichen: Es ist allen klar, wie absurd es wäre, einen Roboter ins Fitnesscenter zu schicken, wenn man seinen Körper trainieren möchte. Weniger offensichtlich, aber genau gleich absurd sollte es sein, in Bildungskontexten eine Lernaufgabe mit Chat-GPT zu lösen. Denn Bildungsinstitutionen sind die Fitnesscenter für das Gehirn. Wenn man nicht hingeht und die grauen Zellen bei den Übungen selbst anstrengt, gibt es keinen Trainingseffekt bzw. Lernzuwachs.

Zwei Roboter trainieren im Fitnesscenter. Quelle: leonardo.ai

Betrachtet man das «Skill Skipping» aus der Perspektive des Lernwiderstandes, stellt sich die Frage, warum Lernen nicht positiv konnotiert ist. Häufig wird das Lernen in Bildungskontexten als Zumutung wahrgenommen, was Widerstände und Vermeidungsstrategien erzeugt (man denke da nur an die eigene Schulzeit zurück). Dabei ist es ein zentrales Ziel von Lehrpersonen, Dozierenden und Erwachsenenbildner:innen, gelingendes oder erfolgreiches Lernen zu ermöglichen. Entsprechend stellt sich die Frage, wie und warum Lernwiderstände entstehen. Gemäss der subjektwissenschaftlichen Lerntheorie entstehen Lernwiderstände dann, wenn die Lernenden keinen subjektiven Sinn in einer Lernsituationen erkennen können oder sich gezwungen fühlen zu lernen – ohne dass es ihnen einen persönlichen Nutzen erbringt. Dies führt dazu, dass sie sich verweigern, unmotiviert sind oder nur oberflächlich lernen (Holzkamp 1993). Dabei kann man zwischen zwei grundlegenden Lernformen unterscheiden:

(Abb. 2. Quelle: Foucault 1993)

Defensives Lernen: Bei dieser Form findet Lernen unter Druck oder Zwang statt. Die Lernenden lernen, weil sie lernen müssen, um etwa eine Prüfung zu bestehen oder um Sanktionen zu vermeiden. Bildlich überspitzt kann man dies in der Grafik (Abb. 2) sehen, die eine Gefängnisszene darstellt, bei der die Insassen einem Vortrag zu den Folgen von Alkoholismus zuhören müssen. Bei dieser Form des Lernens entstehen häufig Lernwiderstände, da das Lernen nicht aus innerem Antrieb stattfindet. Expansives Lernen: Bei dieser Form geschieht Lernen aus eigenem Interesse und zur Erweiterung der eigenen Handlungsmöglichkeiten. Dadurch wird das Lernen als sinnvoll erlebt, weil es in einem Zusammenhang mit den eigenen Zielen, Interessen und Lebenszusammenhängen steht. In solchen Fällen treten kaum Lernwiderstände auf. (Holzkamp 1993)

Die Unterscheidung dieser zwei Lernformen ist für die Erklärung von Lernwiderständen wesentlich. Dennoch lassen sich Lernwiderstände nicht allein durch das Anwenden von expansiven Lernformen auflösen.

Einerseits sind die Gründe und Ursachen für Lernwiderstände vielfältig. Dazu gehören u.a. die fehlende Relevanz des Lerngegenstandes oder der mangelnde praktische Nutzen, bestehende (Bildungs-) Erfahrungen und Einstellungen und Wertehaltungen als auch die persönliche Lebenssituation (soziale Herkunft, Alter, Familie, etc.) die dem Lernen im Wege stehen können (Faulstich/Grell 2004).

Andererseits lassen sich Prüfungen o.ä. nicht immer umgehen. Die effizienzorientierte bzw. defensive Lernperspektive betont jedoch vor allem Standardisierung, Vergleichbarkeit und Messbarkeit. Das widerspricht expansivem Lernen. Wenn Aufgaben oder Lernpfade zu weit von der Lebenswelt der Lernenden entfernt sind und nicht als bedeutsam erlebt werden, reagieren diese oft defensiv – etwa mit automatisiertem Durchklicken oder KI-Nutzung. In diesem Fall setzen die Lernenden sich nicht tiefergehend mit Inhalten auseinander und haben keine Möglichkeit, eigene Lerninteressen zu verfolgen oder eigene Fragen zu entwickeln. Dies führt dazu, dass Lernen noch stärker als fremdbestimmt erlebt wird, was noch mehr Lernwiderstände auslösen kann. Ein Teufelskreis.

Was können Lehrende tun? – Anregungen zum expansiven Lernen

KI kann selbstgesteuertes Lernen untergraben. Sinnstiftendes Lernen braucht Zeit und Subjektivität – nicht nur Technik. Zentral ist, dass Lehrende unreflektierte Anwendungen von KI erkennen und handeln. Hier einige Anregungen:

Mit den Lernenden über das Lernen sprechen. Dadurch entstehen Reflexionsräume, in denen ein Bewusstsein geschaffen werden kann, wodurch die subjektive Relevanz gestärkt wird. Das braucht Zeit für Fragen, Irritationen und Selbstverortung. Und die Lehrenden erhalten ein besseres Verständnis für den Ursprung der Lernwiderstände, was sie wiederum handlungsfähig macht. Naheliegend wäre etwa die Lernenden in Gruppen über das Bild der beiden Roboter (Sie dürfen es gerne verwenden) diskutieren zu lassen und dabei gleich Transparenz zu schaffen: «Sie können (fast) alle Aufgaben im Unterricht mit KI lösen. Wollen Sie das – und warum?». So wird das Bewusstsein für den Lernprozess gefördert.

Von der Kultur des richtigen Resultats zur Kultur des Lernprozesses. Wenn Lehrende dem richtigen Resultat eine hohe Bedeutung zumessen, bspw. indem sie nur die Lösungen der Lernenden auf Richtigkeit kontrollieren, geben sie den Lernenden unbewusst einen Anreiz, KI für all diese Aufgaben zu nutzen. Stattdessen ist es zielführender, ein Bewusstsein dafür zu schaffen, dass ein richtiges, KI-generiertes Resultat für das Lernen weitestgehend wertlos ist. Der Weg zum Resultat, also der Lernprozess, ist zentral, ebenso die dabei gemachten Fehler. Aus diesen lässt es sich hervorragend Lernen. Bewertungen dokumentieren in diesem Sinne die Lernfortschritte und nicht das Resultat. Für manche Lehrende ist das ein grosser, aber essenzieller Kulturwandel.

Abb. 3
(Quelle: LinkedIn)

Verantwortung an Lernende übergeben. Viele Lehrende möchten nicht ständig mit dem Zeigefinger darauf hinweisen, dass die Lernenden keine KI für das Lösen der Aufgaben verwenden sollen. Zudem gibt es manchmal durchaus Aufgaben, bei denen KI-Unterstützung hilfreich sein kann. Folgende Idee stammt von Tobias Seidl: Aufgaben, bei denen es zur Erreichung der Lernziele wichtig ist, dass zunächst selbst nachgedacht wird, werden mit einem Warnhinweis markiert (Abb. 3). Dadurch können Lehrende sich dem traditionellen Katz-und-Maus-Spiel entziehen. Die Lernenden fühlen sich ernst genommen und die Verantwortung für ihr Lernen und den KI-Einsatz geht subtil auf sie über.

Wenn Bildungsinstitutionen als «Fitnesscenter für das Gehirn» verstanden werden, darf der «Trainings»lernprozess nicht ausgelagert oder automatisiert werden. Gerade in einer von KI geprägten Welt ist es entscheidend, dass Lernende selbst denken, reflektieren und ihre Handlungsmöglichkeiten erweitern. Lehrpersonen und Bildungsverantwortliche sind deshalb gefordert, Lernsettings so zu gestalten, dass sie expansive Lernprozesse ermöglichen, statt defensive Vermeidungsstrategien befördern.

INFOBOX

Lehrgänge

In den folgenden Lehrgängen können Sie sich vertieft mit der Gestaltung von Lernprozessen in einer von KI geprägten Welt auseinandersetzen:
- CAS Unterricht gestalten mit digitalen Medien, ab 13. Januar 2026
- CAS Weiterbildungsdesign, ab 4. Februar 2026

Module

Die folgenden Module können einzeln gebucht und als Wahlmodul in verschiedenen CAS-Lehrgängen angerechnet werden:
- Lernen und Lehren mit künstlicher Intelligenz (KI), ab 19. August 2025
- Lernen und Weiterbildungsteilnahme Erwachsener, ab 3. März 2026

Zu den Autor:innen

Stefanie Dernbach-Stolz ist Dozentin an der PH Zürich und arbeitet im Zentrum Berufs- und Erwachsenenbildung. Sie ist Leiterin des CAS Weiterbildungsdesign.

Zwischen Messgerät und Schreibblock – Labore lernwirksam gestalten

Text: Wolfgang Bührer

Beim Ausmisten fielen mir meine Protokolle des Anfängerlabors Physik aus dem Grundstudium in die Hände: handschriftlich angefertigt, Korrekturkommentare à la «das ist nicht das erwartete Ergebnis, Wiederholungsmessung»… Vor 25 Jahren hatte ich verzweifelt versucht, zu verstehen, was ich falsch gemacht hatte, und hoffte bei jedem Versuchsprotokoll aufs Neue, dass es im ersten Lauf akzeptiert wird. Gleichzeitig fragte ich mich, was ich, abgesehen von der Reproduktion schon längst bekannter Ergebnisse, auf die es scheinbar ankam, lernen soll. Willkommen Frustration – meine Begleiterin im Anfängerlabor.

Labore sind komplexe Lernumgebungen

Labore sind in den MINT-Fächern, vor allem in den Ingenieurs- und Naturwissenschaften, unverzichtbare Bestandteile der Hochschullehre. Dabei haben sich unterschiedliche Laborformen wie zum Beispiel das Mini-Labor, das Anfängerlabor, das integrierte Labor oder auch Maker Spaces (May u.a. 2023) entwickelt, um nur einige aufzuzählen. So vielfältig wie die Laborformen sind auch die Wissensanforderungen an die Studierenden im Labor: Beispielsweise muss man Messgeräte korrekt einsetzen und bedienen, einen Aufbau planen und ausführen, sauber dokumentieren, Sicherheitsvorschriften kennen und einhalten, Daten auswerten oder die Ergebnisse auf Plausibilität prüfen können. Neben diesen prozeduralen Fähigkeiten wird in der Regel zusätzlich Fachwissen zum jeweiligen Laborversuch benötigt.

Die (bei weitem nicht vollständige) Aufzählung macht deutlich, dass aufgrund der vielfältigen Wissensanforderungen die Gefahr besteht, Studierende in Laborsettings zu überfordern, zumal jede einzelne dieser Anforderungen auch ein potenzielles Lernziel sein kann. Labore als Lernumgebungen stellen Dozierende somit vor ein Dilemma: Sie sind unverzichtbar für praxisnahes Lernen, gleichzeitig aber ein Ort potenzieller kognitiver Überlastung. Wie können wir mit dieser Zwickmühle umgehen?

Ein Praxisbeispiel: Zwei meiner Studierenden aus dem 1. Semester Elektrotechnik, nennen wir sie Julia und Jens, sitzen im Labor und verzweifeln an der Bedienung und dem korrekten Ablesen des Oszilloskops, mit dem sie einen elektrischen Schwingkreis vermessen sollen. Dabei entgehen ihnen die physikalischen Zusammenhänge, die das eigentliche Lernziel gewesen sind. Ich wundere mich später über ihr mangelhaftes Protokoll. Ein Paradebeispiel für kognitive Überlastung.

Kognitive Last

Die Entdeckung der «Cognitive Load Theory» (Sweller 1988) war für mich ein Augenöffner: Ich verstand nun , warum sowohl meine eigenen Laborerfahrungen als auch die meiner Studierenden frustrierend waren. Der Ansatz gab mir Werkzeuge zur Verbesserung der Situation in die Hände. Denn die «Cognitive Load Theory» besagt, dass das Arbeitsgedächtnis grundsätzlich begrenzt ist und unterscheidet drei Formen von kognitiven Belastungen bei Lernprozessen:

  • Intrinsische kognitive Belastung: Diese ergibt sich aus der Komplexität des Lernstoffs. Hier können gezielte Reduktionen die Belastung senken.
  • Extrinsische (englisch: «extraneous») kognitive Belastung: Diese Belastung entsteht beispielsweise durch unklare Anweisungen oder durch für das eigentliche Lernziel irrelevante Informationen, welche das Arbeitsgedächtnis zusätzlich belasten. Durch sorgfältige Formulierung und Gestaltung von Materialien und Planung kann man diese reduzieren.
  • Lernbezogene kognitive Belastung: Damit ist die Belastung gemeint, die lernzielrelevant und direkt mit dem Lernprozess verknüpft ist. Diese Art kognitiver Belastung ist in Bezug auf das Lernen gewünscht.

Überträgt man diese Formen auf das Beispiel von Julia und Jens, so war die aufgrund des Versuchs gegebene intrinsische kognitive Belastung beim Umgang mit dem Messgerät so hoch, dass sie die eigentlich gewünschte lernbezogene kognitive Belastung, nämlich die Messung mit physikalischen Grundprinzipien zu verknüpfen, vermutlich aus dem Arbeitsgedächtnis verdrängt hat.

Schematische Darstellung der Cognitive Load Theory nach Sweller (1988)

Weniger ist mehr: Lernzielfokus und Entlastung

Aus diesem Gedankengang ergibt sich ein Vorgehen für die didaktische Optimierung von Laboren: Zunächst ist zu klären, was für den jeweiligen Laborversuch das Lernziel sein soll. Danach listet man alle Wissensanforderungen auf, um auf dieser Basis intrinsische und extrinsische kognitive Belastungen gezielt dort zu senken, wo sie nicht direkt lernzielrelevant sind. In manchen Fällen genügt ein schriftlicher Info-Kasten in den Versuchsunterlagen. Bei prozeduralen Themen könnten kurze Videos entlasten, und bei jeder Information in den Praktikumsunterlagen soll geprüft werden, ob sie wirklich lernzielrelevant ist – wenn nicht, streichen. Gleichzeitig darf lernzielrelevante kognitive Belastung durchaus eingefordert werden.

Im Beispiel von Julia und Jens habe ich für das nachfolgende Semester zur Senkung der kognitiven Belastung einige Kurzvideos und Übungsaufgaben zum Umgang mit dem Oszilloskop sowie zum Ablesen der Messwerte als obligatorische Pre-Lab-Vorbereitung zur Verfügung gestellt. Komplett beseitigt war das Problem damit zwar nicht, aber es kam zu keiner Fehlmessung mehr und die Frustration der Studierenden war in meiner Wahrnehmung deutlich geringer.

Teilnehmende des CAS Hochschuldidaktik MINT 24/25 im Teil Labordidaktik

In vielen aktuellen Laborsettings finden ebenfalls Entlastungen der Studierenden in so genannten «Pre-Labs» statt. Dabei bildet sich die Vielfalt der Wissensanforderungen in unterschiedlichen Methoden und Fokussen ab: Es existieren zum Beispiel theorieorientierte Pre-Labs, bei denen es um den theoretischen Hintergrund des Versuchs geht, prozedurale Pre-Labs, bei denen es um praktische Abläufe im Labor geht, oder auch schreibintensive Pre-Labs, bei denen Protokoll- und Dokumentationsfähigkeiten trainiert werden.

Neben der Vorentlastung durch Pre-Labs trägt eine gute Verteilung der Entlastungsmassnahmen dazu bei, den «cognitive load» besser zu dosieren. Agustian und Seery (2017) zum Beispiel empfehlen, fachliche und gerätespezifische Konzepte im Vorfeld bereitzustellen, prozedurale Informationen «just-in-time» im Labor verfügbar zu machen und je nach Bedarf oder Notwendigkeit Fertigkeiten isoliert zu trainieren.

Im CAS Hochschuldidaktik MINT vertiefen wir die Labordidaktik mit prämierten Praxisbeispielen von Gastdozierenden und greifen weitere hochschuldidaktische Themen wie Lernzielformulierung sowie MINT-spezifische Themen auf (siehe Infobox).

Als ich einige meiner alten Protokolle noch einmal durchblätterte, bevor sie in der Papiertonne verschwanden, änderte sich mein Bild des Anfängerpraktikums. Damals empfand ich es als überwiegend sinnlose Fleissarbeit, heute sehe ich, was ich dabei letztlich gelernt habe: Es geht darum, Labore so zu gestalten, dass die Studierenden verstehen, warum sie tun, was sie tun (sollen) und dass wir Lehrende die kognitive Belastung so steuern, dass sie so gut wie möglich auf das Lernziel fokussiert ist.

INFOBOX

CAS HOCHSCHULDIDAKTIK MINT

Lehrgang

Im CAS Hochschuldidaktik MINT lernen Sie die Grundlagen effektiver und innovativer Lehre für aktives Lernen an Hochschulen mit Schwerpunkt auf den MINT-Disziplinen (Mathematik, Informatik, Naturwissenschaften und Technik).
Mehr Informationen und Anmeldung auf der Webseite
Broschüre zum CAS Hochschuldidaktik MINT

Online-Infoveranstaltung
An der Online-Infoveranstaltung zum CAS Hochschuldidaktik MINT 25/26 können Sie mit den Lehrgangsleitenden Mònica Feixas und Wolfgang Bührer ins Gespräch kommen. Sie findet am Montag, 25. August 2025, von 12–13 Uhr statt.
Jetzt anmelden

Module
Die folgenden Module aus dem CAS Hochschuldidaktik MINT 25/26 können auch einzeln gebucht werden:
- Lernziele und Methoden in MINT-Fächern, 22.–23. Januar 2026
- Leiten und Begleiten (mit einem Fokus auf MINT-Fächern), 30.–31. März 2026
- Assessment, Feedback und Evaluation in MINT-Fächern), 1.–2. Juli 2026

Zum Autor

Wolfgang Bührer bildet seit 2013 an der Abteilung Sek I der PH Zürich angehende Lehrpersonen in Physik und Physikdidaktik aus, hat mehrere Jahre an der HTWG Konstanz als Lehrbeauftragter angehende Ingenieure in Physik mitausgebildet und ist Co-Lehrgangsleiter des CAS Hochschuldidaktik MINT.

Sprachförderung an Berufsfachschulen – Bitte einmal austauschen

Text: Sandra Buchmann

Wer glaubt, an der Berufsfachschule findet keine Sprachförderung statt, der irrt.
Wer glaubt, die Berufsfachschulen wissen, wie andere Berufsfachschulen Sprachförderung gestalten, der irrt ebenfalls.

Unterschiedliche Schulen, unterschiedliche Projekt-Foki

Die Tagung Sprachförderung und Mehrsprachigkeit vom 14. März 2025 gab einen spannenden Einblick in die Sprachförderungswelt der Berufsfachschulen. Verschiedene Berufsfachschulen im und ausserhalb des Kantons Zürich führen schulintern Sprachförderprojekte durch. Diese haben unterschiedliche Foki: fachübergreifende Sprachförderung, sprachsensibler Fachunterricht, leichte Sprache und Sprachstanderhebungen – um eine Auswahl zu nennen.

Vom Wissen anderer (Schulen) erfahren

Als Tagungsleiterin besass ich den Luxus, in einen der fünf praxisorientierten Workshops der Tagung reinzusitzen. Ich wählte einen Workshop, der das Sprachförderprojekt einer Berner Berufsfachschule vorstellte. Da der Hintergrund meiner Workshop-Wahl für den weiteren Verlauf dieses Beitrags wichtig sein könnte, teile ich ihn hier: Ich selbst hatte an einer Zürcher Berufsschule ebenfalls ein Sprachförderprojekt geleitet und war deshalb nicht nur als PH-Vertreterin, sondern auch als Vertreterin aus dem Schulfeld am Workshop interessiert.

«Hab ich gar nicht gewusst»-Momente

Der erste «Hab ich gar nicht gewusst»-Moment folgte schnell. Ich erfuhr in besagtem Workshop unter anderem, dass diese Schule das Informationsschreiben für die Lernenden zum Thema BYOD (Bring your own device) in leichter Sprache verfasst und damit positive Erfahrungen gemacht hat. Eine kleine schulinterne Datenerhebung habe gezeigt, so die Workshopleitung, dass diejenigen Lernenden, welche das BYOD-Schreiben in leichter Sprache erhalten hatten, häufiger Geräte mit der korrekten Ausstattung mitbrachten als die, die das Standard-Schreiben erhalten hatten.

Die BYOD-Krise

Das ist ein Detail, aber ein Wichtiges! An «meiner» Berufsfachschule, an der ich neben meiner Tätigkeit an der PH Zürich unterrichte, war ich als Klassenlehrerin einer Integrationsvorlehre-Klasse von August 2024 bis mindestens Januar 2025 damit beschäftigt, herauszufinden, weshalb in einer Woche bei Tomas und in der anderen Woche bei Melina der Computer nicht funktionierte. Das ging so weiter und BYOD wurde abgelöst von DBYOD (Don’t bring your own device) oder UAD (Use another device).

Fazit aus der BYOD-Krise

Hätte ich die nette Frau von der Berner Berufsfachschule a) schon früher gekannt und b) ich mich schon früher mit ihr ausgetauscht, wäre meine BYOD-Krise (und die vieler anderer Lehrpersonen an meiner Schule) eventuell zu verhindern gewesen. Es lohnt sich nicht, weiter zurückzublicken. In Zukunft werden an «meiner» Schule jedoch die BYOD-Schreiben angepasst und die Anpassung dauert dank Austausch schneller.

Mit einem Austausch zwischen Akteur:innen aus Berufsfachschulen kann wertvolles Wissen geteilt werden.

Über BYOD hinaus

Das BYOD-Beispiel steht stellvertretend dafür, dass es für verschiedene Akteur:innen in der Berufsbildung gewinnbringend sein kann, sich systematischer und regelmässiger über Sprachförderung (konkret) an Berufsfachschulen auszutauschen. Neben den bereits erwähnten Akteur:innen wie Projektleitende und Lehrpersonen, sind beispielsweise auch Schulleitungsmitglieder und Vertreter:innen des Mittelschul- und Berufsbildungsamts Zürich in den Austausch einzubinden.

Wie und wo austauschen?

Eine Möglichkeit, den Austausch zur Sprachförderung an Berufsfachschulen zu stärken, wäre eine Erfahrungstagung an der PH Zürich. Verschiedene Berufsfachschulen und verschiedene Akteur:innen daraus – beispielsweise Projektleitende, Lehrpersonen und Schulleitungen – könnten einmal im Jahr zum Austausch an die PH Zürich eingeladen werden.

Übrigens: Beim Apéro der Tagung Sprachförderung und Mehrsprachigkeit war ein Kollege aus Fribourg irritiert darüber, dass mit keinem Wort der bilinguale Unterricht in Deutsch/Französisch erwähnt wurde.

Ça existe ou quoi?

INFOBOX

LEHRGANG
Im CAS Sprachprofi bauen Sie Strategien auf, um Lernende in den Bereichen Lesen, Schreiben, Sprechen und Hören fachübergreifend zu fördern.

BERATUNG
Wir beraten und begleiten Berufsfachschulen bei der schulinternen Planung und Umsetzung von Sprachförderprojekten. Kontakt: sandra.buchmann@phzh.ch

WEITERE INFORMATIONEN

Webseite der PH Zürich: Sprachförderung an Berufsfachschulen

Podcast «Resonanzraum Bildung» der PH Zürich zum Thema «Sprachförderung an Berufsfachschulen»

Newsartikel auf www.phzh.ch, 8. Mai 2025: «CAS Sprachprofi wird Teil der Ausbildung Sek II/Berufsbildung»

Zur Autorin

Coaching in der Berufs- und Erwachsenenbildung

Text: Mandy Gnägi

Das Rollenverständnis von Lehrpersonen in der Berufs- und Erwachsenenbildung hat sich nicht erst mit der Kompetenzorientierung ausdifferenziert. Je nach Kontext mäandrieren Lehrende in ihrem Verhalten als Hüterin oder Hüter von Wissen, als strukturgebende Leader, als impulsgebende Beratende, selbst als unwissende Lernende oder als unterstützende Coaches. Jede dieser Rollen impliziert ein eigenes Verhalten. Danach gestaltet sich das Miteinander ebenso wie neue Lehr-Lernangebote austariert und formuliert werden. Die Rolle eines systemischen Coaches ist dabei insofern eine besondere, als dass sie nicht als die inhaltlich überlegeneren Personen agieren: ihnen obliegt ausschliesslich die Verantwortung dafür, dem Gegenüber durch unterschiedliche Impulse und Interventionen Möglichkeiten für einen Reflexions- und Entwicklungsprozess zu eröffnen. Die inhaltliche Deutung oder Wertung bleibt in der Verantwortung des Gegenübers, dem Coachee.

Coaches schenken den Coachees höchste Aufmerksamkeit und echtes Interesse.

Coaches öffnen Raum

Sucht ein Coachee ein Coaching auf – oder wird durch die Institution dazu angehalten – ist das Anliegen häufig bekannt und bereits mehrfach besprochen oder durchdacht. Im Coaching wird in einem dialogischen Prozess diesem Anliegen aus unterschiedlichen Perspektiven auf den Grund gegangen. Hintergründe, relevante Personen, bestimmende Bedingungen oder «Trigger» werden dabei ebenso in den Fokus genommen, wie die bisherigen Versuche, das Thema zu lösen. Die Coachee erleben höchste Aufmerksamkeit und echtes Interesse daran, das Thema in der subjektiv erlebten Komplexität zu erfassen. Dabei sind Ruhe, wertschätzende und klare Kommunikation, schrittweises Fragen und sorgfältiges Agieren Gelingensbedingungen dafür, dass das Gegenüber Vertrauen aufbaut und sich öffnet. So kann es in dieser «sicheren» Umgebung gelingen, dass die Coachee bereit sind, neue Sichtweisen auf das Thema einzunehmen – etwa aus der Perspektive von vorhandenen Rahmenbedingungen, aus der von Kolleginnen oder Kollegen, aus der des Betriebes resp. der Institution, der vorgesetzten Person oder aus der von Freunden. Dieser neue Blick auf das «Problem-System», in dem sich das Thema am deutlichsten zeigt, ermöglicht, das eigene und fremde Verhalten neu zu bewerten. Gleichermassen wird deutlich, welche Wege von Lösungen die Coachee nun gehen können, welche Ressourcen dafür vorhanden sind oder aktiviert werden müssen.

Coaches haben persönliches Handwerkszeug

Mit welchen Methoden im systemischen Coaching gearbeitet wird, obliegt den Kompetenzen, Erfahrungen und Vorlieben der Coaches. Dazu gehören verbale Impulse durch Fragen gekoppelt mit dem Raum, in dem die Antworten gut gehört werden und darauf reagiert wird. Möglich ist die Arbeit mit Bildern; sei es mit vorgefertigten Bildkarten oder der Einladung an die Coachee, selbst Stellvertreterbilder zu entwerfen oder Konstellationen oder Hierarchien aufzuzeichnen. Zum Einsatz können ebenso unterschiedliche Materialien gebracht werden. Gerade die beiden zuletzt genannten Zugänge ermöglichen es den Coachees, einer vorhandenen Sprachbarriere konstruktiv zu begegnen. Unabhängig davon, welches Repertoire das persönliche Handwerkszeug der Coaches umfasst: es wird so im Coaching zum Einsatz gebracht, wie es dem Entwicklungsprozess des Coachees dienlich ist.

Coaches bringen Handwerkszeug so ins Spiel, wie es den Coachees dienlich ist.

Coaching braucht Haltung und psychologische Sicherheit

Das Wichtigste im systemischen Coaching ist eine zugewandte Haltung. Coaches muss es gelingen, Vorurteile, jede Form von eigenem Stress oder eigenen Emotionen abzulegen und sich ganz auf ihr Gegenüber einzulassen. Zur offenen und zugewandten Haltung gesellt sich die Einstellung, dass jedem Verhalten ein Nutzen innewohnt. Nicht immer ist der Nutzen offensichtlich oder ergibt sich mit der ersten oder zweiten Frage an die Coachee. Dann braucht es hohe Präsenz und Beharrlichkeit, sorgfältiges Navigieren im Ungewissen und grosse Wachsamkeit, um die verborgenen Aspekte zu beleuchten.

Genanntes bildet zusammen mit der Deutungshoheit der Coachee einen Rahmen, in dem sie psychologische Sicherheit erfahren:  Vertraulichkeit, Verlässlichkeit, Klarheit, verschiedene Angebote für einen Perspektivwechsel, Zuversicht, Würdigung und der Fokus auf Ressourcen machen es dem Coachee möglich, das Handeln zu reflektieren und daraus Erkenntnisse für einen Veränderungsprozess abzuleiten.

INFOBOX

COACHING IN DER BERUFS- UND ERWACHSENENBILDUNG

In der Weiterbildung der Pädagogischen Hochschule gibt es mehrere Angebote, um sich im Bereich Coaching weiterzubilden. Wer ein CAS anstrebt, dem stehen zwei Möglichkeiten offen. Der CAS Coaching – Beraten im Bildungsbereich richtet sich an jene Personen, die sich in der Begleitung von Studierenden, Teamentwicklung, Beratung, Elterngesprächsführung oder auch Coaching von Kursleitenden qualifizieren möchten.

Wer den Fokus auf eine fachkundige individuelle Begleitung (FiB) von Jugendlichen legen will, findet im CAS Coaching und Lernen mit Jugendlichen das passende Gefäss. Der Lehrgang richtet sich einerseits an Lehrpersonen in Berufsfachschulen, die durch die Weiterbildungsinhalte des CAS in der Lage sind, die Lernenden in der Erreichung eines erfolgreichen Lehrabschlusses gezielt zu unterstützen. Andererseits ist er für all jene Personen im Bildungsbereich offen, die in den unterschiedlichen Kontexten junge Menschen im Bildungsbereich und Ausbildungsbetrieben auf ihrem Weg unterstützen wollen.

WEITERE BERATUNGS- UND COACHINGANGEBOTE

Beratung und Coaching für Berufsfachschulen

Beratung und Coaching für Hochschulen

Übersicht Beratung und Coaching an der PH Zürich

Zur Autorin

Mandy Gnägi ist Beraterin und Dozentin im Zentrum Berufs- und Erwachsenenbildung an der PH Zürich.

A machine in need is a friend indeed? – Zu viel Vertrauen in KIs durch Vermenschlichung

Text: Yves Furer

Wenn Dinge misslingen, neigen Menschen dazu, nichtmenschlichen Objekten wie Maschinen menschliche Eigenschaften zuzuschreiben. So scheint der Drucker persönlich etwas gegen mich zu haben, weil er immer dann nicht funktioniert, wenn ich ihn dringend brauche. In die Maschine wird ein Wille hineininterpretiert, wo keine Intention vorhanden ist. Solche Vermenschlichung oder Anthropomorphisierung hilft uns, Situationen zu bewältigen, in denen wir uns externen Faktoren ausgeliefert fühlen.

Ist mir der Drucker heute gut gesinnt oder nicht? (Bild: Adobe Stock)

Im Gegensatz zu Druckern, die weder aussehen wie Menschen noch bedeutungsvoll mit Menschen interagieren, sind moderne KI-Systeme genau dafür designt, menschlich zu wirken. Bei Chat-GPT und Co. stellt die Anthropomorphisierung ein Feature und kein Zufall dar. Der Erfolg grosser Technologiekonzerne beim Vorantreiben dieser Entwicklung wird sichtbar, indem es immer schwieriger wird, menschliche Äusserungen von KI-generierten zu unterscheiden. Im schriftlichen Dialog mit Chat-GPT-4 können offenbar viele Menschen nicht mehr mit Sicherheit sagen, ob sie sich gerade mit einem Menschen oder einer Maschine unterhalten (Mei et al. 2024). Doch wirken die Antworten von KI-Chatbots nicht nur deshalb menschlich, weil sie inhaltlich passend ausfallen, sondern KI-Chatbots beantworten beispielsweise medizinische Fragen in einem Online-Forum auch empathischer als medizinisches Fachpersonal (Ayers et al. 2023).

Auffällig ist, wie scheinbar mühelos menschliche Eigenschaften auf die KI übertragen werden, indem entsprechende Begrifflichkeiten verwendet werden. Schon der Begriff künstliche Intelligenz suggeriert, dass eine Entität vorliegt, die eine menschliche Eigenschaft, nämlich Intelligenz besitzt. Doch es stellt sich die Frage, ob KIs wirklich empathisch sind oder uns Menschen nur sehr gut vorspielen, dass sie es sind. Wären KIs empathisch, müssten sie die Gefühle von Menschen erkennen, verstehen und nachempfinden können. Während das Erkennen von Emotion durchaus funktioniert und wohl auch schon kommerziell genutzt wird (Monteith et al. 2022), dürften Verstehen und insbesondere das Nachempfinden Kategorien sein, über die die KIs noch nicht verfügen.

Die KI versteht dich. Oder doch nicht? (Quelle: Adobe Stock)

Vertrauen in KI: Ein zweischneidiges Schwert

Wie sich zeigt, bleibt es nicht ohne Folgen, wenn KIs menschliche Eigenschaften zugeschrieben werden, die sie gar nicht besitzen. Anthropomorphe Elemente scheinen das Vertrauen von Menschen in KIs zu erhöhen. Leider handelt es sich beim Vertrauen um ein zweischneidiges Schwert. Ein höheres Vertrauen kann den Umgang mit neuen Technologien erleichtern oder sogar dazu führen, dass sich Personen überhaupt auf eine neue Technologie einlassen. Andererseits besteht beispielsweise die Gefahr, dass Menschen in der Interaktion mit der KI zu viele, auch private Daten von sich preisgeben (Akbulut et al. 2024). Doch auch beim Lernen mit KI-Systemen können weitere Probleme entstehen, wenn insbesondere den KI-generierten Outputs zu viel Vertrauen entgegengebracht wird.

Mehr Vertrauen = weniger nachprüfen?

Bekanntlich liegt die KI sehr häufig richtig, wenn sie mit konkreten Fragen konfrontiert wird, jedoch nicht immer. Insbesondere beim wissenschaftlichen Lernen und Arbeiten ist es essenziell, genau diese Fehler zu erkennen. Das gezielte Prüfen von Informationen stellt allerdings einen aufwändigen und anstrengenden Prozess dar. Ein zu hohes Vertrauen in KI-generierten Output könnte sowohl dazu führen, dass die Notwendigkeit, Inhalte zu prüfen, zu wenig erkannt oder Prüfungsprozesse nicht bis zum Ende durchgehalten werden, weil die Motivation dazu fehlt. Wahrscheinlich mangelt es an Bereitschaft zur kritischen Auseinandersetzung mit KI-Antworten, wenn die KI nicht als Maschine oder Tool angesehen wird, sondern als quasi menschliche Partner:in oder Tutor:in. Schliesslich war die KI doch so nett, mir lange und ausführlich meine Fragen zu beantworten, mir passende Quellen zu suchen und zusammenzufassen und dann erst noch meinen Text zu korrigieren. Wer so viele Freundschaftsdienste für mich erbracht hat, hat doch mein Vertrauen verdient?

Maschinen bleiben Maschinen

Wie schon erwähnt, werden die Technologiekonzerne weiterhin mit viel Geld daran arbeiten, KIs noch menschlicher wirken zu lassen. Auf diese Entwicklung können die wenigsten direkt Einfluss nehmen. Unmittelbar beeinflussen können wahrscheinlich viele Leser:innen dieses Blogs jedoch, wie ihre Studierenden mit KI arbeiten. Selbst wenn die Studierenden KIs häufig auch ohne das Wissen der Dozierenden einsetzen, besteht trotzdem die Möglichkeit, das Lernen mit KI direkt zu thematisieren. KI-generierten Inhalten mit einer gewissen Skepsis zu begegnen, stellt dabei nur einen Ausgangspunkt dar. Dennoch erscheint es wichtig, genau diesen Ausgangspunkt herzustellen, um weitere Schritte wie Überprüfen, Auswählen, Integrieren und Kombinieren von Inhalten und damit Lernen zu ermöglichen. Und schliesslich haben wir alle die Möglichkeit, uns zu hinterfragen, welche Begriffe wir im Kontext von KIs verwenden und wie stark diese Begriffe eine Vermenschlichung implizieren. Denn Maschinen bleiben vorerst Maschinen und keine Freund:innen.

INFOBOX

WORKSHOP
Nachricht an Chat-GPT: Gib mir Feedback auf meinen Text, Montag, 14. April 2025, 12.15–13.30 Uhr, Campus PH Zürich

MODUL
Schreiben begleiten und beurteilen, ab 16. März 2026, Campus PH Zürich

LITERATUR
- Placani, Adriana (2024): Anthropomorphism in AI: hype and fallacy. In: AI and Ethics 4 (3), 691–698.
- Reinecke, Madeline G. / Ting, Fransisca / Savulescu, Julian / Singh, Ilina (2025): The Double-Edged Sword of Anthropomorphism in LLMs. In: Proceedings 114 (1), 4.

Zum Autor

Yves Furer ist Dozent für Deutschdidaktik und Mitarbeiter des Schreibzentrums der PH Zürich.

Vom KI-Fastfood zum sinnhaften Einsatz

Text: Charlotte Axelsson

Vor Kurzem wurde ich gefragt, ob ich Angst vor den rasanten technologischen Entwicklungen habe. Meine Antwort lautete: ein klares Jein. Die Technologie selbst macht mir keine Angst – im Gegenteil, sie fasziniert mich. Ich werde zum Homo Ludens, mein Spieltrieb kennt kaum Grenzen. Was mir Sorgen bereitet, ist der Mensch, der diese Technologien nutzt, steuert oder weiterentwickelt – oft ohne sich der Verantwortung für deren Auswirkungen bewusst zu sein. Diese Sorge hat mich dazu gebracht, intensiver über Ethik in der Bildung nachzudenken, zum Beispiel am PHZH Barcamp «Assessment im Wandel – KI-basierte Ansätze für Beurteilung und Feedback» oder als Co-Herausgeberin der neuen Open-Access-Publikation «Ich, Wir & Digitalität, Ethik in der Lehre». Für mich ist klar: Eine ethisch fundierte Lehre ist der Schlüssel für einen sinnhaften Einsatz von Technologie. Ganz im Sinne des Buchtitels: «ICH steht für die persönliche Reflexion, WIR für das Miteinander und DIGITALITÄT beschreibt den kulturellen Wandel, der durch technologische Innovationen entsteht», lässt sich dieser Dreiklang auch im Dagstuhl-Dreieck (Figur 1) als technologische, gesellschaftliche, kulturelle und anwenderbezogene Perspektive beschreiben. Solche Modelle ermöglichen es auch, die eigene Lehre zu überprüfen und fehlende Perspektiven zu integrieren.

Figur 1: Dagstuhl Dreieck in «Ich, Wir & Digitalität, Ethik in der Lehre»

Bildung vermittelt nicht nur Wissen, das ist ebenfalls klar und wurde zum Beispiel durch Peter Holzwarth in «Sind Menschen die besseren Roboter? Ethische Fragen zur Digitalisierung» beschrieben, sondern auch die grundlegenden Werte einer Gesellschaft – ein essenzielles Element für deren Zusammenhalt und Funktionieren. Doch wie verändert der technologische Fortschritt unsere Zusammenarbeitsformen und das Beurteilen von Leistungen? Warum ist es besonders wichtig, im digitalen Zeitalter über Ethik zu sprechen? Im Folgenden habe ich zwei wichtige Gründe zusammengetragen, die die Wichtigkeit einer tiefgründigen Auseinandersetzung für uns Menschen unterstreichen sollen. Folgend gebe ich Einblicke in die Diskussion des Barcamps mit der Anwenderperspektive «Ethik und gesellschaftlichen Implikationen von KI im Assessment von Leistungen».

Erster Grund ist omnipräsentes Wissen: Technologien wie die Suchmaschine von Google oder Wikipedia machen Wissen allgegenwärtig und leicht zugänglich. Generative Technologien – etwa ChatGPT von OpenAI – ermöglichen es zudem, Wissen neu zu kombinieren und zu generieren. So stellt der technologische Wandel traditionelle Konzepte von Wissen und dessen Bewertung infrage und verlangt nach neuen Ansätzen. Wie überprüfen wir Leistungen, wenn man auf einen Klick ganze Hausarbeiten von einer Maschine generieren lassen kann?

Zweiter Grund sind intransparente Machtstrukturen: Unternehmen wie Google, Microsoft oder OpenAI kontrollieren zentrale Plattformen und Technologien und verfolgen in erster Linie ihre wirtschaftlichen Interessen. Dadurch entstehen gefährliche Abhängigkeiten, die Bildungseinrichtungen, Gesellschaften und sogar Staaten in ihrer Autonomie einschränken. Ein zentrales Problem ist die Intransparenz der Algorithmen: Sie steuern, welche Informationen priorisiert oder generiert werden, und beeinflussen dadurch, was wir sehen, lesen und lernen. Dies schafft eine neue Wissenshierarchie. Damit wird Wissen nicht mehr neutral verteilt, sondern von wenigen Akteuren gelenkt. Um dieser Entwicklung entgegenzuwirken, braucht es unabhängige Alternativen und eine breite gesellschaftliche Debatte. Gerade Pädagogische Hochschulen müssen eine Vorreiterrolle übernehmen, indem sie kritische Medienkompetenz fördern und sich aktiv mit diesen ethischen Fragen auseinandersetzen.

Ethik in der Lehre – Diskussionen aus dem Barcamp 

Die Herausforderungen werden besonders deutlich, wenn man diese beiden Gründe auf konkrete Bereiche im Bildungswesen anwendet. Beim Barcamp «Assessment im Wandel – KI-basierte Ansätze für Beurteilung und Feedback» haben wir uns in einem Track mit «Ethik und gesellschaftlichen Implikationen von KI im Assessment von Leistungen» beschäftigt.

Die Diskussionen zeigten schnell, dass Bildung und vor allem Prüfungen nicht nur der Vermittlung und dem Abfragen von Wissen dienen, sondern auch kulturelle, soziale und persönliche Entwicklung umfassen. In der Diskussion haben wir uns um zwei Statements gedreht: Mensch, sei du selbst der Wandel – Technologie sollte sinnstiftend eingesetzt werden – nicht allein aus Effizienzgründen. Oder mit Play, Qualität fördern! rufen die Teilnehmenden das spielerische Konzept «Slow AI» auf, welches auf Reflexion, Neugierde und Entschleunigen setzt und eine Art Gegenbewegung zu Fastfood (KI-)Wissen darstellt.

Des Weiteren wurde die Frage, ob KI in der Lage ist, Sinn oder individuelle Werte in die Beurteilung einfliessen zu lassen, kontrovers diskutiert. Transdisziplinäres Lernen und alternative Beurteilungskulturen – weg von starren Konzepten von «richtig» und «falsch» hin zu mehr Kreativität – könnten dabei eine Schlüsselrolle spielen. Hier ist Austauschen und Voneinander-Lernen gefragt. Und über eines sind sich alle einig gewesen: Traditionelle Prüfungen, die lediglich Wissen abfragen, waren noch nie und sind einfach nicht mehr haltbar.

Barcamp 2024

Fazit und Ausblick 

Zum Schluss gibt die Disziplin Ethik in der Regel wenig Antworten – Ethik bietet Denkräume. Diese «Safe Spaces» müssen wir im Bildungswesen schaffen, in denen wir erforschen, entwickeln und vermitteln können – basierend auf Werten wie Menschlichkeit, Sinnhaftigkeit und Verantwortung. Denn nur, wenn wir Technologie bewusst und reflektiert einsetzen, können wir sicherstellen, dass der Wandel menschenwürdig ist. 

Das Thema werden wir weiterdiskutieren und laden an dieser Stelle zum nächsten Barcamp «Assessment und KI: Gemeinsam praktische Formate erkunden» am 20. November 2025 ein. Wer bis dahin nicht warten kann, empfehle ich unser kleines Büchlein, darin findet man weitere Fragen und praktische Anwenderbeispiele für den eigenen Unterricht.

INFOBOX

BARCAMP «ASSESSMENT UND KI: GEMEINSAM PRAKTISCHE FORMATE ERKUNDEN»,
20. NOVEMBER 2025 AUF SCHLOSS AU

Interessieren Sie sich für diese Tagung? Gerne können Sie in diesem Formular Ihren Namen und Mailadresse hinterlassen, dann informieren wir Sie, sobald Programm und Anmeldemöglichkeit aufgeschaltet sind.

KURS (PHZH-INTERN)
Ethische Fragen zur KI: Praxisnahe Ansätze für den Unterricht
Dienstag, 8. April, 12.15–13 Uhr, Campus PH Zürich

LITERATUR
Blume, Dana & Axelsson, Charlotte. 2024: Ich, wir & Digitalität, Ethik in der Lehre.

Zur Autorin

Wie nutze ich KI für das Schreiben an der Hochschule?

Text: Maik Philipp, Alex Rickert, Yves Furer und Daniel Ammann

Positionspapier zum wissenschaftlichen Schreiben in Zeiten von künstlicher Intelligenz

Dieses Positionspapier des Schreibzentrums der PHZH setzt sich mit zentralen Herausforderungen auseinander, die sich für Hochschulen in Zeiten von künstlicher Intelligenz (KI) im Kontext des Lernens und des Verfassens schriftlicher Arbeiten ergeben.

Wie an anderen Hochschulen nutzen auch Studierende der PHZH generative KI für das Schreiben ihrer Texte. Studien aus Deutschland (Helm u. Hesse 2024), Schweden (Stöhr, Ou u. Malmström 2024), Australien (Kelly, Sullivan u. Strampel 2023) oder den USA (Dang u. Wang 2024) belegen die intensive KI-Nutzung von Studierenden. Die deutsche Studie zeigt, dass zumindest ein Teil der Studierenden KI auf eine Weise einsetzt, die problematisch erscheint – etwa zur Überprüfung der inhaltlichen Richtigkeit.

Diese Entwicklung zwingt Hochschulen, sich Fragen zur Funktion und zum Stellenwert des Schreibens zu stellen, sei es für das Lernen, das Verfassen von Leistungsnachweisen oder in Prüfungen. Das Schreibzentrum äussert sich dazu aus epistemologischer und lernbezogener Perspektive. Die Fähigkeit, im Umgang mit Texten analytisch und kritisch zu denken, gewinnt in komplexer werdenden Wissensgesellschaften zusehends an Bedeutung. Künstliche Intelligenz nimmt mündigen Personen diese Aufgabe nicht ab, sondern fordert diese ein und heraus. Das Schreibzentrum positioniert sich mit zwei Thesen zur Nutzung von KI für das Schreiben an der Hochschule, um die Notwendigkeit des reflektierten Einsatzes zu betonen. Die erste These bezieht sich auf die Systemebene der Wissenschaft, die zweite betrifft die Personenebene und die Einsatzgebiete generativer KI. Die Thesen werden exemplarisch von Vignetten flankiert.

Ist die Zukunft des Schreibens eine Kollaboration zwischen einem Menschen und künstlicher Intelligenz? (Foto: Adobe Stock)

These 1: KI ist keine verlässliche Wissensquelle, weil sie keine Expertise hat. Wissen wird von Expert:innen hergestellt und über epistemisch vertrauenswürdige Quellen verbreitet. Wissensproduktion folgt anerkannten und transparenten Regeln – es ist unklar, ob KI das tut.

Vignetten:

  • Student A übernimmt eine automatisch generierte Definition aus ChatGPT, die plausibel klingt, und sucht via Elicit eine Quelle, die dazu passt.
  • Student B sucht nach unterschiedlichen Definitionen in der Fachliteratur, die er mit Hilfe von KI-Recherchetools gefunden hat, vergleicht die Definitionen miteinander und entscheidet sich unter Angabe von Gründen für eine Variante.

In Wissensgesellschaften sind wir darauf angewiesen, dass Erkenntnisse jedweder Art auf nachvollziehbare Weise entstanden sind. Die Komplexität der Wissensherstellung bringt ein hohes Mass an Expertise und Spezialisierung mit sich. Darauf baut die Wissenschaft, indem sie erkennbare Expertise in einem Fachgebiet als Indikator dafür nutzt, dass sich andere Mitglieder der Gesellschaft auf die Aussagen verlassen können (Chinn, Barzilai u. Duncan 2021).

  • Darum beschreiben Wissenschaftler:innen ihre Methoden genau und belegen, auf welche Quellen sie sich stützen.
  • Darum gibt es Qualitätssicherungsmechanismen, indem etwa Beiträge in Fachzeitschriften von anderen Expert:innen begutachtet werden.
  • Darum lassen sich wissenschaftliche Quellen zumindest annäherungsweise daran erkennen, dass sie von fachlich qualifizierten Personen für ihre Fachcommunitys verfasst werden, um darin ihre Erkenntnisse zu verbreiten.
  • Darum ist es keineswegs trivial, auf welche Quellen sich Studierende stützen. Eine angemessene Quellenkritik und -auswahl wird zusehends wichtiger.

Funktionsweise und Datengrundlage generativer Large-Language-Models bleiben teils Betriebsgeheimnis, deshalb lässt sich kaum nachvollziehen, welche Quellen den KI-Outputs zugrunde liegen und wie die Aussagen zustande kommen. Stil und Textoberfläche der Outputs dürfen nicht darüber hinwegtäuschen, dass sich darin inhaltlich Falsches, Fragwürdiges, Verkürztes, Tendenziöses verbirgt.

These 2: KI soll das Lernen durch Schreiben unterstützen und nicht verhindern. Schreiben ist nachweislich ein effektives Instrument für das Lernen. Dafür sollte es auch genutzt werden.

Vignetten:

  • Studentin A füttert Claude.ai mit Fragestellung, Theorie- und Ergebnisteil ihrer Bachelorarbeit und lässt den Diskussionsteil von der KI generieren.
  • Studentin B formuliert ihren Diskussionsteil selbst, indem sie die Ergebnisse auf die Fragestellung bezieht und diese mit Modellen und Studien aus dem Theorieteil abgleicht und einordnet.

KI-Tools sind auf Schnelligkeit und Aufgabenerledigung ausgerichtet. Das macht sie attraktiv. Deshalb ist wichtig, dass diese Systeme reflektiert und eigenverantwortlich genutzt werden. Dies bedeutet: Die Tools kommen dort sinnvoll zum Einsatz, wo sie das Lernen durch Schreiben unterstützen und es nicht verhindern – etwa bei der Quellenrecherche, der Datenstrukturierung, beim Generieren inhaltlicher Impulse und Ideen, für Feedback oder bei der stilistischen und orthografischen Überarbeitung. Lese- und schreibbezogenen Aktivitäten, die auf das Denken höherer Ordnung – das Anwenden, Analysieren, kritische Evaluieren und Kreieren (List u. Sun 2023; Philipp in Druck; Philipp 2022) – abzielen, sollten jedoch nicht an eine KI delegiert werden. Solche Schreibpraktiken sind kognitiv herausfordernd, aber für die Entwicklung von Fachexpertise unverzichtbar. Die Fähigkeiten zum Denken höherer Ordnung durch Lesen und Schreiben entwickeln sich in der kleinschrittigen Auseinandersetzung mit Texten. Sie führen dazu, dass tief, flexibel und kritisch über Gegenstände eines Fachs nachgedacht wird. Aufgrund ihres transformierenden Anforderungscharakters erfordern sie Genauigkeit in Analyse und Evaluation und deshalb Langsamkeit (Chen 2019).

Auch bei Arbeiten mit KI, die auf fremden Texten basieren, zum Beispiel beim automatischen Zusammenfassen, ist es notwendig, Output, Prompt und Ursprungstexte miteinander zu vergleichen. Denn häufig gilt es, unterschiedliche Texte aus mehreren Quellen im eigenen Text zu integrieren. Integrieren bedeutet, die verschiedenen Aussagen sinnvoll aufeinander zu beziehen und deren Perspektiven zu erkennen und zu kombinieren. Diese Mehrperspektivität und die qualitativen Unterschiede von Aussagen zu erfassen und nachzuvollziehen, zeichnet den Wissensaufbau und die gedankliche Eigenleistung beim Lernen und bei Prüfungen aus (Kuhn 2020). Dafür braucht es die Fähigkeit, Bezüge zwischen Themen aktiv herzustellen, insbesondere wenn Autor:innen nicht das gleiche Vokabular verwenden. Solche Verstehensleistungen verlangen ein genaues Lesen (Britt u. Rouet 2012). Dies gilt auch und insbesondere für die Nutzung KI-generierter Textangebote: Geben die Chatbots angemessen wieder, was in den verwendeten Quellen steht – und passt der Prompt überhaupt zu den Texten? Darum wird es in der Regel nötig sein, genau zu lesen und den Output anzupassen. Anders gesagt: Die Zeit, die man beim Schreiben spart, ist gut im Lesen und Überarbeiten reinvestiert.

INFOBOX

Das Angebot der PH Zürich zum Schreiben und Schreiben mit KI umfasst Weiterbildungen, Dienstleistungen und Beratungen.

MEHR ZU WISSENSCHAFTLICHEM SCHREIBEN UND SCHREIBEN MIT KI
Das Schreibzentrum der PH Zürich bietet Unterstützung beim wissenschaftlichen Schreiben und Schreiben mit KI sowie spezifische weitere Informationen zu Schreiben mit KI.

MODULE
Schreiben begleiten und beurteilen, ab 17. März, Campus PH Zürich
Wissenschaftliches Schreiben, ab 23. September, Campus PH Zürich

SCHREIBBERATUNG
Mittels Schreibberatungen für Personen und Teams hilft das Schreibzentrum der PH Zürich, Schreibkompetenzen weiterzuentwickeln und Texte zu optimieren.

LITERATUR
- Philipp, Maik. 2025 Digitales Lesen fördern. Göttingen: Vandenhoeck & Ruprecht.
- Philipp, Maik. 2025. Lesen digital: Komponenten und Prozesse einer sich wandelnden Kompetenz. Weinheim: Beltz Juventa.

Zu den Autoren

Alex Rickert ist Leiter des Schreibzentrums der PH Zürich und ist als Dozent in Weiterbildungsgefässen aktiv. Seine Arbeits- und Forschungsschwerpunkte sind Textlinguistik, Schreibberatung und -didaktik.

Maik Philipp ist Professor für Deutschdidaktik an der PH Zürich. Seine Schwerpunkte sind Lese- und Schreibförderung mit Fokus auf Evidenzbasierung.

LINKEDIN
Share
INSTAGRAM