Academic Integrity by Design: From Regulating to Trust in AI Classrooms

–> Blogbeitrag auf Deutsch lesen

Contribution by Mònica Feixas

Artificial Intelligence both fascinates and frightens us in equal measure. For some, AI is the biggest threat to academic integrity in a generation; for others, the most powerful learning tool since the printing press. In this blog, I would like to invite you to look closely at how universities are talking about AI in their policies and practices. To make sense of these approaches, I propose the Triple A Approach — Awareness, Agency, Action:

  • Awareness: recognising how AI is framed in policies, understanding the narratives and surfacing the assumptions and biases.
  • Agency: keeping humans, teachers and students, in control. AI doesn’t replace critical thinking; it makes it more urgent.
  • Action: moving from theory to practice by redesigning assessment, integrating AI thoughtfully in teaching, and building AI and epistemic literacy for critical, ethical use.
Image 1: The Triple A Approach (elaborated by M. Feixas with napkin.ai)

Awareness: What Policies Reveal

When we examined 14 university policies on generative AI in Spain and Switzerland, we found that policies don’t just regulate, they tell stories about students, teachers, and knowledge:

  • Definitions matter: Policies define AI as a tool or resource (like a dictionary), most as a risky system, a partner in thinking, or even a transformative force. These assumptions shape how integrity and assessment are imagined.
  • Narratives Shape Integrity (Table 1):
    • Restrictive policies treat AI mainly as a threat, focusing on «fraud» and «detection.» Students are framed as potential cheaters, teachers as enforcers, and integrity becomes surveillance.
    • Enabling policies see AI as a learning opportunity, requiring students to disclose and reflect on AI use, and teachers to rethink assessment. Integrity is about guidance, honesty, and transparency.
In restrictive policies:
 
– AI = Academic Dishonesty
– Students as cheaters, will misuse tools unless strictly regulated. Assumed unmotivated, short-cut seeking
– Traditional formats = inherently trustworthy
– Teachers expected to police
– Focus of Academic Integrity is on detection and surveillance
In non-restrictive policies:
 
– AI = Opportunity for learning and Pedagogical innovation
– Students as active, critical thinkers. Must be trained in ethical use and new literacies
– Assessment = process + reflection
– Teachers as mentors and designers, and irreplaceable
– Focus of Academic Integrity is on guidance and reflection
Table 1: Contrasting Narratives of AI in Higher Education Policies

These narratives shape the university’s culture. Are students potential fraudsters or responsible learners? Are teachers detectives or mentors? Answers to these questions define how we understand integrity and pursue student agency.

Redefining Academic Integrity

Why do students cheat? Research (Eaton et al, 2017) shows cheating is driven by a mix of factors: Stress, unrealistic or unclear assessments, or peer pressure. Many students also don’t always understand academic expectations.  

In drawing on Rhode’s (2017) study, Eaton et al, remind us that only a small fraction of students never cheat and a similarly small minority cheat intentionally and consistently; the majority — about 80–90% — sit in the middle, meaning they cut corners when under pressure, often regretting it afterwards.

With AI, although still many students are cautious, most don’t view its use as cheating, unless boundaries are clear. Where is the line between «acceptable help» from AI and actual misconduct? Most universities treat unauthorized use (AI uses in a way that is not allowed by the course or institution) or undisclosed (fail to acknowledge) as misconduct, like plagiarism. So they stress transparency: students are expected to acknowledge how AI was used. This is a rather compliance-based view of integrity: focused on rules, detection, enforced through surveillance and sanctions.

In this regard, academic integrity is not just about what students shouldn’t do, but about what the whole academic community does — building trust, respect, practicing fairness, and taking responsibility in knowledge work. This cannot rely on punishment alone; it needs a learning culture and AI literacy.

Agency: Who is in Control?

AI literacy is not just about knowing how to use AI tools, it’s about having agency: the ability to make informed choices, exercise ethical and critical judgment, and be recognized as an active participant (Emirbayer & Mische, 1998; Bandura, 2001). Without agency, we risk outsourcing too much of our thinking to machines.

1. Who is in control: humans or machines?

AI can either undermine or enhance our agency. If students use AI uncritically, they may lose creativity and cognitive skills. But if they engage critically, AI can become a tool for deeper learning. Teachers face the same choice: lose agency by policing students’ AI use; gain agency by designing innovative teaching and learning activities that require reflection, evaluation, and critical thinking.

2. What happens to thinking when we rely too much on AI?

The main risk is what some call cognitive atrophy or brain drain (Guest et al. 2025): when we outsource too much mental effort, our capacity for deep thinking shrinks.

  • Cognitive offloading can free working memory for higher-order thinking but overuse weakens memory and reasoning (Oakley et al., 2025).
  • Productive struggle is essential: learning needs challenge and effort with scaffolding (Hattie et al., 2023). If AI removes this, students lose resilience and critical capacity.

Guest et al. (2025) show AI may raise abstraction levels but reduce effort and depth of thinking. Experts may benefit from using AI to «chunk» tasks, but novices risk dependency. This can widen inequalities between confident students who use AI to push boundaries and those who let it do the work for them.

3. How do we protect human agency in the age of AI?

The biggest danger is over-trust: those who rely blindly on AI lose the most independence. As systems improve, the temptation to trust them fully will grow. Protecting agency means:

  • Cultivating skepticism: teaching students to question AI outputs.
  • Designing for thinking: creating tasks that require evaluation, judgment, and reflection.
  • Preserving independence: making space for the struggle that builds knowledge, resilience, and critical capacity.

AI is not going away, and we shouldn’t embrace it uncritically. Instead, we can treat it as an opportunity. The challenge is to cultivate integrity at scale: to see students as capable learners, teachers as trusted professionals, and institutions as communities of care.

If we build epistemic agency into our curricula, AI can become a tool for growth, helping students develop literacy, responsibility, and higher-order thinking, rather than a shortcut to superficial answers.

Action: Redesign for the Future

If Awareness uncovers assumptions and Agency protects the capacity to think and act critically, then Action must show how integrity can be redesigned at scale. To the question «What are scholarly pathways to design for academic integrity?», there is no single answer, but I suggest three areas for action: pedagogy, governance and community building – themes we will explore in the upcoming events below.

Pedagogy

  • Redesign assessments to include process-oriented formats (reflections, version histories, journals, portfolios, or oral explanations that reveal thinking, not just final products).
  • Reframe authorship: Ask students to document their AI use and reflect on how it shaped their thinking and work and why.
  • Promote transparency: communicate clearly when and how AI can be used.
  • Foster AI literacy: teach the basics of AI including data protection, critical evaluation and ethical use.
  • Assess epistemic literacy: Can students justify when and why they used (or did not use) AI?

Governance

As mentioned in the study:

  • Policies must be clear about when AI can be used, how its use should be documented, and when it must be excluded to protect learning and genuine achievement.
  • Should move beyond compliance: not just list what is «allowed» or «forbidden», but:
    • articulate clear values of honesty, fairness, and trust.
    • see students as responsible agents: not merely as potential cheaters, but as partners in shaping integrity.
    • empower teachers: through professional development, infrastructure, and time to experiment with new assessment formats.
    • put assessment at the center: because assessment is where integrity is most consequential — it determines recognition, grades, and opportunities.
  • Provide clear frameworks for when AI is allowed, guided, or excluded (e.g., University of Sydney’s two-lane model or the AIAS Assessment Scale).
  • Support teacher and student agency with AI literacy, professional development and infrastructure.

Community Building

Integrity grows from developing alliances that scale from classroom pilots to institutional strategy:

  • Build dialogue and shared responsibility across faculty, students, and administrators.
  • Share good practices and pilot projects that strengthen integrity.
  • Encourage critical discussion about power, ethics, and AI’s role in knowledge production.
INFOBOX

As we step into this future, I invite you to continue the dialogue in the upcoming events:

- One-day conference: Assessment und KI: Gemeinsam praktische Formate erkunden (PH Zürich, 20th November 2025). An experimental, hands-on event, inviting educators, developers, and students into open dialogue and co-creation around real dilemmas of assessment in the age of AI.

- Fostering Epistemic Agency in Higher Education: Why and How? Free webinar by the Higher Education Development, Teaching and Learning Research Group with Dr. Juuso Nieminen (Deakin University, Australia), 4th November 2025

- The ICED26 Conference «Agency and Academic Development» (Salamanca, 24-26 June 2026). The international conference of academic developers but also researchers and leaders. This time we explore how agency shapes knowledge, strategy, and student learning. How do academic developers cultivate agency in a rapidly changing higher education landscape?

About the Author

Academic Integrity by Design: Von der Regulierung zum Vertrauen im KI-Klassenzimmer

–> Read this blog post in English

Text von Mònica Feixas

Künstliche Intelligenz fasziniert und beunruhigt uns zugleich. Für manche ist sie die grösste Bedrohung der akademischen Integrität seit einer Generation, für andere das mächtigste Lernwerkzeug seit der Erfindung des Buchdrucks. Unter akademischer Integrität ist dabei ein verantwortungsvoller Umgang mit Wissen in Studium und Lehre zu verstehen, der sich in Konzeptionen von Redlichkeit, Fairness oder Verantwortung widerspiegelt.

In diesem Blog lade ich Sie ein, genauer hinzusehen: Wie sprechen Universitäten in ihren Reglementen, Vorgaben und Richtlinien – nachfolgend Policies genannt – über KI? Um die Hintergründe der Policies besser zu verstehen, schlage ich den Triple-A-Ansatz vor – Awareness, Agency, Action:

  • Awareness: Erkennen, wie KI in Policies gerahmt wird, unterliegende Narrative und Annahmen sichtbar machen.
  • Agency: Sicherstellen, dass Menschen – Lehrende wie Studierende – handlungsfähig bleiben. KI ersetzt kritisches Denken nicht, sondern macht es dringlicher.
  • Action: Für den Schritt von der Theory zur Praxis sind Leistungsnachweise und Leistungsbeurteilung neu zu gestalten und KI bewusst in die Lehre zu integrieren, wodurch KI Literacy sowie die epistemische Handlungsfähigkeit gefördert werden und den kritischen, ethischen Gebrauch von KI stärken.
Bild 1: Der Triple-A-Ansatz (Ausarbeitung M. Feixas mit napkin.ai)

Awareness: Was Policies sichtbar machen

In unserer Analyse von 14 Hochschul-Policies zu generativer KI (aus Spanien und der Schweiz) zeigte sich: Policies regulieren nicht nur, sie erzählen Geschichten über Studierende, Lehrende und Wissen:

  • Definitionen sind entscheidend: Einige Policies definieren KI als Werkzeug (wie ein Wörterbuch), andere als risikobehaftetes System, als Denkpartner oder sogar als transformativen Faktor für Bildung. Diese Sichtweisen prägen, wie Integrität und Leistungsbeuteilung gedacht werden.
  • Narrative formen Integrität (Tabelle 1):
    • Restriktive Policies sehen KI primär als Bedrohung. Sie sprechen von «Betrug» und «Erkennung», stellen Studierende als potenzielle Täuschende dar und Lehrende als Kontrollinstanz. Die Wahrung von Integrität wird auf Überwachung reduziert.
    • Ermöglichende Policies sehen in KI eine Chance für das Lernen. Sie fordern Studierende auf, KI-Nutzung zu deklarieren und zu reflektieren. Lehrende ermuntern sie, Leistungsnachweise und Leistungsbeurteilung neu zu gestalten . Integrität dreht sich um Transparenz, Dialog und Begleitung.
In restriktiven Policies:
– KI = Akademische Unredlichkeit
– Studierende gelten als potenzielle Betrüger:innen, die Tools missbrauchen, wenn sie nicht streng reguliert werden. Es wird angenommen, dass sie unmotiviert sind und Abkürzungen suchen.
– Traditionelle Prüfungsformate = naturgemäss vertrauenswürdig
– Lehrende sollen überwachen und kontrollieren
– Der Fokus der akademischen Integrität liegt auf Erkennung und Überwachung von Fehlverhalten
In nicht-restriktiven Policies:
– KI = Chance für Lernen und didaktische Innovation
– Studierende werden als aktive, kritische Denker:innen gesehen. Sie müssen ethischen Umgang mit KI und neue Literacies erwerben
– Leistungsbeurteilung  = Prozess + Reflexion
– Lehrende als Mentor:innen und Designer:innen, deren Rolle unersetzlich ist
– Der Fokus der akademischen Integrität liegt auf Begleitung, Transparenz und Reflexion von Lernvorgängen
Tabelle 1: Gegensätzliche Narrative von KI in Hochschul-Policies

Diese Narrative prägen die Kultur einer Hochschule: Sind Studierende potenzielle Betrüger:innen oder verantwortungsbewusste Lernende? Sind Lehrende Detektive oder Mentor:innen? Die Antworten auf diese Fragen prägen, wie wir Verantwortung und Redlichkeit in Studium und Lehre verstehen – und wie wir die Handlungsfähigkeit der Studierenden fördern.

Neudefinition der akademischen Integrität

Warum schummeln Studierende? Untersuchungen (Eaton et al. 2025) zeigen, dass Schummeln durch eine Kombination verschiedener Faktoren begünstigt wird. Dazu gehören Stress, unklare oder unrealistische Beurteilungskriterien sowie Gruppendruck. Viele Studierende verstehen auch die akademischen Erwartungen nicht immer.
Unter Bezugnahme auf die Studie von Rhode (2017) erinnern uns Eaton et al. daran, dass nur ein kleiner Teil der Studierenden niemals betrügt und eine ähnlich kleine Minderheit absichtlich und konsequent betrügt; die Mehrheit – etwa 80–90 % – befindet sich in der Mitte, was bedeutet, dass sie unter Druck in gewissen Situationen Abstriche machen und dies oft hinterher bereuen.
Obwohl viele Studierende gegenüber KI noch vorsichtig sind, betrachten die meisten deren Einsatz nicht als Betrug, es sei denn, die Grenzen sind klar definiert. Wo liegt die Grenze zwischen «akzeptabler Hilfe» durch KI und tatsächlichem Fehlverhalten? Die meisten Universitäten behandeln die unbefugte (KI-Nutzung in einer Weise, die von der Lehrveranstaltung oder der Hochschule her nicht erlaubt ist) oder die nicht deklarierte KI-Nutzung als Fehlverhalten, ähnlich wie Plagiate. Daher legen sie Wert auf Transparenz: Von den Studierenden wird erwartet, dass sie angeben, wie KI genutzt wurde. Dies ist eine eher auf Compliance basierende Sichtweise von Integrität: Der Fokus liegt auf Regeln und deren Durchsetzung durch Überwachung und Sanktionen.

Allerdings sollte es bei akademischer Integrität nicht nur darum gehen, was Studierende nicht tun sollten, sondern vor allem darum, was die gesamte akademische Gemeinschaft tut: Vertrauen und Respekt aufbauen, Fairness praktizieren und Verantwortung in der Wissensarbeit übernehmen. Dies kann sich nicht allein auf Bestrafung stützen; es braucht eine Kultur des Lehrens und Lernens und KI-Literacy.

Agency: Wer hat die Kontrolle?

KI-Literacy bedeutet mehr als Toolwissen, sie umfasst auch Handlungsfähigkeit. Es geht dabei um die Fähigkeit, im Umgang mit KI informierte Entscheidungen zu treffen, kritisch und ethisch zu urteilen und aktiv mitzuwirken (Emirbayer & Mische, 1998; Bandura, 2001). Ohne solche Handlungsfähigkeit laufen wir Gefahr, zu viel von unserem Denken an Maschinen auszulagern.

  • Wer hat die Kontrolle: Menschen oder Maschinen?

KI kann unsere denkbezogene Handlungsfähigkeit entweder untergraben oder stärken. Wenn Studierende KI unkritisch nutzen, können sie Kreativität und kognitive Fähigkeiten verlieren. Wenn sie sich jedoch kritisch damit auseinandersetzen, kann KI zu einem Werkzeug für vertieftes Lernen werden. Lehrende stehen vor derselben Wahl: Handlungsfähigkeit verlieren, indem sie die KI-Nutzung der Studierenden nur überwachen; oder Handlungsfähigkeit gewinnen, indem sie innovative Leistungsnachweise gestalten, die Reflexion, Bewertung und kritisches Denken erfordern.

  • Was passiert mit dem Denken, wenn wir uns zu sehr auf KI verlassen?

Das Haupt­risiko ist das, was manche als kognitive Atrophie oder «Brain Drain» bezeichnen (Guest et al. 2025): Wenn wir zu viel geistige Anstrengung auslagern, schrumpft unsere Fähigkeit zum tiefgreifenden Denken.

  • Kognitives Auslagern kann Arbeitsgedächtnis für höheres Denken frei machen, aber übermässige Nutzung schwächt das Gedächtnis und die Argumentationsfähigkeit (Oakley et al. 2025).
  • Produktive Anstrengung ist entscheidend: Lernen braucht Herausforderung und Anstrengung mit passender Unterstützung (Hattie et al. 2023). Wenn KI dies wegnimmt, verlieren Studierende Resilienz und kritische Fähigkeiten.

Guest et al. 2025 zeigen, dass KI zwar das Abstraktionsniveau erhöhen, aber die Anstrengung und die Denktiefe verringern kann. Expertinnen können vom KI-Gebrauch profitieren, um Aufgaben zu «segmentieren», aber Novizen laufen Gefahr laufen, von den KI-Tools abhängig zu werden. Dies kann Ungleichheiten vergrössern zwischen intellektuell selbstbewussten Studierenden, die KI nutzen, um Grenzen auszuloten, und jenen, die KI die Arbeit erledigen lassen.

  • Wie schützen wir die menschliche Handlungsfähigkeit im Zeitalter der KI?

Das grösste Risiko ist übermässiges Vertrauen: Wer sich blind auf KI verlässt, verliert am meisten an epistemischer Unabhängigkeit. Und je besser die KI-Systeme werden, desto mehr wächst die die Versuchung, ihnen alles zu überlassen. Die menschliche Handlungsfähigkeit zu schützen bedeutet:

  • Skepsis fördern: Studierende darin unterrichten, KI-Ausgaben zu hinterfragen.
  • Zum Nachdenken anregen: Aufgaben entwickeln, die Bewertung, Urteilsvermögen und Reflexion erfordern.
  • Unabhängigkeit bewahren: Raum schaffen für die Anstrengung, die Wissen, Resilienz und kritische Fähigkeiten aufbaut.

KI wird bleiben, und wir sollten sie nicht unkritisch einsetzen. Stattdessen können wir sie als Chance betrachten. Die Herausforderung besteht darin, akademische Integrität umfassend zu fördern. Das bedeutet, Studierende als fähige Lernende, Lehrer als vertrauenswürdige Fachleute und Institutionen als fürsorgliche Gemeinschaften zu betrachten.

Wenn wir epistemische Handlungsfähigkeit in unsere Curricula integrieren, kann KI zu einem Werkzeug für Wachstum werden, das Studierenden hilft, Lernfähigkeit, Verantwortungsbewusstsein und höheres Denken zu entwickeln, anstatt eine Abkürzung zu oberflächlichen Antworten zu sein.

Action: Zukunft gestalten

Während Awareness unterliegende Annahmen sichtbar macht und Agency die Fähigkeit zu kritischem Denken schützt, muss Action akademische Integrität im grossen Stil neu gestalten. Auf die Frage «Welche wissenschaftlichen Wege gibt es, um akademische Integrität zu gestalten?» gibt es keine einfache Antwort, aber ich schlage drei Handlungsfelder vor: Didaktik/Pädagogik, Governance und Gemeinschaftsbildung. Dies sind Themen, die wir in den kommenden Monaten in verschiedenen Veranstaltungen näher erkunden werden (siehe Infobox ).

Pädagogik

  • Prüfungen neu gestalten: Prozessorientierte Formate einbeziehen (Reflexionen, Versionsverläufe, Journale, Portfolios oder mündliche Erklärungen, die das Denken sichtbar machen – nicht nur Endprodukte).
  • Autorschaft neu definieren: Studierende auffordern, ihre KI-Nutzung zu dokumentieren und zu reflektieren, wie diese ihr Denken und ihre Arbeit beeinflusst hat – und warum.
  • Transparenz fördern: Klar kommunizieren, wann und wie KI genutzt werden darf.
  • KI-Kompetenz fördern: Grundlagen der KI lehren, einschließlich Datenschutz, kritischer Bewertung und ethischer Nutzung.
  • Epistemische Kompetenz prüfen: Können Studierende begründen, wann und warum sie KI genutzt (oder nicht genutzt) haben?

Governance

Wie in der Studie (Feixas, 2025) erwähnt:

  • Richtlinien müssen klar festlegen, wann KI genutzt werden darf, wie ihre Nutzung dokumentiert werden soll und wann sie ausgeschlossen werden muss, um Lernen und echte Leistung zu schützen.
  • Über blosse Regelkonformität hinausgehen: Nicht nur auflisten, was «erlaubt» oder «verboten» ist, sondern:
    • klare Werte wie Ehrlichkeit, Fairness und Vertrauen formulieren.
    • Studierende als verantwortliche Akteure sehen: nicht nur als potenzielle Betrüger:innen, sondern als Partner:innen bei der Gestaltung von Integrität.
    • Lehrende stärken: durch Weiterbildung, Infrastruktur und Zeit, um mit neuen Prüfungsformaten zu experimentieren.
  • Prüfungen ins Zentrum stellen: denn dort ist Integrität am folgenreichsten – sie entscheidet über Anerkennung, Noten und Chancen.
  • Klare Rahmen vorgeben, wann KI erlaubt, angeleitet oder ausgeschlossen ist (z. B. das University of Sydney’s two-lane model oder die AIAS Assessment Scale).
  • Handlungsfähigkeit von Lehrenden und Studierenden stärken – mit KI-Kompetenz, Weiterbildung und geeigneter Infrastruktur.

Community-Building

Integrität entsteht, wenn Allianzen aufgebaut werden, die sich von Pilotprojekten im Unterricht bis hin zu institutionellen Strategien skalieren lassen:

  • Dialog und geteilte Verantwortung zwischen Dozierenden, Studierenden und der Verwaltung fördern.
  • Gute Praktiken und Pilotprojekte teilen, die Integrität stärken.
  • Kritische Diskussionen anregen über Macht, Ethik und die Rolle von KI in der Wissensproduktion.
INFOBOX

- Kurztagung Assessment und KI: Gemeinsam praktische Formate erkunden (PH Zürich, 20. November 2025). Experimentelles, praxisnahes Format mit offenen Dialogen und Co-Creation.

- Fostering Epistemic Agency in Higher Education: Why and How? Kostenloses Webinar der Forschungsgruppe empirische Hochschuldidaktik mit Dr. Juuso Nieminen (Deakin University, Australien), 4. November 2025

- The ICED26 Conference «Agency and Academic Development» (Salamanca, 24.-26. Juni 2026). Die internationale Konferenz für Hochschuldidaktiker und Hochschulentwicklerinnen, aber auch für Hochschulforschende und Führungskräfte. Dieses Mal erkunden wir, wie Handlungsfähigkeit Wissen, Strategie und studentisches Lernen an Hochschulen prägt: Wie können Hochschuldidaktik und Hochschulentwicklung in einer sich schnell verändernden Hochschullandschaft die Handlungsfähigkeit der Studierenden und Lehrenden fördern?

Zur Autorin

Mònica Feixas ist Dozentin im Zentrum für Hochschuldidaktik und -entwicklung der PH Zürich. Sie ist ausserdem die Kongressleiterin (Convenor) der ICED-Konferenz (International Consortium for Educational Development), die vom 24. bis 26. Juni 2026 in Salamanca (Spanien) stattfinden wird.

Übersetzt ins Deutsche durch Tobias Zimmermann.

Als der Roboter laufen lernte

Text von Charlotte Axelsson

In China jagen humanoide Roboter einem Halbmarathon hinterher und an der ZHAW spaziert der Unitree G1 durchs Gebäude und sorgt für Aufsehen. Roboter sind längst nicht mehr nur futuristische Ideen, sondern Teil unseres Alltags – als Haushaltshelfer, KI-Influencer oder Bildungs-Bots. Doch was steht als Nächstes auf der Agenda der Robotik? Ich gebe einen kompakten Einblick in die rasante Entwicklung dieser Technologie, beleuchte die Kunst als Experimentierfeld und teile persönliche Erfahrungen aus der Roboterkunst.

Was ist ein Roboter?

Ein Roboter ist technisch eine sensomotorische Maschine: Er nimmt seine Umwelt über Sensoren wahr, verarbeitet Informationen mithilfe eines Rechners und reagiert über mechanische Komponenten. Oliver Bendel, Autor von Soziale Roboter, beschreibt Roboter als selbstständig handelnde Systeme, die menschliche Aufgaben übernehmen und unsere Handlungsfähigkeit erweitern. Er unterscheidet Industrie-, Service-, Weltraum- und Kampfroboter sowie Softwareroboter wie Chat-GPT oder Crawler.

Mit der Weiterentwicklung von KI, insbesondere Large Language Models (LLMs), ist die Verständigung zwischen Mensch und Maschine einfacher, schneller – und vor allem günstiger – geworden. Verbesserte Sensorik und Beweglichkeit machen Roboter zugleich autonomer und agiler. Spürbar ist der Wettlauf zwischen den USA und China: Wer bringt den ersten humanoiden Roboter in marktfähiger Stückzahl? China hat 2025 mit dem G1 von Unitree für rund 14’000 Franken vorgelegt. Das erinnert an die Mondlandung: Wer ist zuerst da?

Kunst als Labor

Um das Thema nicht nur technisch zu betrachten, streife ich durch Kunst- und Kulturwelten – ideale Orte zum Experimentieren, Spielen und kritischen Hinterfragen. Deswegen besuche ich regelmässig Independent-Veranstaltungen und Ausstellungen, in denen – ohne kommerziellen Druck – Überraschendes entsteht. Dort wird das Thema emotional und nahbar; ich kann analog reflektieren und mit Künstler:innen sprechen. Nachfolgend drei Einblicke: die Performance AcRobotics am Robotival, eine Fotoinstallation an der Vernissage Terms of Exposure sowie die Performance Friendly Fire at the Shrink.

Performance AcRobotics von Daniel Simu (Foto: Charlotte Axelsson)

Robotival: Wo Robotik auf Kunst prallt

Im Mai war ich auf dem Robotival im Zürcher Dynamo: ein Festival, bei dem Robotik auf Kunst und Forschung auf Alltag trifft – so die Veranstalter. Besonders beeindruckte mich die Performance von Daniel Simu, einem niederländischen Künstler mit Akrobatik-Hintergrund. Im Gespräch betonte Simu, wie wichtig es ihm sei, Roboter als technische Werkzeuge zu sehen – und zugleich als Spiegel unserer Vorstellungen von Körper, Kontrolle und Kreativität. Eine Verlängerung unseres Ichs. Seine Analogie: Ein Stuhl, auf den ich mich setze, verlängert mich – und der Stuhl fühlt nichts.

Mit einer kleineren Version seines Akrobatik-Roboters besucht Simu Schulklassen, erzählt er mir. Im Klassenzimmer klärt er zuerst immer die gleichen Fragen: Warum hat der Roboter keinen Kopf? Warum wirkt er trotzdem menschlich? Kann er traurig sein? Tut es ihm weh, wenn er fällt? Dann greift Simu zu seiner Stuhl-Analogie: Wir geben immer Emotionen in die Maschine – nie die Maschine in uns. Ein Stuhl hat auch keinen Kopf, verlängert uns aber dennoch.

Trotz dieser guten Erklärung: Für mich hatte die Performance AcRobotics einen klaren «Jö-Faktor». Offenbar bin ich nicht gefeit vor Anthropomorphisierung, der Vermenschlichung von Dingen.

Installation Terms of Exposure von Raphaela Pichler (Foto: Charlotte Axelsson)

Bots als Manipulator

Etwas später im Mai war ich bei Raphaela Pichler auf der Vernissage Terms of Exposure. Dort begegnete ich einer Installation: aussen eine verspiegelte Fotobox, innen ein Bot, der Identitäten verwebt – ungewohnt und wunderbar philosophisch. Pichler meint: Die Maschine liegt zwischen Eingabe und Ausgabe, zwischen Nähe und Verfremdung – und sie zerfasert Identität. Sie spricht mit mir und fragt: Bin das ich – oder der Algorithmus in meinem Gesicht? Am nächsten Tag, als ich die Fotos auf meinem Handy anschaue, frage ich mich tatsächlich: Sehe ich noch mich – oder bereits eine algorithmisch veränderte Version?

Therapie mit dem Chatbot

Etwas später liess ich mich in der Performance Friendly Fire at the Shrink – einer Chatbot-Therapiesoftware von Manuel Hendry – acht Minuten «therapieren». Irritiert, keineswegs mit «Jö-Effekt», verliess ich den Raum. Mit Hendry reflektierte ich danach: Was bleibt? Die Einsicht, dass nicht die Maschine entscheidet, sondern wir. Wer übernimmt Verantwortung – Staat, Big Tech, Gesellschaft? Und wie verhindern wir, dass Technik uns bevormundet, statt uns zu unterstützen?

Wandel statt Wettlauf

Ich fasse zusammen: Robotik ist kein Wettlauf um Marktanteile, sondern löst einen gesellschaftlichen Wandel aus. In künstlerischen Kontexten wird Robotik zum Resonanzraum, in dem wir Technik emotional begreifen, experimentieren, diskutieren und Verantwortung aushandeln. Dabei bleibt Technik Werkzeug und nicht Subjekt: Denn Roboter erweitern unsere Handlungsmöglichkeiten, doch Gefühle und Verantwortung sind und bleiben menschlich. Deshalb braucht es gesellschaftliche Auseinandersetzung – der Wandel wird nicht von Konzernen allein vorangetrieben.

INFOBOX

Beratung oder regelmässige Inputs zum Thema Roboter in der Lehre gibt's im Zentrum Digital Learning.

In diesem Interview spricht Charlotte Axelsson und anderem über Lernroboter.

Im Museum für Gestaltung können Sie sich in der Ausstellung Museum of the Future – 17 digitale Experimente vom 29. August 2025 bis 1. Februar 2026 inspirieren lassen.

Weitere Literaturtipps zum Thema

- Oliver Bendel: 300 Keywords Generative KI
- Kate Crawford: Atlas der KI
- Charlotte Axelsson: Tender Digitality
- Kazuo Ishiguro: Klara und die Sonne

Zur Autorin

Lernen oder überspringen? Wie generative KI Lernwiderstände verstärken kann

Text: Stefanie Dernbach-Stolz und Dominic Hassler

In der (zunehmend digitalen) Bildungswelt scheint Effizienz das oberste Ziel zu sein: Inhalte werden komprimiert, Lernpfade automatisiert und ganze Fähigkeiten per «Skill Skipping» übersprungen. Warum werden beim Lernen Abkürzungen genommen? Wie entwickeln sich Lernwiderstände? Und was hat das mit generativer KI zu tun?  

Menschen neigen laut der «Cognitive Miser Theory» dazu, kognitiven Aufwand zu vermeiden (Fiske & Taylor 2013). Lernende haben das schon früher getan – etwa durch Abschreiben. Mit KI-Tools wie Chat-GPT ist das heutzutage einfacher denn je.

Heute können wir in vielen Schulzimmern und Weiterbildungskursen beobachten, dass Lernende Aufgaben direkt mit Chat-GPT lösen. Nuxoll (2024) nennt das «Skill Skipping»: Es wird ein Resultat abgegeben, aber kein Lernprozess durchlaufen. Doch Lernen entsteht nicht durch richtige Antworten, sondern durch eigenständiges Denken.

Es entbehrt nicht einer gewissen Ironie, dass Aufgaben so zu lösen als kompetenzorientiert ausgelegt werden kann. Tatsächlich dürfte es in vielen beruflichen Situationen sinnvoll sein, Aufgaben wie bspw. das Verfassen einer E-Mail mit einem KI-Sprachmodell zu erledigen. Trotzdem ist es in einem Bildungssetting nicht zielführend das zu tun, da das Schreiben (und damit verbunden auch das Lesen) weniger effektiv erworben wird.

Eine Metapher hilft uns, dies zu verdeutlichen: Es ist allen klar, wie absurd es wäre, einen Roboter ins Fitnesscenter zu schicken, wenn man seinen Körper trainieren möchte. Weniger offensichtlich, aber genau gleich absurd sollte es sein, in Bildungskontexten eine Lernaufgabe mit Chat-GPT zu lösen. Denn Bildungsinstitutionen sind die Fitnesscenter für das Gehirn. Wenn man nicht hingeht und die grauen Zellen bei den Übungen selbst anstrengt, gibt es keinen Trainingseffekt bzw. Lernzuwachs.

Zwei Roboter trainieren im Fitnesscenter. Quelle: leonardo.ai

Betrachtet man das «Skill Skipping» aus der Perspektive des Lernwiderstandes, stellt sich die Frage, warum Lernen nicht positiv konnotiert ist. Häufig wird das Lernen in Bildungskontexten als Zumutung wahrgenommen, was Widerstände und Vermeidungsstrategien erzeugt (man denke da nur an die eigene Schulzeit zurück). Dabei ist es ein zentrales Ziel von Lehrpersonen, Dozierenden und Erwachsenenbildner:innen, gelingendes oder erfolgreiches Lernen zu ermöglichen. Entsprechend stellt sich die Frage, wie und warum Lernwiderstände entstehen. Gemäss der subjektwissenschaftlichen Lerntheorie entstehen Lernwiderstände dann, wenn die Lernenden keinen subjektiven Sinn in einer Lernsituationen erkennen können oder sich gezwungen fühlen zu lernen – ohne dass es ihnen einen persönlichen Nutzen erbringt. Dies führt dazu, dass sie sich verweigern, unmotiviert sind oder nur oberflächlich lernen (Holzkamp 1993). Dabei kann man zwischen zwei grundlegenden Lernformen unterscheiden:

(Abb. 2. Quelle: Foucault 1993)

Defensives Lernen: Bei dieser Form findet Lernen unter Druck oder Zwang statt. Die Lernenden lernen, weil sie lernen müssen, um etwa eine Prüfung zu bestehen oder um Sanktionen zu vermeiden. Bildlich überspitzt kann man dies in der Grafik (Abb. 2) sehen, die eine Gefängnisszene darstellt, bei der die Insassen einem Vortrag zu den Folgen von Alkoholismus zuhören müssen. Bei dieser Form des Lernens entstehen häufig Lernwiderstände, da das Lernen nicht aus innerem Antrieb stattfindet. Expansives Lernen: Bei dieser Form geschieht Lernen aus eigenem Interesse und zur Erweiterung der eigenen Handlungsmöglichkeiten. Dadurch wird das Lernen als sinnvoll erlebt, weil es in einem Zusammenhang mit den eigenen Zielen, Interessen und Lebenszusammenhängen steht. In solchen Fällen treten kaum Lernwiderstände auf. (Holzkamp 1993)

Die Unterscheidung dieser zwei Lernformen ist für die Erklärung von Lernwiderständen wesentlich. Dennoch lassen sich Lernwiderstände nicht allein durch das Anwenden von expansiven Lernformen auflösen.

Einerseits sind die Gründe und Ursachen für Lernwiderstände vielfältig. Dazu gehören u.a. die fehlende Relevanz des Lerngegenstandes oder der mangelnde praktische Nutzen, bestehende (Bildungs-) Erfahrungen und Einstellungen und Wertehaltungen als auch die persönliche Lebenssituation (soziale Herkunft, Alter, Familie, etc.) die dem Lernen im Wege stehen können (Faulstich/Grell 2004).

Andererseits lassen sich Prüfungen o.ä. nicht immer umgehen. Die effizienzorientierte bzw. defensive Lernperspektive betont jedoch vor allem Standardisierung, Vergleichbarkeit und Messbarkeit. Das widerspricht expansivem Lernen. Wenn Aufgaben oder Lernpfade zu weit von der Lebenswelt der Lernenden entfernt sind und nicht als bedeutsam erlebt werden, reagieren diese oft defensiv – etwa mit automatisiertem Durchklicken oder KI-Nutzung. In diesem Fall setzen die Lernenden sich nicht tiefergehend mit Inhalten auseinander und haben keine Möglichkeit, eigene Lerninteressen zu verfolgen oder eigene Fragen zu entwickeln. Dies führt dazu, dass Lernen noch stärker als fremdbestimmt erlebt wird, was noch mehr Lernwiderstände auslösen kann. Ein Teufelskreis.

Was können Lehrende tun? – Anregungen zum expansiven Lernen

KI kann selbstgesteuertes Lernen untergraben. Sinnstiftendes Lernen braucht Zeit und Subjektivität – nicht nur Technik. Zentral ist, dass Lehrende unreflektierte Anwendungen von KI erkennen und handeln. Hier einige Anregungen:

Mit den Lernenden über das Lernen sprechen. Dadurch entstehen Reflexionsräume, in denen ein Bewusstsein geschaffen werden kann, wodurch die subjektive Relevanz gestärkt wird. Das braucht Zeit für Fragen, Irritationen und Selbstverortung. Und die Lehrenden erhalten ein besseres Verständnis für den Ursprung der Lernwiderstände, was sie wiederum handlungsfähig macht. Naheliegend wäre etwa die Lernenden in Gruppen über das Bild der beiden Roboter (Sie dürfen es gerne verwenden) diskutieren zu lassen und dabei gleich Transparenz zu schaffen: «Sie können (fast) alle Aufgaben im Unterricht mit KI lösen. Wollen Sie das – und warum?». So wird das Bewusstsein für den Lernprozess gefördert.

Von der Kultur des richtigen Resultats zur Kultur des Lernprozesses. Wenn Lehrende dem richtigen Resultat eine hohe Bedeutung zumessen, bspw. indem sie nur die Lösungen der Lernenden auf Richtigkeit kontrollieren, geben sie den Lernenden unbewusst einen Anreiz, KI für all diese Aufgaben zu nutzen. Stattdessen ist es zielführender, ein Bewusstsein dafür zu schaffen, dass ein richtiges, KI-generiertes Resultat für das Lernen weitestgehend wertlos ist. Der Weg zum Resultat, also der Lernprozess, ist zentral, ebenso die dabei gemachten Fehler. Aus diesen lässt es sich hervorragend Lernen. Bewertungen dokumentieren in diesem Sinne die Lernfortschritte und nicht das Resultat. Für manche Lehrende ist das ein grosser, aber essenzieller Kulturwandel.

Abb. 3
(Quelle: LinkedIn)

Verantwortung an Lernende übergeben. Viele Lehrende möchten nicht ständig mit dem Zeigefinger darauf hinweisen, dass die Lernenden keine KI für das Lösen der Aufgaben verwenden sollen. Zudem gibt es manchmal durchaus Aufgaben, bei denen KI-Unterstützung hilfreich sein kann. Folgende Idee stammt von Tobias Seidl: Aufgaben, bei denen es zur Erreichung der Lernziele wichtig ist, dass zunächst selbst nachgedacht wird, werden mit einem Warnhinweis markiert (Abb. 3). Dadurch können Lehrende sich dem traditionellen Katz-und-Maus-Spiel entziehen. Die Lernenden fühlen sich ernst genommen und die Verantwortung für ihr Lernen und den KI-Einsatz geht subtil auf sie über.

Wenn Bildungsinstitutionen als «Fitnesscenter für das Gehirn» verstanden werden, darf der «Trainings»lernprozess nicht ausgelagert oder automatisiert werden. Gerade in einer von KI geprägten Welt ist es entscheidend, dass Lernende selbst denken, reflektieren und ihre Handlungsmöglichkeiten erweitern. Lehrpersonen und Bildungsverantwortliche sind deshalb gefordert, Lernsettings so zu gestalten, dass sie expansive Lernprozesse ermöglichen, statt defensive Vermeidungsstrategien befördern.

INFOBOX

Lehrgänge

In den folgenden Lehrgängen können Sie sich vertieft mit der Gestaltung von Lernprozessen in einer von KI geprägten Welt auseinandersetzen:
- CAS Unterricht gestalten mit digitalen Medien, ab 13. Januar 2026
- CAS Weiterbildungsdesign, ab 4. Februar 2026

Module

Die folgenden Module können einzeln gebucht und als Wahlmodul in verschiedenen CAS-Lehrgängen angerechnet werden:
- Lernen und Lehren mit künstlicher Intelligenz (KI), ab 19. August 2025
- Lernen und Weiterbildungsteilnahme Erwachsener, ab 3. März 2026

Zu den Autor:innen

Stefanie Dernbach-Stolz ist Dozentin an der PH Zürich und arbeitet im Zentrum Berufs- und Erwachsenenbildung. Sie ist Leiterin des CAS Weiterbildungsdesign.

A machine in need is a friend indeed? – Zu viel Vertrauen in KIs durch Vermenschlichung

Text: Yves Furer

Wenn Dinge misslingen, neigen Menschen dazu, nichtmenschlichen Objekten wie Maschinen menschliche Eigenschaften zuzuschreiben. So scheint der Drucker persönlich etwas gegen mich zu haben, weil er immer dann nicht funktioniert, wenn ich ihn dringend brauche. In die Maschine wird ein Wille hineininterpretiert, wo keine Intention vorhanden ist. Solche Vermenschlichung oder Anthropomorphisierung hilft uns, Situationen zu bewältigen, in denen wir uns externen Faktoren ausgeliefert fühlen.

Ist mir der Drucker heute gut gesinnt oder nicht? (Bild: Adobe Stock)

Im Gegensatz zu Druckern, die weder aussehen wie Menschen noch bedeutungsvoll mit Menschen interagieren, sind moderne KI-Systeme genau dafür designt, menschlich zu wirken. Bei Chat-GPT und Co. stellt die Anthropomorphisierung ein Feature und kein Zufall dar. Der Erfolg grosser Technologiekonzerne beim Vorantreiben dieser Entwicklung wird sichtbar, indem es immer schwieriger wird, menschliche Äusserungen von KI-generierten zu unterscheiden. Im schriftlichen Dialog mit Chat-GPT-4 können offenbar viele Menschen nicht mehr mit Sicherheit sagen, ob sie sich gerade mit einem Menschen oder einer Maschine unterhalten (Mei et al. 2024). Doch wirken die Antworten von KI-Chatbots nicht nur deshalb menschlich, weil sie inhaltlich passend ausfallen, sondern KI-Chatbots beantworten beispielsweise medizinische Fragen in einem Online-Forum auch empathischer als medizinisches Fachpersonal (Ayers et al. 2023).

Auffällig ist, wie scheinbar mühelos menschliche Eigenschaften auf die KI übertragen werden, indem entsprechende Begrifflichkeiten verwendet werden. Schon der Begriff künstliche Intelligenz suggeriert, dass eine Entität vorliegt, die eine menschliche Eigenschaft, nämlich Intelligenz besitzt. Doch es stellt sich die Frage, ob KIs wirklich empathisch sind oder uns Menschen nur sehr gut vorspielen, dass sie es sind. Wären KIs empathisch, müssten sie die Gefühle von Menschen erkennen, verstehen und nachempfinden können. Während das Erkennen von Emotion durchaus funktioniert und wohl auch schon kommerziell genutzt wird (Monteith et al. 2022), dürften Verstehen und insbesondere das Nachempfinden Kategorien sein, über die die KIs noch nicht verfügen.

Die KI versteht dich. Oder doch nicht? (Quelle: Adobe Stock)

Vertrauen in KI: Ein zweischneidiges Schwert

Wie sich zeigt, bleibt es nicht ohne Folgen, wenn KIs menschliche Eigenschaften zugeschrieben werden, die sie gar nicht besitzen. Anthropomorphe Elemente scheinen das Vertrauen von Menschen in KIs zu erhöhen. Leider handelt es sich beim Vertrauen um ein zweischneidiges Schwert. Ein höheres Vertrauen kann den Umgang mit neuen Technologien erleichtern oder sogar dazu führen, dass sich Personen überhaupt auf eine neue Technologie einlassen. Andererseits besteht beispielsweise die Gefahr, dass Menschen in der Interaktion mit der KI zu viele, auch private Daten von sich preisgeben (Akbulut et al. 2024). Doch auch beim Lernen mit KI-Systemen können weitere Probleme entstehen, wenn insbesondere den KI-generierten Outputs zu viel Vertrauen entgegengebracht wird.

Mehr Vertrauen = weniger nachprüfen?

Bekanntlich liegt die KI sehr häufig richtig, wenn sie mit konkreten Fragen konfrontiert wird, jedoch nicht immer. Insbesondere beim wissenschaftlichen Lernen und Arbeiten ist es essenziell, genau diese Fehler zu erkennen. Das gezielte Prüfen von Informationen stellt allerdings einen aufwändigen und anstrengenden Prozess dar. Ein zu hohes Vertrauen in KI-generierten Output könnte sowohl dazu führen, dass die Notwendigkeit, Inhalte zu prüfen, zu wenig erkannt oder Prüfungsprozesse nicht bis zum Ende durchgehalten werden, weil die Motivation dazu fehlt. Wahrscheinlich mangelt es an Bereitschaft zur kritischen Auseinandersetzung mit KI-Antworten, wenn die KI nicht als Maschine oder Tool angesehen wird, sondern als quasi menschliche Partner:in oder Tutor:in. Schliesslich war die KI doch so nett, mir lange und ausführlich meine Fragen zu beantworten, mir passende Quellen zu suchen und zusammenzufassen und dann erst noch meinen Text zu korrigieren. Wer so viele Freundschaftsdienste für mich erbracht hat, hat doch mein Vertrauen verdient?

Maschinen bleiben Maschinen

Wie schon erwähnt, werden die Technologiekonzerne weiterhin mit viel Geld daran arbeiten, KIs noch menschlicher wirken zu lassen. Auf diese Entwicklung können die wenigsten direkt Einfluss nehmen. Unmittelbar beeinflussen können wahrscheinlich viele Leser:innen dieses Blogs jedoch, wie ihre Studierenden mit KI arbeiten. Selbst wenn die Studierenden KIs häufig auch ohne das Wissen der Dozierenden einsetzen, besteht trotzdem die Möglichkeit, das Lernen mit KI direkt zu thematisieren. KI-generierten Inhalten mit einer gewissen Skepsis zu begegnen, stellt dabei nur einen Ausgangspunkt dar. Dennoch erscheint es wichtig, genau diesen Ausgangspunkt herzustellen, um weitere Schritte wie Überprüfen, Auswählen, Integrieren und Kombinieren von Inhalten und damit Lernen zu ermöglichen. Und schliesslich haben wir alle die Möglichkeit, uns zu hinterfragen, welche Begriffe wir im Kontext von KIs verwenden und wie stark diese Begriffe eine Vermenschlichung implizieren. Denn Maschinen bleiben vorerst Maschinen und keine Freund:innen.

INFOBOX

WORKSHOP
Nachricht an Chat-GPT: Gib mir Feedback auf meinen Text, Montag, 14. April 2025, 12.15–13.30 Uhr, Campus PH Zürich

MODUL
Schreiben begleiten und beurteilen, ab 16. März 2026, Campus PH Zürich

LITERATUR
- Placani, Adriana (2024): Anthropomorphism in AI: hype and fallacy. In: AI and Ethics 4 (3), 691–698.
- Reinecke, Madeline G. / Ting, Fransisca / Savulescu, Julian / Singh, Ilina (2025): The Double-Edged Sword of Anthropomorphism in LLMs. In: Proceedings 114 (1), 4.

Zum Autor

Yves Furer ist Dozent für Deutschdidaktik und Mitarbeiter des Schreibzentrums der PH Zürich.

Vom KI-Fastfood zum sinnhaften Einsatz

Text: Charlotte Axelsson

Vor Kurzem wurde ich gefragt, ob ich Angst vor den rasanten technologischen Entwicklungen habe. Meine Antwort lautete: ein klares Jein. Die Technologie selbst macht mir keine Angst – im Gegenteil, sie fasziniert mich. Ich werde zum Homo Ludens, mein Spieltrieb kennt kaum Grenzen. Was mir Sorgen bereitet, ist der Mensch, der diese Technologien nutzt, steuert oder weiterentwickelt – oft ohne sich der Verantwortung für deren Auswirkungen bewusst zu sein. Diese Sorge hat mich dazu gebracht, intensiver über Ethik in der Bildung nachzudenken, zum Beispiel am PHZH Barcamp «Assessment im Wandel – KI-basierte Ansätze für Beurteilung und Feedback» oder als Co-Herausgeberin der neuen Open-Access-Publikation «Ich, Wir & Digitalität, Ethik in der Lehre». Für mich ist klar: Eine ethisch fundierte Lehre ist der Schlüssel für einen sinnhaften Einsatz von Technologie. Ganz im Sinne des Buchtitels: «ICH steht für die persönliche Reflexion, WIR für das Miteinander und DIGITALITÄT beschreibt den kulturellen Wandel, der durch technologische Innovationen entsteht», lässt sich dieser Dreiklang auch im Dagstuhl-Dreieck (Figur 1) als technologische, gesellschaftliche, kulturelle und anwenderbezogene Perspektive beschreiben. Solche Modelle ermöglichen es auch, die eigene Lehre zu überprüfen und fehlende Perspektiven zu integrieren.

Figur 1: Dagstuhl Dreieck in «Ich, Wir & Digitalität, Ethik in der Lehre»

Bildung vermittelt nicht nur Wissen, das ist ebenfalls klar und wurde zum Beispiel durch Peter Holzwarth in «Sind Menschen die besseren Roboter? Ethische Fragen zur Digitalisierung» beschrieben, sondern auch die grundlegenden Werte einer Gesellschaft – ein essenzielles Element für deren Zusammenhalt und Funktionieren. Doch wie verändert der technologische Fortschritt unsere Zusammenarbeitsformen und das Beurteilen von Leistungen? Warum ist es besonders wichtig, im digitalen Zeitalter über Ethik zu sprechen? Im Folgenden habe ich zwei wichtige Gründe zusammengetragen, die die Wichtigkeit einer tiefgründigen Auseinandersetzung für uns Menschen unterstreichen sollen. Folgend gebe ich Einblicke in die Diskussion des Barcamps mit der Anwenderperspektive «Ethik und gesellschaftlichen Implikationen von KI im Assessment von Leistungen».

Erster Grund ist omnipräsentes Wissen: Technologien wie die Suchmaschine von Google oder Wikipedia machen Wissen allgegenwärtig und leicht zugänglich. Generative Technologien – etwa ChatGPT von OpenAI – ermöglichen es zudem, Wissen neu zu kombinieren und zu generieren. So stellt der technologische Wandel traditionelle Konzepte von Wissen und dessen Bewertung infrage und verlangt nach neuen Ansätzen. Wie überprüfen wir Leistungen, wenn man auf einen Klick ganze Hausarbeiten von einer Maschine generieren lassen kann?

Zweiter Grund sind intransparente Machtstrukturen: Unternehmen wie Google, Microsoft oder OpenAI kontrollieren zentrale Plattformen und Technologien und verfolgen in erster Linie ihre wirtschaftlichen Interessen. Dadurch entstehen gefährliche Abhängigkeiten, die Bildungseinrichtungen, Gesellschaften und sogar Staaten in ihrer Autonomie einschränken. Ein zentrales Problem ist die Intransparenz der Algorithmen: Sie steuern, welche Informationen priorisiert oder generiert werden, und beeinflussen dadurch, was wir sehen, lesen und lernen. Dies schafft eine neue Wissenshierarchie. Damit wird Wissen nicht mehr neutral verteilt, sondern von wenigen Akteuren gelenkt. Um dieser Entwicklung entgegenzuwirken, braucht es unabhängige Alternativen und eine breite gesellschaftliche Debatte. Gerade Pädagogische Hochschulen müssen eine Vorreiterrolle übernehmen, indem sie kritische Medienkompetenz fördern und sich aktiv mit diesen ethischen Fragen auseinandersetzen.

Ethik in der Lehre – Diskussionen aus dem Barcamp 

Die Herausforderungen werden besonders deutlich, wenn man diese beiden Gründe auf konkrete Bereiche im Bildungswesen anwendet. Beim Barcamp «Assessment im Wandel – KI-basierte Ansätze für Beurteilung und Feedback» haben wir uns in einem Track mit «Ethik und gesellschaftlichen Implikationen von KI im Assessment von Leistungen» beschäftigt.

Die Diskussionen zeigten schnell, dass Bildung und vor allem Prüfungen nicht nur der Vermittlung und dem Abfragen von Wissen dienen, sondern auch kulturelle, soziale und persönliche Entwicklung umfassen. In der Diskussion haben wir uns um zwei Statements gedreht: Mensch, sei du selbst der Wandel – Technologie sollte sinnstiftend eingesetzt werden – nicht allein aus Effizienzgründen. Oder mit Play, Qualität fördern! rufen die Teilnehmenden das spielerische Konzept «Slow AI» auf, welches auf Reflexion, Neugierde und Entschleunigen setzt und eine Art Gegenbewegung zu Fastfood (KI-)Wissen darstellt.

Des Weiteren wurde die Frage, ob KI in der Lage ist, Sinn oder individuelle Werte in die Beurteilung einfliessen zu lassen, kontrovers diskutiert. Transdisziplinäres Lernen und alternative Beurteilungskulturen – weg von starren Konzepten von «richtig» und «falsch» hin zu mehr Kreativität – könnten dabei eine Schlüsselrolle spielen. Hier ist Austauschen und Voneinander-Lernen gefragt. Und über eines sind sich alle einig gewesen: Traditionelle Prüfungen, die lediglich Wissen abfragen, waren noch nie und sind einfach nicht mehr haltbar.

Barcamp 2024

Fazit und Ausblick 

Zum Schluss gibt die Disziplin Ethik in der Regel wenig Antworten – Ethik bietet Denkräume. Diese «Safe Spaces» müssen wir im Bildungswesen schaffen, in denen wir erforschen, entwickeln und vermitteln können – basierend auf Werten wie Menschlichkeit, Sinnhaftigkeit und Verantwortung. Denn nur, wenn wir Technologie bewusst und reflektiert einsetzen, können wir sicherstellen, dass der Wandel menschenwürdig ist. 

Das Thema werden wir weiterdiskutieren und laden an dieser Stelle zum nächsten Barcamp «Assessment und KI: Gemeinsam praktische Formate erkunden» am 20. November 2025 ein. Wer bis dahin nicht warten kann, empfehle ich unser kleines Büchlein, darin findet man weitere Fragen und praktische Anwenderbeispiele für den eigenen Unterricht.

INFOBOX

BARCAMP «ASSESSMENT UND KI: GEMEINSAM PRAKTISCHE FORMATE ERKUNDEN»,
20. NOVEMBER 2025 AUF SCHLOSS AU

Interessieren Sie sich für diese Tagung? Gerne können Sie in diesem Formular Ihren Namen und Mailadresse hinterlassen, dann informieren wir Sie, sobald Programm und Anmeldemöglichkeit aufgeschaltet sind.

KURS (PHZH-INTERN)
Ethische Fragen zur KI: Praxisnahe Ansätze für den Unterricht
Dienstag, 8. April, 12.15–13 Uhr, Campus PH Zürich

LITERATUR
Blume, Dana & Axelsson, Charlotte. 2024: Ich, wir & Digitalität, Ethik in der Lehre.

Zur Autorin

Überlegungen zu KI-generiertem Feedback

Text: Jacqueline Egli

«Bitte lesen Sie sich die kommentierte Arbeit in Ruhe durch. Überlegen Sie, ob Sie die Korrekturen nachvollziehen können und ob das schriftliche Feedback für Sie verständlich ist. Bei Unklarheiten wenden Sie sich bitte an mich. Überarbeiten Sie den Text und vertiefen Sie das Thema. Reichen Sie Ihre Arbeit in zwei Wochen erneut ein.»

Diese Situation kennen wohl alle Lehrpersonen: abends oder über das Wochenende viele Texte lesen und Rückmeldungen dazu verfassen. Das braucht Zeit, Geduld und Ausdauer. Besonders, wenn die Weiterentwicklung erneut gelesen und gefeedbackt wird. Wer würde sich da nicht über einen Zauberspruch freuen, der diese Arbeit automatisch erledigt. (Generative) künstliche Intelligenz (KI) kann vieles, aber kann sie auch das? – Ja und Nein.

Lernförderliches Feedback

Das Angebot, Texte oder Projekte bereits während der Erstellung zu sichten und zu besprechen, legt den Fokus auf den Prozess (siehe den Blogbeitrag Über das Potenzial von Online-Feedback von Mònica Feixas und Franziska Zellweger) oder die Handlung und nicht (nur) auf das Endprodukt. Dies ist wichtig, denn Feedback greift u.a. dann, wenn es von der feedbackerhaltenden Person reflektiert und gleich weiterverarbeitet wird. Tobias Zimmermann nennt in seinem Buch Leistungsbeurteilung an Hochschulen lernförderlich gestalten explizit zwei verschiedene Arten von Unterstützung: adaptive (durch Erklärung und Beispiele) und behelfsmässige (durch Erhalten der richtigen Antwort). Lernförderlich ist nur ersteres, da es durch Hilfestellung unterstützt. Dies unterstreicht die aktuelle Studie von Hamsa Bastani «Generative AI can harm learning»: Laut dieser wurden zwar Übungen generell mit Unterstützungen von KI-Bots besser gelöst, aber das Lernen unterstützt haben nur die KI-Tutorsysteme, die – aufgrund der Einstellungen – keine Lösung, sondern lediglich Hinweise auf weitere (Reflexions-)Schritte gaben.

KI-generierte Rückmeldungen

Mehrere KI-Anwendungen bieten neuerdings an, Korrekturen und Feedback zu übernehmen (z.B. ChatGPT, DeepL und Language Tool) Aber wie gut, differenziert und lernförderlich sind diese KI-generierten Rückmeldungen?

Intuitiv werden viele sagen, dass die Rückmeldung eines Menschen wertvoller ist als die einer KI. Denn beim Feedback spielt die Beziehungsebene eine wichtige Rolle, wie u.a. Tobias Zimmermann in seinem Blogbeitrag deutlich macht, und diese ist an Menschen gebunden.

Quelle: Adobe Stock

Studien (Dai et al. 2023 oder Escalante et al. 2023) haben nun beschrieben, dass auch maschinelles Feedback – bei gut erstellten Prompts – lernförderlich sein kann und dass sich bei den Studierenden keine eindeutige Präferenz zeigt, von wem sie die Rückmeldung erhalten möchten. Escalante stellt in seiner Studie «no difference in learning outcomes», also keinen Unterschied bezüglich Lernergebnis zwischen maschinellem und menschlichem Feedback fest. Es stellt sich die Frage, ob die Studierenden sich bewusst sind, dass die KI eine Maschine ist oder ob sie dies manchmal vergessen und die KI als empathisch und verständnisvoll sehen, also vermenschlichen.

Gemäss dieser Studien ist das Feedback der KI positiver (Fokus auf Gelungenes), während das der Lehrperson negativer gepolt ist (Fokus auf Verbesserungswürdiges). Dies ist nicht falsch, denn aus Fehlern lernt man. In der Schule ist es aber auch wichtig, bereits Gelungenes hervorzuheben und daran Weiterentwicklungsmöglichkeiten zu knüpfen (also Stärken zu stärken). Möglicherweise kann KI das Feedback der Lehrperson sinnvoll ergänzen.

Rückmeldungen von GPT wurden von den Studierenden signifikant besser verstanden (Dai et al. 2023). KI generiertes Feedback begann meist mit einer kurzen Zusammenfassung der Arbeit des Lernenden und einem Überblick über die Bewertung, gefolgt von weiteren Ausführungen. Die bessere Verständlichkeit könnte daraus resultieren, dass GPT länger und in vollständigen Sätzen kommentiert, wohingegen Rückmeldungen aus menschlicher Hand eher aus unvollständigen Sätzen, bzw. Satzfragmenten bestehen. Die Verständlichkeit bleibt dabei oft auf der Strecke.

Erfahrungsgemäss tendiert KI-Feedback zur Oberflächlichkeit. Die KI erkennt Details und Besonderheiten von Inhalten oft nicht, insbesondere wenn diese regional differieren, da diese Informationen in ihren Trainingseinheiten wohl nicht vorkamen. ChatGPT liefert daher eher allgemein gehaltenes Feedback. Zudem kann die KI etwas als «gut» rückmelden, auch wenn es inhaltlich falsch ist. Daher ist es wichtig, in der Klasse Falschinformationen und Halluzinationen zu thematisieren.

Mit den Worten von Beat Döbeli in seinem Blogbeitrag: «Konkret: Das Feedback eines GMLS ist derzeit vermutlich schlechter als das einer guten Lehrperson. Das Feedback eines GMLS ist jedoch rascher und öfter verfügbar als das einer Lehrperson.»

Es kann für Lernende auch ein Sicherheitsanker sein, wenn sie eine erste Rückmeldung von einer anonymen und wertungsfreien Instanz erhalten und darauf basierend erste Überarbeitungen vornehmen können, bevor eine Lehrperson (oder Peers) einen Blick darauf werfen.

Lerneffekt?

Wenn es um Rückmeldungen zu Grammatik oder Orthografie geht, kann die KI diese meist problemlos erkennen und korrigieren. Allerdings gibt z.B. ChatGPT keine Erklärungen zu den Optimierungen. Bleiben diese aus, verpufft der Lernerfolg, resp. er muss sich mühsam erarbeitet werden, indem der Ursprungstext mit dem generierten Output verglichen wird, Unterschiede herausgestrichen und verstanden werden. Natürlich kann die KI auch aufgefordert werden, diese Aufgaben zu übernehmen und eine Tabelle mit den häufigsten Fehlern zu erstellen, allenfalls sogar mit einer Erklärung dazu. Aber Hand aufs Herz: wie viele Lernende nehmen diesen Aufwand wohl auf sich, wenn die Lösung direkt erfragt werden kann?

Es ist daher unabdingbar, sowohl das Thema «Lernen» als auch das Thema «Feedback» auf der Meta-Ebene mit den Klassen zu besprechen. Einerseits sollten die Jugendlichen lernen, dass Skill-Skipping (sich also die Lösung geben lassen anstatt sich die Kenntnisse selbst zu erarbeiten) zwar einfach, aber nicht lernförderlich ist. Andererseits sollten sie auch befähigt werden, Feedback zu verstehen und für sich zielführend einzusetzen. Und für diese Diskussion braucht es Menschen mit Empathie, Menschenkenntnis und einem Augenzwinkern.

INFOBOX

Am 20. Mai 2025 findet der halbtägige Kurs (Digitales) Feedback – Lernprozesse sichtbar machen statt.

Im Rahmen des CAS Unterricht gestalten mit digitalen Medien besteht die Möglichkeit, das Modul Lernförderliches Feedback: digital, multimedial oder mit KI zu besuchen. Das Modul ist auch einzeln buchbar.

Zur Autorin

Jacqueline Egli ist Dozentin am Zentrum für Berufs- und Erwachsenenbildung an der PH Zürich. Ihre Themengebiete sind unter anderem die Schul- und Unterrichtsentwicklung mit dem Schwerpunkt auf den digitalen Wandel und Changemanagement und Organisationsentwicklung für Bildungsinstitutionen.

Wissenschaftliches Schreiben – KI als Ghost, Partner oder Tutor

Text: Alex Rickert

Es gibt inzwischen empirische Evidenz dafür, dass Studierende und Schüler:innen mit KI zwar qualitativ bessere Texte schreiben, dadurch aber weniger Lernen in Bezug auf den Gegenstand im Vergleich zum Schreiben ohne KI (Ju 2023; Süße u. Kobert 2023). Es fragt sich daher, inwiefern der Einsatz von KI beim Schreiben zum Zweck des Lernens sinnvoll ist. Auf welche Weise sollen generative Bots beim Schreiben von Texten zum Einsatz kommen, damit sie den Schreibprozess unterstützen und gleichzeitig das Lernen durch Schreiben fördern? Dieser Frage geht der vorliegende Beitrag nach.

KI fürs Fachlernen nutzen – aber wie?

Ausgehend von einer Heuristik nach Steinhoff (2023) wird von drei Rollen ausgegangen, die eine generative KI beim Schreiben als zusätzlicher «Aktant» nebst der schreibenden Person spielen kann. Diese Rollen sind: Ghostwriter, Writing Partner und Writing Tutor.

  • Als Ghostwriter nimmt ein Large Language Model (LLM) einer Person das Schreiben ab. Eine Person formuliert einen Prompt oder eine interaktive Sequenz von Prompts, die den Schreibauftrag enthält. Der Output der KI wird übernommen und die Person beansprucht die Autorschaft dennoch für sich. Schreibkompetenz reduziert sich auf Prompting-Kompetenz.
  • Als Writing Partner schreibt die KI zusammen mit der Person, die das LLM bewusst und zielorientiert beim Schreiben miteinbezieht, sei es stellenweise, z.B. nur beim Überarbeiten, oder während allen Phasen des Schreibens. Die KI hat die Rolle einer Ko-Autorin. Im Vergleich zur Ghostwriter-Praktik interagiert der Mensch hier dynamisch und bringt sich selbst als Autor ein. Analog zu Ghostwring-Praktiken besteh die Gefahr, Fehlinformationen zu erhalten. Um ein LLM als Writing Partner zu nutzen, bedarf es hoher Lese- und Schreibkompetenzen. Die Person muss in der Lage sein, die Schreibaktivitäten metakognitiv zu steuern und entscheiden können, welche Art von KI-Einbezug zu welchem Zeitpunkt sinnvoll ist.
  • In der Rolle als Writing Tutor unterstütz ein KI-Bot eine Person beim Schreiben, indem er der schreibenden Person als «Quasi-Lehrperson» gegenübertritt. Die Person nimmt das LLM interagierend als Lerner:in in Anspruch.
Welche Rolle nimmt die KI bei der Unterstützung beim Schreiben ein? (Quelle: Adobe Stock)

Implikationen für das wissenschaftliche Schreiben mit KI: ein Diskussionsvorschlag

Im Folgenden werden die KI-Rollen anhand von Beispielen hinsichtlich ihres Potenzials fürs Lernen durch das Schreiben beurteilt. Hierbei wird auf prototypischen Phasen des Schreibprozesses – Planen, Formulieren, Überarbeiten – eingegangen. Die Beurteilung erfolgt anhand einer Ampel-Logik, wobei rot eine kritisch anzusehende, orange und grün eingefärbte KI-Praktiken legitime, aber im Falle des Writing Partners mit Vorsicht einzusetzende Rollen darstellen. Die Begründung zu den Urteilen folgt danach.

PLANENFORMULIERENÜBERARBEITEN
Ghostwriter

– Skizze oder Inhaltsverzeichnis für einen Text generieren (strukturell und inhaltlich) und übernehmen
    – Text ausformulieren lassen auf Basis von Prompts
    – Zusammenfassungen generieren
    – Fazit formulieren
– Text inhaltlich, strukturell, stilistisch und/oder formal revidieren lassen.
Writing Partner

– eigene Ideen weiterentwickeln
– Strukturvorschläge zu definierten Inhalten generieren
– Brainstorming mit integraler Plausibilitäts- und Wahrheitsprüfung
– Hypothesen formulieren aufgrund zuvor festgelegter Variablen
– Reformulieren der Fragestellung
– einen selbst geschriebenen Abschnitt kürzen
– Formulierungs-alternativen generieren
– Text inhaltlich, strukturell, stilistisch und/oder formal revidieren lassen, dabei Überarbeitungen hervorheben lassen und die Eignung der Revisionen selbst überprüfen
Writing Tutor

– Geplante Textstruktur auf Schlüssigkeit prüfen lassen
– Feedback zur Passung der geplanten Inhalte zu einer Fragestellung evaluieren lassen
– Tipps zum Vorgehen bei der Textplanung oder zur Recherche einholen
– Textsortenspezifische Formulierungshilfen erfragen
– Tipps zum Vorgehen beim Formulieren einholen
– Verschiedene Stile aufzeigen
– Rückmeldungen zur Lesefreundlichkeit, Satzlänge und zur Wortwahl einholen
– Feedback zu aufgabenbezogenen Passung von Inhalt, Struktur, Stil und/oder Korrektheit generieren und begründen lassen
– Tipps für die Schlussredaktion einholen
– Überarbeitungsvorschläge priorisieren lassen

The good, the bad and the buddy

Zur Beurteilung der Frage, welche Rolle der KI-Anwendung in welcher Phase des Schreibens lernförderlich und legitim ist, muss zunächst geklärt werden, was epistemisches Schreiben ist oder anders gefragt: Unter welchen Bedingungen ist Schreiben förderlich für das Fachlernen?

Dieser Frage liegt eine Vielzahl von weitverzweigten Theorien und empirische Arbeiten zugrunde, die hier nur sehr verkürzt und unvollständig erläutert werden. Der Nachweis, dass (Fach-)Lernen durch Schreiben erfolgt, wurde vielfach postuliert, theoretisch modelliert sowie empirisch nachgewiesen (z. B. Meta-Analysen von van Dijk et al. 2022; Graham et al. 2020; Bangert-Drowns et al. 2004). Es existieren mehrere Modelle, die die Funktionsweise des Lernens durch Schreiben beschreiben. Das verbreitete Modell von Galbraith und Baaijen (2018) geht davon aus, dass inhaltliche Konzepte als mental verknüpfte semantische Einheiten im Langzeitgedächtnis gespeichert sind. Beim Schreiben greift die schreibende Person auf dieses Repertoire zurück. Um ihr Schreibziel zu erreichen, aktiviert sie die gespeicherten Verknüpfungen in Syntheseprozessen, überprüft diese und fügt gegebenenfalls weitere Ideen aus bereits gespeicherten semantischen Einheiten oder externen neue Quellen hinzu. Im Prozess dieser Wissensaktivierung und -transformation findet Lernen statt.

Aus dieser Perspektive werden die drei KI-Rollen wie folgt eingeschätzt:

  • Ghostwriter: Keine oder minimale Notwendigkeit der Informationstransformation eigener Wissensbestände sowie kognitiver Syntheseprozesse in Bezug auf den Lerngegenstand. KI-Anwendung ersetzt den Lernprozess oder kürzt ihn ab. Prompting-Kompetenzen ersetzen Schreibkompetenzen.
  • Writing Partner: Wissensaktivierung und -transformation ist erforderlich. Die KI-Rolle unterstützt den Lernprozess, sofern die Sinnhaftigkeit und der Zeitpunkt der KI- Anwendung metakognitiv bewusst gesteuert sind sowie die Bereitschaft und die Fähigkeit vorhanden sind, Informationen des Outputs in eigene Wissensbestände zu integrieren und damit eigenes Wissen zu transformieren.
  • Writing Tutor: Wissensaktivierung und -transformation ist erforderlich. Eigene Textproduktion steht im Mittelpunkt. Unterstützung beim (strategischen) Vorgehen durch Instruktionen und Feedback der KI. Die KI-Rolle unterstützt den Lernprozess.

Fazit: Augen auf beim Prompten! 

Die drei KI-Rollen lassen sich nicht immer klar voneinander abgrenzen. Vor allem die Übergängen zwischen der Partner- und der Tutoren-Rolle sind fliessend. Die Heuristik zu diesen KI-Rollen, die in der obigen Tabelle beispielhaft Mensch-Maschine-Interaktionen in verschiedenen Phasen des Schreibprozesses aufführt, verstehen sich als Diskussionsbeitrag, um den sinnvollen und legitimen KI-Einsatz zu planen und zu reflektieren. Das hier angelegte Ampelsystem ist nicht apodiktisch zu verstehen. Auch die Ghostwriter-Rolle kann beim Schreiben unter Umständen lernförderlich sein. Etwa dann, wenn der Output als musterhaftes Beispiel einer Textsorte oder einer Formulierung studiert und dessen Merkmale analysiert werden. Solche Analysen können dabei helfen, Wissen über Textsorten aufzubauen.

Ein absolut zentraler Aspekt bei allen Formen der KI-Anwendung in Wissenskontexten ist der zweifelhafte epistemische Status der KI-Ausgaben. LLMs garantieren aufgrund ihrer Funktionsweise keine verlässlichen Outputs können keine Verantwortung für die Richtigkeit von Informationen übernehmen. Aus diesem Grund sprechen wissenschaftliche Publikationsinstanzen – z.B. Nature – den LLMs eine Autorschaft ab. Jede KI-Ausgabe muss deshalb minutiös daraufhin überprüft werden, ob sie wahr, vollständig, verzerrt und für das eigene Vorhaben relevant und valide ist. Dabei gilt: Je höher das Ausmass an Delegation von Schreibaufgaben an die KI ist, desto höher ist die Notwendigkeit, Informationen zu prüfen. Die KI-Anwendung Ghostwriter macht die Prüfung des Outputs unausweichlich, auch für die Writing-Partner-Rolle ist sie notwendig und für die Writing-Tutor-Anwendung mindestens empfohlen. Diese Prüfverfahren setzen digitale Lesekompetenzen voraus, die als «epistemisch wachsames Lesen» (Philipp 2021; 2023) bezeichnet werden. Verkürzt gesagt, versteht man darunter Fähigkeitenbündel, um die Plausibilität von Aussagen, die Vertrauenswürdigkeit von Quellen, die Kohärenz von Aussagen oder die Entstehung und Interpretation von Daten zu evaluieren. Es sind in erster Linie diese Fähigkeiten, die für das Lernen durch Schreiben mit KI geschult werden müssen und dies mit Vorteil zusammen mit einem Menschen in der Rolle eines Reading Tutors.

INFOBOX

Das Schreibzentrum der PH Zürich bietet Module zum Schreiben an, in denen KI-Aspekte thematisiert werden:

Schreiben begleiten und beurteilen (Start: 17. März 2025)
Wissenschaftliches Schreiben (Start: 23. September 2025)


Auch für literarische Zugänge zum Schreiben finden Sie beim Schreibzentrum Angebote – z.B. das Modul Biografisches Schreiben (Start: 30. April 2025).


Einzelpersonen, Teams und Organisationen bietet das Schreibzentrum Weiterbildungen und Schreibberatungen in Form von Coachings, Kursen oder Workshops an. Kontaktieren Sie uns! schreibzentrum@phzh.ch

Zum Autor

Alex Rickert ist Leiter des Schreibzentrums und ist als Dozent in Weiterbildungsgefässen aktiv. Seine Arbeits- und Forschungsschwerpunkte sind Textlinguistik, Schreibberatung und -didaktik.

Potential offener Formate  – Learnings vom Barcamp Curriculumentwicklung

Text: Tetiana Kaufmann, Monika Schlatter, Franziska Zellweger

Herausforderung Curriculumentwicklung

Teilnehmende des Barcamp Curriculumentwicklung.
Teilnehmende des Barcamp Curriculumentwicklung. Foto: Giuseppa Kälin

Der Wechsel zu Kompetenzorientierung, Modularisierung und Bachelor-Masterabstufung führte in den letzten Jahren zu zahlreichen Reformen von Studienprogrammen. Die Implikationen der Digitalisierung, nicht zuletzt die rasante Entwicklung generativer KI auf Bildungsziele, Lern- und Prüfungsformate sowie die zunehmende Heterogenität der Studierenden treiben diese Entwicklungen weiter voran.

(Weiter-) Entwicklungen von Studienprogrammen sind daher anspruchsvoll. Es gibt zahlreiche Bedürfnisse und Ideen vieler Beteiligter, die begrenzten Ressourcen und spezifischen Rahmenbedingungen gegenüberstehen. Fragen, die sich im Zusammenhang mit einer Curriculumentwicklung stellen, sind daher komplex, und entsprechend herausfordernd ist die Gestaltung von Entwicklungsprozessen.

Mit dem Barcamp Curriculumentwicklung wollten wir einen Beitrag dazu leisten, Personen im tertiären Bildungsbereich ihre Erfahrungen, Herausforderungen und Erfolge bei der Curriculumentwicklung teilen zu lassen. Ebenso sollte so der Austausch innovativer Ideen und Konzepte gefördert und einen Anstoss für Lösungen gegeben werden. Anfang November 2023 sind in diesem Zusammenhang über 60 Personen aus Fach- und Pädagogischen Hochschulen wie auch Höheren Fachschulen auf Schloss Au zusammengekommen. Während einige Anliegen aus bereits laufende Studiengänge mitbrachten, standen andere noch am Anfang des Prozesses und liessen sich für die bevorstehenden Aufgaben inspirieren.

Ein Barcamp ist eine offene und partizipative Veranstaltung, an der von den Veranstaltern zu Beginn nur Zeitfenster und Räume festgelegt werden. In einem gemeinsamen Prozess mit den Teilnehmenden werden die Themen festgelegt. Im Zentrum der daraus entstehenden Sessions steht die Diskussion, wobei ein mitgebrachtes Fallbeispiel, Erfahrungen oder Fragen der Teilnehmenden als Initiator dienen. Mehr Infos zu Barcamps

Barcamp Curriculumentwicklung: Konkrete Einblicke und Learnings

Im Folgenden geben wir einen chronologischen Einblick in die konkrete Durchführung des Barcamps und legen dar, welche Erkenntnisse wir mit diesem offenen Weiterbildungsformat gewonnen haben.

 

1. Zeit in das Kennenlernen investieren

Um auch bei über 60 Teilnehmenden gleich eine erste Verbindung zwischen den Personen zu schaffen, haben wir die Veranstaltung mit einem mündlichen Soziogramm eröffnet. Die Moderatorin rief verschiedenste Fakten aus, und Personen, auf die diese zutrafen, hoben die Hand. So wurde rasch sichtbar, aus welcher Institution und welcher Landesregion die Teilnehmenden stammten und es wurde Transparenz über die Rollen oder Funktionen geschaffen. Unterstützt wurde die Kontaktaufnahme auch mit einer ausführlichen Teilnehmendenliste. Dieses Kennenlernen wurde sehr positiv wahrgenommen. Genügend Zeit dafür einzuplanen, lohnt sich. Eine Alternative zum mündlichen Soziogramm könnte auch ein Speeddating sein.

Mündliches Soziogramm in Aktion.
Mündliches Soziogramm in Aktion. Foto: Giuseppa Kälin

 

2. Themenstrukturierung schon vor dem Anlass

Die gemeinsame Programmplanung und das Identifizieren gemeinsamer Fragen ist ein wichtiger Schritt eines Barcamps. Dabei ist es eine Herausforderung, nicht zu viel Zeit mit der Planung des Tages zu verbringen, sondern genügend Raum für Vernetzung und Austausch zu schaffen.

Die Teilnehmenden waren daher aufgefordert, schon vor dem Barcamp mögliche Fragestellungen einzugeben. Aus diesen haben wir vier Hauptthemen identifiziert und durch Leitfragen präzisiert, welche auf der digitalen Pinnwand Taskcards veröffentlicht und den Teilnehmenden vorgängig zur Verfügung gestellt wurden. Diese Vorstrukturierung der Themen erlaubte es, die Interessen der Teilnehmenden transparent zu machen und gleichzeitig einen effizienten Programmfindungsprozess entlang der vorstrukturierten Themen zu gestalten.

Vier Themen mit Leitfragen
1. Prozessgestaltung • Wie kann man ein Curriculum trotz knapper werdenden (finanziellen) Ressourcen weiterentwickeln? • Wie geht man mit Widerständen und starren Verwaltungsprozessen um? • Welche Rolle spielt Partizipation in der Curriculumsentwicklung und wie kann sie effektiv koordiniert werden?
2. Individualisierung in der Hochschulbildung • Was sind Best Practices und neue Tendenzen in der Begleitung von Studierenden (auch in grossen Studiengängen)? • Wie können Hochschulen bei begrenzten Ressourcen den wachsenden Anforderungen an Individualisierung begegnen? • Wie kann man individuelle Bedürfnisse berücksichtigen und gleichzeitig Kohärenz gewährleisten?
3. Future Skills und Entwicklung zukunftsfähiger Curricula • Welche Trends müssen jetzt in der Curriculumsentwicklung vorrangig begegnet werden? • Welche curricularen Strukturen bzw. Studienmodelle ermöglichen die Entwicklung nachhaltiger, kompetenzorientierter Curricula, die unserer schnelllebigen Zeit gerecht sind? • Wie kann man KI-Tools sinnvoll einsetzen und gleichzeitig das Deep-Learning unterstützen (z.B. im Sprachunterricht)?
4. Kompetenzorientierte Leistungsnachweise • Welche innovative Beurteilungsformate und Zusammenarbeitsformen (z.B. Stud.-Dozis) fördern eine kompetenzorientierte Lehre? • Wie kann man bei begrenzten Ressourcen individuelles Feedback geben und optimal Peer Assessment einwenden? • Was sind Best Practices in der Messung und Anrechnung bereits erbrachter Leistungen/Erfahrungen?

 

3. Klar gestaltete Sessionplanung

Dafür teilten sich die Teilnehmenden in vier Gruppen zu je einem Thema ein und arbeiteten an einer vorbereiteten Pinwand. Wer eine Fragestellung eingegeben hatte oder neu mitbrachte, stellte diese innerhalb einer Minute vor (Pitch). Ähnliche Fragestellungen wurden dann zusammengeführt, so dass im Ergebnis jede Gruppe je drei Sessions (Zeit- und Raumfenster) definierte.

Strukturierung der Sessionplanung
Strukturierung der Sessionplanung

Wieder im Plenum, wurde der gesamte Plan aller vier Gruppen vorgestellt. Danach waren die Teilnehmenden frei darin zu entscheiden, in welchen der vielen Sessions sie beitragen möchten. Die Vielfalt an spannenden Fragen bedeutet auch eine gewisse Qual der Wahl: Mehrere Durchführungen von Sessions könnten sich lohnen.

 

4. Ideale räumliche Rahmenbedingungen

Wenn viele engagierte Personen gemeinsam diskutieren und die finalen Themen festlegen, entsteht eine nicht zu unterschätzende Geräuschkulisse, und auch ein vermeintlich grosser Raum wird plötzlich zu klein. Es ist zwar ein Vorteil, wenn die ganze Gruppe für die Festlegung des Programms in demselben Raum arbeiten kann, da die Moderation den Gesamtprozess gut im Blick hat. Auch die Teilnehmenden können so wahrnehmen, wie die anderen Gruppen arbeiten. Je nach räumlichen Gegebenheiten kann es dennoch sinnvoll sein, an unterschiedlichen Orten zu diskutieren, da ein konzentriertes Gespräch von einem ruhigen Rahmen profitiert. Darüber hinaus zeigte sich das Schloss Au auch bei regnerischem Wetter als idealer Ort für ein solches Format. Das gastfreundliche Schlossambiente mit inspirierendem Garten und vielen Gruppenräumen bot einen wohltuenden Kontrast zur üblichen Hektik. Die Teilnehmenden konnten voll in das Barcamp eintauchen und die Laptops blieben in der Tasche.

Teilnehmende des Barcamps bei der Themenauswahl.
Teilnehmende des Barcamps bei der Themenauswahl. Foto: Giuseppa Kälin

 

5. Rollenverteilung in den Sessionen vorab definieren

In den Sessions brauchten die neu formierten Gruppen jeweils eine Weile, bis sie sich gefunden hatten. Da die Zeit an einer solchen Veranstaltung knapp ist, würden wir zukünftig eine klare Rollenzuteilung mit vordefinierten Zuständigkeiten (Lead der Session, Moderation, Dokumentation, Zeitmanagement) vornehmen.

 

6. Ergebnisse sichtbar und greifbar machen

Um die Diskussionen und Erkenntnisse aus den Sessions für alle Teilnehmenden sicht- und greifbar zu machen, haben wir darum gebeten, die Ergebnisse der Sessions auf Taskcards zu dokumentieren.

Teilnehmende bei der Reflexionsrunde.
Teilnehmende bei der Reflexionsrunde. Foto: Giuseppa Kälin

In einer Schlussrunde im Umfang von 20 Minuten entlang der Methode 1-2-4-all von Liberating Structures haben in einem ersten Schritt alle Teilnehmenden persönliche thematische Erkenntnisse und noch offene Fragen in einer kurzen Einzelreflexion identifiziert. Im danach folgenden Austausch in Zweiergruppen wurden die Gedanken geteilt und weiterentwickelt, um anschliessend in Vierergruppen die Diskussion weiter zu vertiefen und Erkenntnisse sowie offenen Fragen zu notieren. Diese prägnanten Sätze und Stichworte wurden dann mit allen Teilnehmenden geteilt.

Fazit

Selten haben wir Weiterbildungstage in so disziplinierter und arbeitsamer Atmosphäre erlebt. Die Feedbacks der Teilnehmenden haben klar aufgezeigt, dass sie sehr viel aus dem offenen Format mitnehmen konnten. Die wertvollen Diskussionen auf Augenhöhe, Inspiration und Vernetzung standen dabei zuoberst. Diese Erfahrung hat uns gezeigt, dass bei anspruchsvollen Fragestellungen wie in der Curriculumsentwicklung offene Formate wie ein Barcamp der richtige Weg sind, gemeinsam an Lösungen zu arbeiten und dabei gerade zu erleben, wie kraftvoll offene und partizipative Formate sein können.

Mehr Offenheit hat sich auch als zentrales Thema durch die Sessions gezogen. Viel Interesse weckten unter anderem Beispiele individuellerer Lehr-/Lernformaten und Prüfungsformen. Das Ziel dabei bleibt klar: Studierende auf die Lösung komplexer Fragestellungen vorzubereiten, denen sie zunehmend in ihrer Arbeits- und Lebenswelt begegnen werden.

INFOBOX

CAS Weiterbildungsdesign

Die Weiterbildung befindet sich in einer anspruchsvollen Entwicklungsphase. Es wandeln sich die Ansprüche der Zielgruppen, der Digitalisierungsschub wirkt nachhaltig und die Diversität der Teilnehmer:innen nimmt zu. Die damit verbundenen veränderten Lehr- und Lernkonzepte fordern eine diversifiziertere Programm- und Angebotsplanung. Dieser CAS befähigt Sie dazu, als Fachspezialist:in für Weiterbildungsdesign zeitgemässe und wirksame Bildungsprogramme in der Weiterbildung zu konzipieren.
Weitere Informationen zum CAS Weiterbildungsdesign


CAS Führen in Projekten und Studiengängen an Hochschulen

Fachleuten aus Fachhochschulen, Universitäten, Pädagogischen Hochschulen, Höheren Fachschulen und weiteren Bildungsinstitutionen ermöglicht dieser CAS massgeschneidert und laufbahnbezogen die Entwicklung rollenspezifischer Kompetenzen in den Bereichen Führung, Management und Planung. Essentielle Kernelemente sind Praxisorientierung und der Transfer in den eigenen Kontext.
Weitere Informationen zum CAS Führen in Projekten und Studiengängen an Hochschulen

Zu den Autorinnen

Schreiben an Hochschulen in Zeiten von KI – das tiefe Nachdenken wird zukünftig noch nötiger

Text: Maik Philipp

Wenn wir Texte an der Hochschule schreiben, verfolgen wir damit häufig den Zweck, Wissen zu dokumentieren, es zu kritisieren oder es weiterzuentwickeln. Dabei stützen wir uns zum einen auf Wissensquellen wie andere Texte, aber auch auf unsere eigenen Ideen. Was für Forschende gilt, wird auch für das Lernen im Rahmen des Studiums beansprucht. Diese traditionelle Sicht auf das, was «epistemisches Schreiben» genannt wird, hat sich zu verändern begonnen, seitdem mit ChatGPT ein Game Changer aufgetreten ist, dessen mögliche Auswirkungen zurzeit Gegenstand von umfassenden Abwägungen sind. Automatische Textproduktion mittels Large-Language-Models ist die vorerst letzte, aber bei Weitem nicht einzige technologisch basierte Etappe in der offenen Frage, wie wir hochschulisches Lernen und Lehren betreiben wollen, wenn neue Technologien aufkommen.

Reine Reproduktion beim Schreiben und die Ausweichmöglichkeiten

Vielleicht ist es gar nicht unbedingt die technische Seite, die im Kern das Problem ausmacht. Die Frage, die sich stellt, wenn Algorithmen Texte herstellen, betrifft natürlich Chancen der Arbeitserleichterung und Risiken der Eigenleistungsbestimmung. Aber sie tangiert doch viel mehr eine andere Grundsatzthematik: Wozu und was schreiben wir denn an den Hochschulen noch bzw. lassen wir schreiben? Damit sind unweigerlich Zielvorstellungen angesprochen und infolgedessen wiederum die Notwendigkeit, sich über diese Ziele Gedanken zu machen. Solche Klärungsnotwendigkeit besteht freilich nicht nur bei den Prüfungsformaten, sondern zusätzlich bei den Lernaufgaben, ja: beim Lernen allgemein.

Dabei müssen wir keineswegs wieder von Null starten. Die Lehr-Lern-Forschung hat sich intensiv damit beschäftigt, wie das Schreiben das Fachlernen unterstützt und welche Arten von kognitiven Prozessen und welche Arten von Wissen für das Lernen unterscheidbar sind. Dabei wird schnell deutlich, dass es verschiedene Facetten des Lernens gibt, die sich darin unterscheiden, wie stark Gegenstände im Rahmen des Lernens kognitiv verändert werden müssen. So kann zum Beispiel unterschieden werden, ob man eine Theorie nur wiedergeben, ihre Logik und Anwendungsgebiete erläutern, sie auf einen Fall anwenden, sie mit einer anderen Theorie vergleichen oder begründet kritisieren soll. Je nach Aufgabe müssen Lernende zu sehr unterschiedlichen Dingen kognitiv in der Lage sein. Nicht alles davon ist in allen Fällen immer gefragt oder sinnvoll, aber entscheidend ist, dass wir Lernaufgaben profilieren und charakterisieren können, welche Prozesse sie einfordern und welche Wissensarten sie touchieren. Wir können zudem kartieren, welche Prozesse und Produkte des Denkens höherer Ordnung wir lesend und schreibend an Hochschulen nutzen wollen und wie wir Enkulturation in Wissensgemeinschaften mit dem Schreiben verbinden.

KI-generierte Texte müssen von kritisch denkenden Personen eingeschätzt werden.

Was automatische Textproduktion zumindest ansatzweise kann, ist das Reproduzieren von Inhalten auf der Basis von Mustererkennung in riesigen Textkorpora, anhand derer der Algorithmus trainiert wurde. Dass Tools wie ChatGPT diese Reproduktion sprachlich auf hohem Niveau leisten, mag arbeitserleichternd sein, aber es entbindet nicht davon, wozu Personen schreibend in der Lage sein müssen: einem evaluierenden Verarbeiten, welches seinerseits Verstehen voraussetzt. Ein ChatGPT-Text ist zunächst ein Angebot. Dessen Eignung oder Nicht-Eignung, seine Richtigkeit, seine Angemessenheit und seine Verwertbarkeit bemessen sich daran, dass die Texte von kritisch denkenden Personen eingeschätzt werden müssen. Hier bestehen Ausweichmöglichkeiten für die Hochschullehre, die teils zutiefst in das hineinragen, was zum Beispiel im Falle des naturwissenschaftlichen Lernens gefordert wird. Wir können und sollten uns darum Lern- und Leistungsaufgaben überlegen, welche das Denken höherer Ordnung fördern und fordern. In diesen Aufgaben sollte weniger die Reproduktion eine Rolle spielen als die begründete und begründbare Evaluation von Aussagen und ihrem Geltungsanspruch als Wissen.

Prüfen von Aussagen als immer wichtiger werdende Fähigkeit: Was ist weshalb wahr und wer ist warum vertrauenswürdig?

Was es – nicht nur bei KI-basierten Texten – zu prüfen gilt, ist die Plausibilität, also die potenziell zugeschriebene Wahrheit von Aussagen, und die Vertrauenswürdigkeit von Quellen hinter der Aussage. Die Leseforschung nennt dies Erste- und Zweite-Hand-Einschätzung. Die Zuweisung von Plausibilität als Erste-Hand-Einschätzung ist an Wissen über den Gegenstand, kohärentes Begründen von Aussagen und auch die Produktion von wissensbezogenen Aussagen gebunden. Die Bestimmung der Vertrauenswürdigkeit als Zweite-Hand-Einschätzung bemisst sich daran, welchen Personen und Organisationen zugestanden wird, sich inhaltlich qualifiziert und gesellschaftlich wohlwollend zu äussern, weil Expertise und Redlichkeit unterstellt werden. Solche Zweite-Hand-Beurteilungen von Aussagen werden von ChatGPT zwar erschwert, aber sie sind dadurch nicht unwichtiger geworden – im Gegenteil. Vielmehr geht es zunehmend um die Abwägungen, was warum wahr ist und wie wir sinnvoll vorgehen, um begründbare und ausreichend sichere Antworten auf diese Frage zu finden. Anders gesagt: Das tiefe Nachdenken und mit ihm eine Entschleunigung wirken nötiger denn je.

Damit ist ein Bündel von Fähigkeiten angesprochen, welches in der Leseforschung schon seit Längerem als wichtig erachtet wird und durch die Zunahme an digitalen Texten und Dokumenten noch an Bedeutung gewonnen hat. ChatGPT und andere KI-Applikationen werden diese Fähigkeiten mutmasslich nicht weniger wichtig werden lassen. Darin liegt auch eine Chance, Lern- und Lehrprozesse an den Hochschulen anzupassen.

INFOBOX

Das Schreibzentrum der PH Zürich pilotiert derzeit Kurse für Studierende und Dozierende. Im Kern der Angebote stehen Prozesse des Lernens. Die Erfahrungen werden voraussichtlich am Tag der Lehre der PH Zürich (2. Februar 2024) im Workshop «Los, KI, denk für mich?! Lernen und Lehren mit Texten» vorgestellt.

Zum Autor

Maik Philipp ist Professor für Deutschdidaktik an der PH Zürich. Seine Schwerpunkte sind Lese- und Schreibförderung mit Fokus auf Evidenzbasierung.

LINKEDIN
Share
INSTAGRAM