Future Skills: Mehr als nur ein Hype? Ein Kompass für die Schweizer Bildungslandschaft

Text: Tobias Zimmermann und Daniel Degen

Vielleicht kennen Sie das Gefühl aus Ihrem Dozierenden-Alltag: Die Studierenden beherrschen die Theorien, bestehen die Prüfungen mit Bravour – und stehen dennoch ratlos da, wenn ein Projekt in der Praxis plötzlich «völlig anders» verläuft als geplant. Das Wissen ist da, aber die Handlungsfähigkeit fehlt. Oder umgekehrt: Die Studierenden kommen mit viel Praxiserfahrung in den Unterricht, können aber nicht erläutern, warum sie wie handeln. Am Ergebnis ändert sich nichts: In beiden Fällen sind die Studierenden bei sich verändernden Praxisfällen plötzlich überfordert.

In der Schweizer Bildungsdiskussion geistert seit einiger Zeit ein Begriff umher, der genau diese Lücke schliessen will: Future Skills. Doch was verbirgt sich dahinter? Ist es der nächste bildungspolitische «Hype» oder der notwendige Kern einer neuen Lernkultur?

Future Skills: Ein bildungspolitischer Hype oder notwendiger Kern einer neuen Lernkultur? (Bildquelle: Adobe Stock)

Zwischen Hype und Handlungsnotwendigkeit

Kritiker mahnen oft, der Begriff sei alter Wein in neuen Schläuchen. Tatsächlich erinnert die Debatte an den Diskurs um die «Schlüsselkompetenzen» der 1990er Jahre. Doch hier ist Vorsicht geboten: Wie der Bildungsforscher Franz E. Weinert bereits hinreichend belegte, gibt es keine «inhaltleeren» Kompetenzen. Kompetenz ohne Fachwissen ist wie «Stricken ohne Wolle» (Schiefner & Weil 2010).

Der relevante Kern von Future Skills liegt daher nicht in der Ersetzung von fachbezogenem Wissen und Können. Vielmehr geht es um die Disposition, solches Wissen und Können in unvorhersehbaren Situationen verantwortungsvoll anzuwenden. Mit anderen Worten: Es geht um die Fähigkeit, in ungewissen Situationen nicht nur zu reagieren, sondern solche aktiv und fundiert gestalten zu können (OECD 2018).

Was treibt uns an? Die Ergebnisse einer Umfrage

Eine informelle Umfrage gibt Hinweise, wo Lehrende der Tertiärstufe den grössten Entwicklungsbedarf sehen. 26 Personen beantworteten unsere Online-Umfrage (Mehrfachnennungen möglich). Aus einer Auswahl von sechs gesellschaftlichen oder technologischen Trends halten sie die folgenden beiden für die stärksten Treiber, die eine Anpassung der Bildungsziele an Hochschulen und in der Höheren Berufsbildung nötig machen (je 18 Nennungen):

  • Demokratische Resilienz: Die Befähigung, komplexe gesellschaftliche Debatten mitzugestalten.
  • Generative KI und Automatisierung: Die Ablösung kognitiver Routineaufgaben.

Auch psychische Resilienz wurde mit 14 Nennungen als wichtig eingeschätzt, während Klimakrise (11), globale Vernetzung (9) und demografischer Wandel (5) von weniger als der Hälfte der Teilnehmenden gewählt wurden.

Diese Ergebnisse spiegeln wider, dass Future Skills keine rein technologische Antwort auf das Silicon Valley sind. Es geht um Societal Agency – die Fähigkeit, den gesellschaftlichen Wandel verantwortungsvoll mitzugestalten (Ehlers 2026, siehe Infobox).

Die drei Säulen der Handlungsfähigkeit

Mit Ehlers (2026) lassen sich diese Anforderungen in drei Kompetenzfeldern bündeln (vgl. das NextSkills-Forschungsprogramm):

  • Subjektentwicklung: Wer andere führen will, muss sich selbst führen können. Selbstwirksamkeit und Ambiguitätstoleranz (das Aushalten von Widersprüchen) sind hier das Fundament.
  • Objektbezogene Gestaltung: Hier geht es um Kreativität, Systemkompetenz und digitale Gestaltungskraft. Nicht nur Fragen beantworten, sondern die richtigen Fragen stellen.
  • Organisationsbezogene Navigation: In einer vernetzten Welt ist niemand mehr allein kompetent. Kooperation und «Sensemaking» (Sinnstiftung) sind die Brücken zur kollektiven Wirksamkeit.

Damit umfassen Future Skills wesentliche Elemente von personalen, sozialen und methodischen Kompetenzdimensionen. Der Aufbau von fachlichen und überfachlichen Kompetenzen gelingt nur dann, wenn wir verstehen, dass Lernen einen aktiven, individuellen Konstruktionsprozess der Lernenden voraussetzt (Schunk 2020). In anderen Worten: Dozierende können Lernprozesse anstossen und begleiten, das Lernen bleibt aber Sache der Lernenden.

Herausforderungen für die Praxis: Stofflogik vs. Wirkungslogik

Einige Wortantworten in unserer Umfrage kritisieren, es würden immer noch viele Lehrende zu sehr vom Lehren ausgehen und am Stoff, an den Inhalten, hängen. Future Skills würden deshalb oft als «Add-on» betrachtet, statt sie ins Zentrum des Lernens zu integrieren. Das Beharrungsvermögen einzelner Dozierender ist gewiss eine von verschiedenen Hürden für die breite Implementierung von Future Skills.

Das Problem ist jedoch systemisch: Solange immer noch viele Leistungsnachweise primär die Reproduktion von Wissen belohnen und die Bildungsinstitutionen den Transfer zwischen Wissen und Können nicht einfordern, fördern sie keine echte Handlungsfähigkeit in Breite und Tiefe. Wir brauchen deshalb eine Wende von der Stofflogik (Was müssen wir alles durchnehmen?) zur Wirkungslogik: Zu welcher Veränderung der Urteils- und Handlungskompetenz führt diese Einheit?

Für die Schweizer Bildungsinstitutionen bedeutet dies konkret:

  • Tertiär B (Höhere Berufsbildung): Die enge Verzahnung von Theorie und Praxis, wie sie im Schweizerischen Berufsbildungsgesetz verankert ist, bietet eine ideale Startrampe. Hier können Realsituationen direkt als Lernarchitektur genutzt werden. Curricula müssen der tatsächlichen Verbindung von handlungsleitendem Wissen mit praktischen Anwendungen aber stärker gerecht werden und zwischen Kompetenz, Lernaktivität und Beurteilung eine didaktische Kohärenz sicherstellen.
  • Tertiär A (Hochschulen): Der 1995 von Barr & Tagg geforderte «Shift from Teaching to Learning» wurde im Rahmen der Bologna-Reform vielerorts durch operationalisierte Lernziele umgesetzt. Um Lernaktivitäten, Beurteilungsformate und tatsächliche Urteils- und Handlungskompetenz zu verbinden, sollten sich die Hochschul-Curricula noch stärker zu vernetzten Lernökologien entwickeln. Solche sind mehr als ein Puzzle aus einzelnen Modulen; Ziel wären Lernprozesse, in denen auch Scheitern und Neuanfangen als wichtige Bestandteile nachhaltigen Lernens verstanden werden.
Leistungsnachweise: Idealerweise ein Transfer zwischen Wissen und Können. (Bildquelle: Adobe Stock)

Fazit: Future Skills Literacy als neues «Betriebssystem»

Eine Antwort zu unserer Umfrage lautet: «Wir sollten nicht von Future Skills sprechen, denn wir brauchen sie auch in der Gegenwart.» Wie aber setzen wir Future Skills konkret und zeitnah um?

Mit Gesetzen, Regulatorien und Lehrplänen/Curricula ist es noch nicht getan. Für eine breite Umsetzung von Future Skills ist gemäss Ehlers (2026) eine Future Skills Literacy der Lehrenden erforderlich: die Kompetenz also, Lernarchitekturen zu entwerfen, in welchen die oben genannten drei Säulen der künftigen Handlungsfähigkeit erworben werden können.

Die Höhere Berufsbildung und die Hochschulen stehen vor ähnlichen Fragen und können gegenseitig voneinander, aber auch von den Umsetzungen aus der beruflichen Grundbildung auf Stufe Sek II lernen (Berufsfachschulen oder aktuelle WEGM-Reform an den Gymnasien). Aus dieser Perspektive liegt hier eine grosse Chance: Die akademische Stärke von Hochschulen trifft auf die Praxisnähe der Höheren Berufsbildung. Future Skills können so zu einem gemeinsamen Bindeglied werden. Dies erfordert Austausch, didaktische Entwicklung und Kooperation zwischen den beiden Bildungsbereichen.

Mit der Lancierung einer neuen Veranstaltungsreihe übernimmt die PH Zürich Verantwortung und stärkt den Dialog zwischen Tertiär A und B – siehe Infobox.

INFOBOX

Netzwerkanlass «Future Skills konkret – Dialog tertiäre Bildung», 21. Mai 2026, PH Zürich

Im Gespräch mit Gästen machen wir das Konzept an konkreten Beispielen greifbar. Das dialogische Format mit anschliessendem Apéro ermöglicht vielseitigen Austausch.

Literaturempfehlungen

Der Beitrag von Dagmar Bach und Franziska Zellweger erläutert Curriculumsentwicklung aus einer kompetenzorientierten Perspektive, bezogen auf professionsorientierte Bildungsgänge an Höheren Fachschulen und Fachhochschulen:
Dagmar Bach & Franzsika Zellweger, 2022: Entwicklung berufsorientierter Curricula. In Höhere Fachschulen in der Schweiz: Herausforderungen und Perspektiven.

Das Kapitel von Ulf-Daniel Ehlers zu Future Skills in der Hochschuldidaktik wird im Oktober 2026 erscheinen:
Ulf-Daniel Ehlers, 2026 (im Druck): Future Skills und Future Skills Literacy. Zur Gestaltung von Hochschullehre für Future Skills (Arbeitstitel). In Handlungsfelder der Hochschuldidaktik. Beziehung aufbauen, Lehre gestalten, Orientierung ermöglichen.

Zu den Autoren

Daniel Degen ist Leiter des Zentrums Berufs- und Erwachsenenbildung der PH Zürich.

Der Preis der kognitiven Entlastung beim digitalen Lesen von Aussagen aus der generativen KI

Text von Maik Philipp

Trau, schau wem

45 Prozent. Das ist der Anteil von Antworten aus Anwendungen der generativen Künstlichen Intelligenz (genKI), die laut einer Studie verschiedener Rundfunkanstalten im Jahr 2025 in mindestens einer Hinsicht problematisch waren. Gefragt wurden ChatGPT, Copilot, Gemini und Perplexity Fragen wie «Kann Trump für eine dritte Amtszeit kandidieren?», «Wer ist der Papst?» oder «In wie vielen Ländern wird die FIFA-Weltmeisterschaft 2026 ausgetragen?». Die Antworten auf die Fragen waren in öffentlich-rechtlichen Rundfunkkanälen vorfindbar, und die Fragen entsprachen typischen Anfragen zum Zeitpunkt der Durchführung.

Vier von neun Antworten waren also mit mindestens einem Problem behaftet, welches die Aussage mindestens als falsch oder irreführend machte, wie die Überprüfungen jeder einzelnen der 2700 Antworten durch 270 Journalist:innen ergaben. Dabei erwies sich Gemini als besonders fehlerhaft (nämlich in Form von doppelt so hohen Fehlerquoten wie die anderen drei Apps), und die Probleme verteilten sich unterschiedlich stark auf verschiedene Bereiche. Über alle vier Apps hinweg

  • umfassten 31 Prozent der Antworten keine, ungenaue oder falsche Quellen,
  • waren 20 Prozent der Aussagen inhaltlich nicht ausreichend korrekt,
  • enthielten 14 Prozent der Antworten zu wenig kontextualisierende Informationen, als dass Laienpersonen die Antwort hätten ausreichend verstehen können.

Wie gesagt: Die Informationen auf Antworten waren öffentlich zugänglich in den jeweiligen Ländern, darunter der Schweiz. Wenn aber übliche Fragen zu tages- und weltpolitischen Vorfällen zu Antworten mit einer Ungenauigkeitsquote von über 40 Prozent führen, wie sehr sollten Personen Aussagen der genKI dann trauen? Bzw. anders gefragt: Was bedeutet das für die Anforderungen an die Lesefähigkeiten?

(Bildquelle: DeeVid AI, KI-generiert)

Fleissiges Helferlein oder kognitive Outsourcingoption?

Man könnte die obige Studie aus (hochschul)didaktischer Sicht abtun, es ginge ja nur um Alltagsinformationen. Das Phänomen, dass genKI Aussagen mit unklarem Geltungsanspruch – zusätzlich zum deregulierten Strom von Halbwahrheiten und Falschaussagen – die digitalen Lesegeräte flutet, ist längst zu einem Problem für den Erwerb von Informationen und Wissen geworden. Die Problemlagen sind vielfältig, was aber für Bildungsinstitutionen und Lernende verschiedener Stufen zunehmend zur Herausforderung wird: wenn Halluzinationen und Desinformationen allmählich anfangen, die Grundlagen des Wissens und Wissenserwerbs zu erodieren.

Dahinter steckt das Phänomen, anspruchsvolle – und somit auch anstrengende – kognitive Prozesse an eine Technologie als fleissiges Helferlein abzugeben, was als «kognitive Entlastung» bezeichnet und durchaus ambivalent beurteilt wird. Im Falle des Lernens bestehen allen Potenzialen der genKI zum Trotz starke Befürchtungen, dass Lernende die ursprünglich für einen Menschen vorgesehenen, kognitiv anspruchsvollen Aufgaben an einen potenter wirkenden Algorithmus delegieren, was zu einer Einbusse an tieferem Lernen und einem längerfristigen Deskilling führen kann.

Man kann angesichts dieser Entwicklung ableiten, dass wir an den Hochschulen und (Berufs-)Schulen eine Vergewisserung brauchen, welche Kompetenzen wir bei den Lernenden benötigen und entsprechend aufbauen wollen. Ich will aus der Perspektive des Lesens skizzieren, was der Preis des kompetenten Lesens mit genKI-Aussagen ist.

Handlungsoptionen: digitale Inforensik betreiben

Algorithmisch generierte Aussagen, die wie im Beispiel der obigen Studie, mit mehreren Problemen behaftet sein können, werden «epistemisch unsichere Informationen» genannt. Das sind Aussagen, deren Status als wahr oder unwahr, glaubwürdig oder unglaubwürdig, belegt oder unbelegt etc. nicht geklärt ist, sondern nach einer verifikatorischen Reaktion der lesenden Person verlangt. In aller Regel sind damit Recherchen und vor allem Beurteilungsfähigkeiten angesprochen, die einer digitalen Inforensik gleichen, indem Personen so lange nach Informationen über Aussagen und Quellen suchen, bis sie ausreichend sicher sind, dass sie diese Informationen verwenden können.

Dazu bedarf es hoher Wissensbestände, z. B. wie Wissen hergestellt wird und welche Quellen eigentlich warum vertrauenswürdig sind. Hinzu kommt, dass Leser:innen verstehen müssen, warum algorithmusausgespielte Inhalte ihr Verstehen mitbeeinflussen. Solche Fähigkeiten zu fördern, ist für das digitale Lesen (noch ohne genKI) bereits untersucht und für die Lesedidaktik aufbereitet worden. Dass solche Fähigkeiten geschult werden müssen, zeigen Forschungsüberblicke, nach denen adäquate Vorgehensweisen in der Regel nicht bei Lernenden verschiedener Altersgruppen im Repertoire vorhanden sind.

Wenn Inhalte der genKI allgegenwärtig sind und erst durch Leser:innen überprüft werden müssen, um dann verworfen, kritisiert, kontextualisiert oder auch für weitere Verwendungen akzeptiert werden zu können, dann können wir bestehende Ansätze nutzen und weiterentwickeln. Ein Beispiel hierfür ist das sogenannte «laterale Lesen», also ein seitwärts über parallel geöffnete Tabs realisiertes Lesen im Internet. Bei diesem Lesen spüren die Leser:innen vor allem quellenbezogenen Fragen nach, um zu entscheiden, ob sie überhaupt Aussagen in digitalen Dokumenten vertrauen sollen. Diese Form des Lesens zu schulen, wirkt sich positiv auf kritische Lesefähigkeiten aus.

Was es jetzt braucht, ist eine Infusion mit Belangen des Lesens, welches gezielt Eigenheiten wie die Texte, Bilder und Videos aus Apps der genKI aufgreift, um so Schüler:innen und Studierende zu einer gewissen epistemischen Wachsamkeit zu befähigen. Damit sie treffsicher eben nicht die 45 Prozent der Aussagen von genKI glauben, die sie angesichts der Schäden von Falschinformationen besser ignorieren sollten.

INFOBOX

Das Schreibzentrum der PH Zürich entwickelt derzeit Angebote, die auf die Erfordernisse des digitalen, hochschulischen Lesens und Schreibens angepasst sind. Aktuell werden Video-Tutorials erarbeitet, es gibt Workshopangebote für Studierende sowie CAS-Module. Auf Anfrage bietet das Schreibzentrum Weiterbildungsangebote für Berufsfachschulen, Gymnasien und Hochschulen zum digitalen Lesen an.

Hören Sie in der aktuellen Folge des Podcasts Resonanzraum Bildung der PH Zürich, welche Einblicke Maik Philipp zur Lesekompetenz als Schlüssel zur Bildung gibt.

Zum Autor

Maik Philipp ist Professor für Deutschdidaktik an der PH Zürich. Seine Schwerpunkte sind Lese- und Schreibförderung mit Fokus auf Evidenzbasierung.

Academic Integrity by Design: Von der Regulierung zum Vertrauen im KI-Klassenzimmer

–> Read this blog post in English

Text von Mònica Feixas

Künstliche Intelligenz fasziniert und beunruhigt uns zugleich. Für manche ist sie die grösste Bedrohung der akademischen Integrität seit einer Generation, für andere das mächtigste Lernwerkzeug seit der Erfindung des Buchdrucks. Unter akademischer Integrität ist dabei ein verantwortungsvoller Umgang mit Wissen in Studium und Lehre zu verstehen, der sich in Konzeptionen von Redlichkeit, Fairness oder Verantwortung widerspiegelt.

In diesem Blog lade ich Sie ein, genauer hinzusehen: Wie sprechen Universitäten in ihren Reglementen, Vorgaben und Richtlinien – nachfolgend Policies genannt – über KI? Um die Hintergründe der Policies besser zu verstehen, schlage ich den Triple-A-Ansatz vor – Awareness, Agency, Action:

  • Awareness: Erkennen, wie KI in Policies gerahmt wird, unterliegende Narrative und Annahmen sichtbar machen.
  • Agency: Sicherstellen, dass Menschen – Lehrende wie Studierende – handlungsfähig bleiben. KI ersetzt kritisches Denken nicht, sondern macht es dringlicher.
  • Action: Für den Schritt von der Theory zur Praxis sind Leistungsnachweise und Leistungsbeurteilung neu zu gestalten und KI bewusst in die Lehre zu integrieren, wodurch KI Literacy sowie die epistemische Handlungsfähigkeit gefördert werden und den kritischen, ethischen Gebrauch von KI stärken.
Bild 1: Der Triple-A-Ansatz (Ausarbeitung M. Feixas mit napkin.ai)

Awareness: Was Policies sichtbar machen

In unserer Analyse von 14 Hochschul-Policies zu generativer KI (aus Spanien und der Schweiz) zeigte sich: Policies regulieren nicht nur, sie erzählen Geschichten über Studierende, Lehrende und Wissen:

  • Definitionen sind entscheidend: Einige Policies definieren KI als Werkzeug (wie ein Wörterbuch), andere als risikobehaftetes System, als Denkpartner oder sogar als transformativen Faktor für Bildung. Diese Sichtweisen prägen, wie Integrität und Leistungsbeuteilung gedacht werden.
  • Narrative formen Integrität (Tabelle 1):
    • Restriktive Policies sehen KI primär als Bedrohung. Sie sprechen von «Betrug» und «Erkennung», stellen Studierende als potenzielle Täuschende dar und Lehrende als Kontrollinstanz. Die Wahrung von Integrität wird auf Überwachung reduziert.
    • Ermöglichende Policies sehen in KI eine Chance für das Lernen. Sie fordern Studierende auf, KI-Nutzung zu deklarieren und zu reflektieren. Lehrende ermuntern sie, Leistungsnachweise und Leistungsbeurteilung neu zu gestalten . Integrität dreht sich um Transparenz, Dialog und Begleitung.
In restriktiven Policies:
– KI = Akademische Unredlichkeit
– Studierende gelten als potenzielle Betrüger:innen, die Tools missbrauchen, wenn sie nicht streng reguliert werden. Es wird angenommen, dass sie unmotiviert sind und Abkürzungen suchen.
– Traditionelle Prüfungsformate = naturgemäss vertrauenswürdig
– Lehrende sollen überwachen und kontrollieren
– Der Fokus der akademischen Integrität liegt auf Erkennung und Überwachung von Fehlverhalten
In nicht-restriktiven Policies:
– KI = Chance für Lernen und didaktische Innovation
– Studierende werden als aktive, kritische Denker:innen gesehen. Sie müssen ethischen Umgang mit KI und neue Literacies erwerben
– Leistungsbeurteilung  = Prozess + Reflexion
– Lehrende als Mentor:innen und Designer:innen, deren Rolle unersetzlich ist
– Der Fokus der akademischen Integrität liegt auf Begleitung, Transparenz und Reflexion von Lernvorgängen
Tabelle 1: Gegensätzliche Narrative von KI in Hochschul-Policies

Diese Narrative prägen die Kultur einer Hochschule: Sind Studierende potenzielle Betrüger:innen oder verantwortungsbewusste Lernende? Sind Lehrende Detektive oder Mentor:innen? Die Antworten auf diese Fragen prägen, wie wir Verantwortung und Redlichkeit in Studium und Lehre verstehen – und wie wir die Handlungsfähigkeit der Studierenden fördern.

Neudefinition der akademischen Integrität

Warum schummeln Studierende? Untersuchungen (Eaton et al. 2025) zeigen, dass Schummeln durch eine Kombination verschiedener Faktoren begünstigt wird. Dazu gehören Stress, unklare oder unrealistische Beurteilungskriterien sowie Gruppendruck. Viele Studierende verstehen auch die akademischen Erwartungen nicht immer.
Unter Bezugnahme auf die Studie von Rhode (2017) erinnern uns Eaton et al. daran, dass nur ein kleiner Teil der Studierenden niemals betrügt und eine ähnlich kleine Minderheit absichtlich und konsequent betrügt; die Mehrheit – etwa 80–90 % – befindet sich in der Mitte, was bedeutet, dass sie unter Druck in gewissen Situationen Abstriche machen und dies oft hinterher bereuen.
Obwohl viele Studierende gegenüber KI noch vorsichtig sind, betrachten die meisten deren Einsatz nicht als Betrug, es sei denn, die Grenzen sind klar definiert. Wo liegt die Grenze zwischen «akzeptabler Hilfe» durch KI und tatsächlichem Fehlverhalten? Die meisten Universitäten behandeln die unbefugte (KI-Nutzung in einer Weise, die von der Lehrveranstaltung oder der Hochschule her nicht erlaubt ist) oder die nicht deklarierte KI-Nutzung als Fehlverhalten, ähnlich wie Plagiate. Daher legen sie Wert auf Transparenz: Von den Studierenden wird erwartet, dass sie angeben, wie KI genutzt wurde. Dies ist eine eher auf Compliance basierende Sichtweise von Integrität: Der Fokus liegt auf Regeln und deren Durchsetzung durch Überwachung und Sanktionen.

Allerdings sollte es bei akademischer Integrität nicht nur darum gehen, was Studierende nicht tun sollten, sondern vor allem darum, was die gesamte akademische Gemeinschaft tut: Vertrauen und Respekt aufbauen, Fairness praktizieren und Verantwortung in der Wissensarbeit übernehmen. Dies kann sich nicht allein auf Bestrafung stützen; es braucht eine Kultur des Lehrens und Lernens und KI-Literacy.

Agency: Wer hat die Kontrolle?

KI-Literacy bedeutet mehr als Toolwissen, sie umfasst auch Handlungsfähigkeit. Es geht dabei um die Fähigkeit, im Umgang mit KI informierte Entscheidungen zu treffen, kritisch und ethisch zu urteilen und aktiv mitzuwirken (Emirbayer & Mische, 1998; Bandura, 2001). Ohne solche Handlungsfähigkeit laufen wir Gefahr, zu viel von unserem Denken an Maschinen auszulagern.

  • Wer hat die Kontrolle: Menschen oder Maschinen?

KI kann unsere denkbezogene Handlungsfähigkeit entweder untergraben oder stärken. Wenn Studierende KI unkritisch nutzen, können sie Kreativität und kognitive Fähigkeiten verlieren. Wenn sie sich jedoch kritisch damit auseinandersetzen, kann KI zu einem Werkzeug für vertieftes Lernen werden. Lehrende stehen vor derselben Wahl: Handlungsfähigkeit verlieren, indem sie die KI-Nutzung der Studierenden nur überwachen; oder Handlungsfähigkeit gewinnen, indem sie innovative Leistungsnachweise gestalten, die Reflexion, Bewertung und kritisches Denken erfordern.

  • Was passiert mit dem Denken, wenn wir uns zu sehr auf KI verlassen?

Das Haupt­risiko ist das, was manche als kognitive Atrophie oder «Brain Drain» bezeichnen (Guest et al. 2025): Wenn wir zu viel geistige Anstrengung auslagern, schrumpft unsere Fähigkeit zum tiefgreifenden Denken.

  • Kognitives Auslagern kann Arbeitsgedächtnis für höheres Denken frei machen, aber übermässige Nutzung schwächt das Gedächtnis und die Argumentationsfähigkeit (Oakley et al. 2025).
  • Produktive Anstrengung ist entscheidend: Lernen braucht Herausforderung und Anstrengung mit passender Unterstützung (Hattie et al. 2023). Wenn KI dies wegnimmt, verlieren Studierende Resilienz und kritische Fähigkeiten.

Guest et al. 2025 zeigen, dass KI zwar das Abstraktionsniveau erhöhen, aber die Anstrengung und die Denktiefe verringern kann. Expertinnen können vom KI-Gebrauch profitieren, um Aufgaben zu «segmentieren», aber Novizen laufen Gefahr laufen, von den KI-Tools abhängig zu werden. Dies kann Ungleichheiten vergrössern zwischen intellektuell selbstbewussten Studierenden, die KI nutzen, um Grenzen auszuloten, und jenen, die KI die Arbeit erledigen lassen.

  • Wie schützen wir die menschliche Handlungsfähigkeit im Zeitalter der KI?

Das grösste Risiko ist übermässiges Vertrauen: Wer sich blind auf KI verlässt, verliert am meisten an epistemischer Unabhängigkeit. Und je besser die KI-Systeme werden, desto mehr wächst die die Versuchung, ihnen alles zu überlassen. Die menschliche Handlungsfähigkeit zu schützen bedeutet:

  • Skepsis fördern: Studierende darin unterrichten, KI-Ausgaben zu hinterfragen.
  • Zum Nachdenken anregen: Aufgaben entwickeln, die Bewertung, Urteilsvermögen und Reflexion erfordern.
  • Unabhängigkeit bewahren: Raum schaffen für die Anstrengung, die Wissen, Resilienz und kritische Fähigkeiten aufbaut.

KI wird bleiben, und wir sollten sie nicht unkritisch einsetzen. Stattdessen können wir sie als Chance betrachten. Die Herausforderung besteht darin, akademische Integrität umfassend zu fördern. Das bedeutet, Studierende als fähige Lernende, Lehrer als vertrauenswürdige Fachleute und Institutionen als fürsorgliche Gemeinschaften zu betrachten.

Wenn wir epistemische Handlungsfähigkeit in unsere Curricula integrieren, kann KI zu einem Werkzeug für Wachstum werden, das Studierenden hilft, Lernfähigkeit, Verantwortungsbewusstsein und höheres Denken zu entwickeln, anstatt eine Abkürzung zu oberflächlichen Antworten zu sein.

Action: Zukunft gestalten

Während Awareness unterliegende Annahmen sichtbar macht und Agency die Fähigkeit zu kritischem Denken schützt, muss Action akademische Integrität im grossen Stil neu gestalten. Auf die Frage «Welche wissenschaftlichen Wege gibt es, um akademische Integrität zu gestalten?» gibt es keine einfache Antwort, aber ich schlage drei Handlungsfelder vor: Didaktik/Pädagogik, Governance und Gemeinschaftsbildung. Dies sind Themen, die wir in den kommenden Monaten in verschiedenen Veranstaltungen näher erkunden werden (siehe Infobox ).

Pädagogik

  • Prüfungen neu gestalten: Prozessorientierte Formate einbeziehen (Reflexionen, Versionsverläufe, Journale, Portfolios oder mündliche Erklärungen, die das Denken sichtbar machen – nicht nur Endprodukte).
  • Autorschaft neu definieren: Studierende auffordern, ihre KI-Nutzung zu dokumentieren und zu reflektieren, wie diese ihr Denken und ihre Arbeit beeinflusst hat – und warum.
  • Transparenz fördern: Klar kommunizieren, wann und wie KI genutzt werden darf.
  • KI-Kompetenz fördern: Grundlagen der KI lehren, einschließlich Datenschutz, kritischer Bewertung und ethischer Nutzung.
  • Epistemische Kompetenz prüfen: Können Studierende begründen, wann und warum sie KI genutzt (oder nicht genutzt) haben?

Governance

Wie in der Studie (Feixas, 2025) erwähnt:

  • Richtlinien müssen klar festlegen, wann KI genutzt werden darf, wie ihre Nutzung dokumentiert werden soll und wann sie ausgeschlossen werden muss, um Lernen und echte Leistung zu schützen.
  • Über blosse Regelkonformität hinausgehen: Nicht nur auflisten, was «erlaubt» oder «verboten» ist, sondern:
    • klare Werte wie Ehrlichkeit, Fairness und Vertrauen formulieren.
    • Studierende als verantwortliche Akteure sehen: nicht nur als potenzielle Betrüger:innen, sondern als Partner:innen bei der Gestaltung von Integrität.
    • Lehrende stärken: durch Weiterbildung, Infrastruktur und Zeit, um mit neuen Prüfungsformaten zu experimentieren.
  • Prüfungen ins Zentrum stellen: denn dort ist Integrität am folgenreichsten – sie entscheidet über Anerkennung, Noten und Chancen.
  • Klare Rahmen vorgeben, wann KI erlaubt, angeleitet oder ausgeschlossen ist (z. B. das University of Sydney’s two-lane model oder die AIAS Assessment Scale).
  • Handlungsfähigkeit von Lehrenden und Studierenden stärken – mit KI-Kompetenz, Weiterbildung und geeigneter Infrastruktur.

Community-Building

Integrität entsteht, wenn Allianzen aufgebaut werden, die sich von Pilotprojekten im Unterricht bis hin zu institutionellen Strategien skalieren lassen:

  • Dialog und geteilte Verantwortung zwischen Dozierenden, Studierenden und der Verwaltung fördern.
  • Gute Praktiken und Pilotprojekte teilen, die Integrität stärken.
  • Kritische Diskussionen anregen über Macht, Ethik und die Rolle von KI in der Wissensproduktion.
INFOBOX

- Kurztagung Assessment und KI: Gemeinsam praktische Formate erkunden (PH Zürich, 20. November 2025). Experimentelles, praxisnahes Format mit offenen Dialogen und Co-Creation.

- Fostering Epistemic Agency in Higher Education: Why and How? Kostenloses Webinar der Forschungsgruppe empirische Hochschuldidaktik mit Dr. Juuso Nieminen (Deakin University, Australien), 4. November 2025

- The ICED26 Conference «Agency and Academic Development» (Salamanca, 24.-26. Juni 2026). Die internationale Konferenz für Hochschuldidaktiker und Hochschulentwicklerinnen, aber auch für Hochschulforschende und Führungskräfte. Dieses Mal erkunden wir, wie Handlungsfähigkeit Wissen, Strategie und studentisches Lernen an Hochschulen prägt: Wie können Hochschuldidaktik und Hochschulentwicklung in einer sich schnell verändernden Hochschullandschaft die Handlungsfähigkeit der Studierenden und Lehrenden fördern?

Zur Autorin

Mònica Feixas ist Dozentin im Zentrum für Hochschuldidaktik und -entwicklung der PH Zürich. Sie ist ausserdem die Kongressleiterin (Convenor) der ICED-Konferenz (International Consortium for Educational Development), die vom 24. bis 26. Juni 2026 in Salamanca (Spanien) stattfinden wird.

Übersetzt ins Deutsche durch Tobias Zimmermann.

Lernen oder überspringen? Wie generative KI Lernwiderstände verstärken kann

Text: Stefanie Dernbach-Stolz und Dominic Hassler

In der (zunehmend digitalen) Bildungswelt scheint Effizienz das oberste Ziel zu sein: Inhalte werden komprimiert, Lernpfade automatisiert und ganze Fähigkeiten per «Skill Skipping» übersprungen. Warum werden beim Lernen Abkürzungen genommen? Wie entwickeln sich Lernwiderstände? Und was hat das mit generativer KI zu tun?  

Menschen neigen laut der «Cognitive Miser Theory» dazu, kognitiven Aufwand zu vermeiden (Fiske & Taylor 2013). Lernende haben das schon früher getan – etwa durch Abschreiben. Mit KI-Tools wie Chat-GPT ist das heutzutage einfacher denn je.

Heute können wir in vielen Schulzimmern und Weiterbildungskursen beobachten, dass Lernende Aufgaben direkt mit Chat-GPT lösen. Nuxoll (2024) nennt das «Skill Skipping»: Es wird ein Resultat abgegeben, aber kein Lernprozess durchlaufen. Doch Lernen entsteht nicht durch richtige Antworten, sondern durch eigenständiges Denken.

Es entbehrt nicht einer gewissen Ironie, dass Aufgaben so zu lösen als kompetenzorientiert ausgelegt werden kann. Tatsächlich dürfte es in vielen beruflichen Situationen sinnvoll sein, Aufgaben wie bspw. das Verfassen einer E-Mail mit einem KI-Sprachmodell zu erledigen. Trotzdem ist es in einem Bildungssetting nicht zielführend das zu tun, da das Schreiben (und damit verbunden auch das Lesen) weniger effektiv erworben wird.

Eine Metapher hilft uns, dies zu verdeutlichen: Es ist allen klar, wie absurd es wäre, einen Roboter ins Fitnesscenter zu schicken, wenn man seinen Körper trainieren möchte. Weniger offensichtlich, aber genau gleich absurd sollte es sein, in Bildungskontexten eine Lernaufgabe mit Chat-GPT zu lösen. Denn Bildungsinstitutionen sind die Fitnesscenter für das Gehirn. Wenn man nicht hingeht und die grauen Zellen bei den Übungen selbst anstrengt, gibt es keinen Trainingseffekt bzw. Lernzuwachs.

Zwei Roboter trainieren im Fitnesscenter. Quelle: leonardo.ai

Betrachtet man das «Skill Skipping» aus der Perspektive des Lernwiderstandes, stellt sich die Frage, warum Lernen nicht positiv konnotiert ist. Häufig wird das Lernen in Bildungskontexten als Zumutung wahrgenommen, was Widerstände und Vermeidungsstrategien erzeugt (man denke da nur an die eigene Schulzeit zurück). Dabei ist es ein zentrales Ziel von Lehrpersonen, Dozierenden und Erwachsenenbildner:innen, gelingendes oder erfolgreiches Lernen zu ermöglichen. Entsprechend stellt sich die Frage, wie und warum Lernwiderstände entstehen. Gemäss der subjektwissenschaftlichen Lerntheorie entstehen Lernwiderstände dann, wenn die Lernenden keinen subjektiven Sinn in einer Lernsituationen erkennen können oder sich gezwungen fühlen zu lernen – ohne dass es ihnen einen persönlichen Nutzen erbringt. Dies führt dazu, dass sie sich verweigern, unmotiviert sind oder nur oberflächlich lernen (Holzkamp 1993). Dabei kann man zwischen zwei grundlegenden Lernformen unterscheiden:

(Abb. 2. Quelle: Foucault 1993)

Defensives Lernen: Bei dieser Form findet Lernen unter Druck oder Zwang statt. Die Lernenden lernen, weil sie lernen müssen, um etwa eine Prüfung zu bestehen oder um Sanktionen zu vermeiden. Bildlich überspitzt kann man dies in der Grafik (Abb. 2) sehen, die eine Gefängnisszene darstellt, bei der die Insassen einem Vortrag zu den Folgen von Alkoholismus zuhören müssen. Bei dieser Form des Lernens entstehen häufig Lernwiderstände, da das Lernen nicht aus innerem Antrieb stattfindet. Expansives Lernen: Bei dieser Form geschieht Lernen aus eigenem Interesse und zur Erweiterung der eigenen Handlungsmöglichkeiten. Dadurch wird das Lernen als sinnvoll erlebt, weil es in einem Zusammenhang mit den eigenen Zielen, Interessen und Lebenszusammenhängen steht. In solchen Fällen treten kaum Lernwiderstände auf. (Holzkamp 1993)

Die Unterscheidung dieser zwei Lernformen ist für die Erklärung von Lernwiderständen wesentlich. Dennoch lassen sich Lernwiderstände nicht allein durch das Anwenden von expansiven Lernformen auflösen.

Einerseits sind die Gründe und Ursachen für Lernwiderstände vielfältig. Dazu gehören u.a. die fehlende Relevanz des Lerngegenstandes oder der mangelnde praktische Nutzen, bestehende (Bildungs-) Erfahrungen und Einstellungen und Wertehaltungen als auch die persönliche Lebenssituation (soziale Herkunft, Alter, Familie, etc.) die dem Lernen im Wege stehen können (Faulstich/Grell 2004).

Andererseits lassen sich Prüfungen o.ä. nicht immer umgehen. Die effizienzorientierte bzw. defensive Lernperspektive betont jedoch vor allem Standardisierung, Vergleichbarkeit und Messbarkeit. Das widerspricht expansivem Lernen. Wenn Aufgaben oder Lernpfade zu weit von der Lebenswelt der Lernenden entfernt sind und nicht als bedeutsam erlebt werden, reagieren diese oft defensiv – etwa mit automatisiertem Durchklicken oder KI-Nutzung. In diesem Fall setzen die Lernenden sich nicht tiefergehend mit Inhalten auseinander und haben keine Möglichkeit, eigene Lerninteressen zu verfolgen oder eigene Fragen zu entwickeln. Dies führt dazu, dass Lernen noch stärker als fremdbestimmt erlebt wird, was noch mehr Lernwiderstände auslösen kann. Ein Teufelskreis.

Was können Lehrende tun? – Anregungen zum expansiven Lernen

KI kann selbstgesteuertes Lernen untergraben. Sinnstiftendes Lernen braucht Zeit und Subjektivität – nicht nur Technik. Zentral ist, dass Lehrende unreflektierte Anwendungen von KI erkennen und handeln. Hier einige Anregungen:

Mit den Lernenden über das Lernen sprechen. Dadurch entstehen Reflexionsräume, in denen ein Bewusstsein geschaffen werden kann, wodurch die subjektive Relevanz gestärkt wird. Das braucht Zeit für Fragen, Irritationen und Selbstverortung. Und die Lehrenden erhalten ein besseres Verständnis für den Ursprung der Lernwiderstände, was sie wiederum handlungsfähig macht. Naheliegend wäre etwa die Lernenden in Gruppen über das Bild der beiden Roboter (Sie dürfen es gerne verwenden) diskutieren zu lassen und dabei gleich Transparenz zu schaffen: «Sie können (fast) alle Aufgaben im Unterricht mit KI lösen. Wollen Sie das – und warum?». So wird das Bewusstsein für den Lernprozess gefördert.

Von der Kultur des richtigen Resultats zur Kultur des Lernprozesses. Wenn Lehrende dem richtigen Resultat eine hohe Bedeutung zumessen, bspw. indem sie nur die Lösungen der Lernenden auf Richtigkeit kontrollieren, geben sie den Lernenden unbewusst einen Anreiz, KI für all diese Aufgaben zu nutzen. Stattdessen ist es zielführender, ein Bewusstsein dafür zu schaffen, dass ein richtiges, KI-generiertes Resultat für das Lernen weitestgehend wertlos ist. Der Weg zum Resultat, also der Lernprozess, ist zentral, ebenso die dabei gemachten Fehler. Aus diesen lässt es sich hervorragend Lernen. Bewertungen dokumentieren in diesem Sinne die Lernfortschritte und nicht das Resultat. Für manche Lehrende ist das ein grosser, aber essenzieller Kulturwandel.

Abb. 3
(Quelle: LinkedIn)

Verantwortung an Lernende übergeben. Viele Lehrende möchten nicht ständig mit dem Zeigefinger darauf hinweisen, dass die Lernenden keine KI für das Lösen der Aufgaben verwenden sollen. Zudem gibt es manchmal durchaus Aufgaben, bei denen KI-Unterstützung hilfreich sein kann. Folgende Idee stammt von Tobias Seidl: Aufgaben, bei denen es zur Erreichung der Lernziele wichtig ist, dass zunächst selbst nachgedacht wird, werden mit einem Warnhinweis markiert (Abb. 3). Dadurch können Lehrende sich dem traditionellen Katz-und-Maus-Spiel entziehen. Die Lernenden fühlen sich ernst genommen und die Verantwortung für ihr Lernen und den KI-Einsatz geht subtil auf sie über.

Wenn Bildungsinstitutionen als «Fitnesscenter für das Gehirn» verstanden werden, darf der «Trainings»lernprozess nicht ausgelagert oder automatisiert werden. Gerade in einer von KI geprägten Welt ist es entscheidend, dass Lernende selbst denken, reflektieren und ihre Handlungsmöglichkeiten erweitern. Lehrpersonen und Bildungsverantwortliche sind deshalb gefordert, Lernsettings so zu gestalten, dass sie expansive Lernprozesse ermöglichen, statt defensive Vermeidungsstrategien befördern.

INFOBOX

Lehrgänge

In den folgenden Lehrgängen können Sie sich vertieft mit der Gestaltung von Lernprozessen in einer von KI geprägten Welt auseinandersetzen:
- CAS Unterricht gestalten mit digitalen Medien, ab 13. Januar 2026
- CAS Weiterbildungsdesign, ab 4. Februar 2026

Module

Die folgenden Module können einzeln gebucht und als Wahlmodul in verschiedenen CAS-Lehrgängen angerechnet werden:
- Lernen und Lehren mit künstlicher Intelligenz (KI), ab 19. August 2025
- Lernen und Weiterbildungsteilnahme Erwachsener, ab 3. März 2026

Zu den Autor:innen

Stefanie Dernbach-Stolz ist Dozentin an der PH Zürich und arbeitet im Zentrum Berufs- und Erwachsenenbildung. Sie ist Leiterin des CAS Weiterbildungsdesign.

A machine in need is a friend indeed? – Zu viel Vertrauen in KIs durch Vermenschlichung

Text: Yves Furer

Wenn Dinge misslingen, neigen Menschen dazu, nichtmenschlichen Objekten wie Maschinen menschliche Eigenschaften zuzuschreiben. So scheint der Drucker persönlich etwas gegen mich zu haben, weil er immer dann nicht funktioniert, wenn ich ihn dringend brauche. In die Maschine wird ein Wille hineininterpretiert, wo keine Intention vorhanden ist. Solche Vermenschlichung oder Anthropomorphisierung hilft uns, Situationen zu bewältigen, in denen wir uns externen Faktoren ausgeliefert fühlen.

Ist mir der Drucker heute gut gesinnt oder nicht? (Bild: Adobe Stock)

Im Gegensatz zu Druckern, die weder aussehen wie Menschen noch bedeutungsvoll mit Menschen interagieren, sind moderne KI-Systeme genau dafür designt, menschlich zu wirken. Bei Chat-GPT und Co. stellt die Anthropomorphisierung ein Feature und kein Zufall dar. Der Erfolg grosser Technologiekonzerne beim Vorantreiben dieser Entwicklung wird sichtbar, indem es immer schwieriger wird, menschliche Äusserungen von KI-generierten zu unterscheiden. Im schriftlichen Dialog mit Chat-GPT-4 können offenbar viele Menschen nicht mehr mit Sicherheit sagen, ob sie sich gerade mit einem Menschen oder einer Maschine unterhalten (Mei et al. 2024). Doch wirken die Antworten von KI-Chatbots nicht nur deshalb menschlich, weil sie inhaltlich passend ausfallen, sondern KI-Chatbots beantworten beispielsweise medizinische Fragen in einem Online-Forum auch empathischer als medizinisches Fachpersonal (Ayers et al. 2023).

Auffällig ist, wie scheinbar mühelos menschliche Eigenschaften auf die KI übertragen werden, indem entsprechende Begrifflichkeiten verwendet werden. Schon der Begriff künstliche Intelligenz suggeriert, dass eine Entität vorliegt, die eine menschliche Eigenschaft, nämlich Intelligenz besitzt. Doch es stellt sich die Frage, ob KIs wirklich empathisch sind oder uns Menschen nur sehr gut vorspielen, dass sie es sind. Wären KIs empathisch, müssten sie die Gefühle von Menschen erkennen, verstehen und nachempfinden können. Während das Erkennen von Emotion durchaus funktioniert und wohl auch schon kommerziell genutzt wird (Monteith et al. 2022), dürften Verstehen und insbesondere das Nachempfinden Kategorien sein, über die die KIs noch nicht verfügen.

Die KI versteht dich. Oder doch nicht? (Quelle: Adobe Stock)

Vertrauen in KI: Ein zweischneidiges Schwert

Wie sich zeigt, bleibt es nicht ohne Folgen, wenn KIs menschliche Eigenschaften zugeschrieben werden, die sie gar nicht besitzen. Anthropomorphe Elemente scheinen das Vertrauen von Menschen in KIs zu erhöhen. Leider handelt es sich beim Vertrauen um ein zweischneidiges Schwert. Ein höheres Vertrauen kann den Umgang mit neuen Technologien erleichtern oder sogar dazu führen, dass sich Personen überhaupt auf eine neue Technologie einlassen. Andererseits besteht beispielsweise die Gefahr, dass Menschen in der Interaktion mit der KI zu viele, auch private Daten von sich preisgeben (Akbulut et al. 2024). Doch auch beim Lernen mit KI-Systemen können weitere Probleme entstehen, wenn insbesondere den KI-generierten Outputs zu viel Vertrauen entgegengebracht wird.

Mehr Vertrauen = weniger nachprüfen?

Bekanntlich liegt die KI sehr häufig richtig, wenn sie mit konkreten Fragen konfrontiert wird, jedoch nicht immer. Insbesondere beim wissenschaftlichen Lernen und Arbeiten ist es essenziell, genau diese Fehler zu erkennen. Das gezielte Prüfen von Informationen stellt allerdings einen aufwändigen und anstrengenden Prozess dar. Ein zu hohes Vertrauen in KI-generierten Output könnte sowohl dazu führen, dass die Notwendigkeit, Inhalte zu prüfen, zu wenig erkannt oder Prüfungsprozesse nicht bis zum Ende durchgehalten werden, weil die Motivation dazu fehlt. Wahrscheinlich mangelt es an Bereitschaft zur kritischen Auseinandersetzung mit KI-Antworten, wenn die KI nicht als Maschine oder Tool angesehen wird, sondern als quasi menschliche Partner:in oder Tutor:in. Schliesslich war die KI doch so nett, mir lange und ausführlich meine Fragen zu beantworten, mir passende Quellen zu suchen und zusammenzufassen und dann erst noch meinen Text zu korrigieren. Wer so viele Freundschaftsdienste für mich erbracht hat, hat doch mein Vertrauen verdient?

Maschinen bleiben Maschinen

Wie schon erwähnt, werden die Technologiekonzerne weiterhin mit viel Geld daran arbeiten, KIs noch menschlicher wirken zu lassen. Auf diese Entwicklung können die wenigsten direkt Einfluss nehmen. Unmittelbar beeinflussen können wahrscheinlich viele Leser:innen dieses Blogs jedoch, wie ihre Studierenden mit KI arbeiten. Selbst wenn die Studierenden KIs häufig auch ohne das Wissen der Dozierenden einsetzen, besteht trotzdem die Möglichkeit, das Lernen mit KI direkt zu thematisieren. KI-generierten Inhalten mit einer gewissen Skepsis zu begegnen, stellt dabei nur einen Ausgangspunkt dar. Dennoch erscheint es wichtig, genau diesen Ausgangspunkt herzustellen, um weitere Schritte wie Überprüfen, Auswählen, Integrieren und Kombinieren von Inhalten und damit Lernen zu ermöglichen. Und schliesslich haben wir alle die Möglichkeit, uns zu hinterfragen, welche Begriffe wir im Kontext von KIs verwenden und wie stark diese Begriffe eine Vermenschlichung implizieren. Denn Maschinen bleiben vorerst Maschinen und keine Freund:innen.

INFOBOX

WORKSHOP
Nachricht an Chat-GPT: Gib mir Feedback auf meinen Text, Montag, 14. April 2025, 12.15–13.30 Uhr, Campus PH Zürich

MODUL
Schreiben begleiten und beurteilen, ab 16. März 2026, Campus PH Zürich

LITERATUR
- Placani, Adriana (2024): Anthropomorphism in AI: hype and fallacy. In: AI and Ethics 4 (3), 691–698.
- Reinecke, Madeline G. / Ting, Fransisca / Savulescu, Julian / Singh, Ilina (2025): The Double-Edged Sword of Anthropomorphism in LLMs. In: Proceedings 114 (1), 4.

Zum Autor

Yves Furer ist Dozent für Deutschdidaktik und Mitarbeiter des Schreibzentrums der PH Zürich.

Vom KI-Fastfood zum sinnhaften Einsatz

Text: Charlotte Axelsson

Vor Kurzem wurde ich gefragt, ob ich Angst vor den rasanten technologischen Entwicklungen habe. Meine Antwort lautete: ein klares Jein. Die Technologie selbst macht mir keine Angst – im Gegenteil, sie fasziniert mich. Ich werde zum Homo Ludens, mein Spieltrieb kennt kaum Grenzen. Was mir Sorgen bereitet, ist der Mensch, der diese Technologien nutzt, steuert oder weiterentwickelt – oft ohne sich der Verantwortung für deren Auswirkungen bewusst zu sein. Diese Sorge hat mich dazu gebracht, intensiver über Ethik in der Bildung nachzudenken, zum Beispiel am PHZH Barcamp «Assessment im Wandel – KI-basierte Ansätze für Beurteilung und Feedback» oder als Co-Herausgeberin der neuen Open-Access-Publikation «Ich, Wir & Digitalität, Ethik in der Lehre». Für mich ist klar: Eine ethisch fundierte Lehre ist der Schlüssel für einen sinnhaften Einsatz von Technologie. Ganz im Sinne des Buchtitels: «ICH steht für die persönliche Reflexion, WIR für das Miteinander und DIGITALITÄT beschreibt den kulturellen Wandel, der durch technologische Innovationen entsteht», lässt sich dieser Dreiklang auch im Dagstuhl-Dreieck (Figur 1) als technologische, gesellschaftliche, kulturelle und anwenderbezogene Perspektive beschreiben. Solche Modelle ermöglichen es auch, die eigene Lehre zu überprüfen und fehlende Perspektiven zu integrieren.

Figur 1: Dagstuhl Dreieck in «Ich, Wir & Digitalität, Ethik in der Lehre»

Bildung vermittelt nicht nur Wissen, das ist ebenfalls klar und wurde zum Beispiel durch Peter Holzwarth in «Sind Menschen die besseren Roboter? Ethische Fragen zur Digitalisierung» beschrieben, sondern auch die grundlegenden Werte einer Gesellschaft – ein essenzielles Element für deren Zusammenhalt und Funktionieren. Doch wie verändert der technologische Fortschritt unsere Zusammenarbeitsformen und das Beurteilen von Leistungen? Warum ist es besonders wichtig, im digitalen Zeitalter über Ethik zu sprechen? Im Folgenden habe ich zwei wichtige Gründe zusammengetragen, die die Wichtigkeit einer tiefgründigen Auseinandersetzung für uns Menschen unterstreichen sollen. Folgend gebe ich Einblicke in die Diskussion des Barcamps mit der Anwenderperspektive «Ethik und gesellschaftlichen Implikationen von KI im Assessment von Leistungen».

Erster Grund ist omnipräsentes Wissen: Technologien wie die Suchmaschine von Google oder Wikipedia machen Wissen allgegenwärtig und leicht zugänglich. Generative Technologien – etwa ChatGPT von OpenAI – ermöglichen es zudem, Wissen neu zu kombinieren und zu generieren. So stellt der technologische Wandel traditionelle Konzepte von Wissen und dessen Bewertung infrage und verlangt nach neuen Ansätzen. Wie überprüfen wir Leistungen, wenn man auf einen Klick ganze Hausarbeiten von einer Maschine generieren lassen kann?

Zweiter Grund sind intransparente Machtstrukturen: Unternehmen wie Google, Microsoft oder OpenAI kontrollieren zentrale Plattformen und Technologien und verfolgen in erster Linie ihre wirtschaftlichen Interessen. Dadurch entstehen gefährliche Abhängigkeiten, die Bildungseinrichtungen, Gesellschaften und sogar Staaten in ihrer Autonomie einschränken. Ein zentrales Problem ist die Intransparenz der Algorithmen: Sie steuern, welche Informationen priorisiert oder generiert werden, und beeinflussen dadurch, was wir sehen, lesen und lernen. Dies schafft eine neue Wissenshierarchie. Damit wird Wissen nicht mehr neutral verteilt, sondern von wenigen Akteuren gelenkt. Um dieser Entwicklung entgegenzuwirken, braucht es unabhängige Alternativen und eine breite gesellschaftliche Debatte. Gerade Pädagogische Hochschulen müssen eine Vorreiterrolle übernehmen, indem sie kritische Medienkompetenz fördern und sich aktiv mit diesen ethischen Fragen auseinandersetzen.

Ethik in der Lehre – Diskussionen aus dem Barcamp 

Die Herausforderungen werden besonders deutlich, wenn man diese beiden Gründe auf konkrete Bereiche im Bildungswesen anwendet. Beim Barcamp «Assessment im Wandel – KI-basierte Ansätze für Beurteilung und Feedback» haben wir uns in einem Track mit «Ethik und gesellschaftlichen Implikationen von KI im Assessment von Leistungen» beschäftigt.

Die Diskussionen zeigten schnell, dass Bildung und vor allem Prüfungen nicht nur der Vermittlung und dem Abfragen von Wissen dienen, sondern auch kulturelle, soziale und persönliche Entwicklung umfassen. In der Diskussion haben wir uns um zwei Statements gedreht: Mensch, sei du selbst der Wandel – Technologie sollte sinnstiftend eingesetzt werden – nicht allein aus Effizienzgründen. Oder mit Play, Qualität fördern! rufen die Teilnehmenden das spielerische Konzept «Slow AI» auf, welches auf Reflexion, Neugierde und Entschleunigen setzt und eine Art Gegenbewegung zu Fastfood (KI-)Wissen darstellt.

Des Weiteren wurde die Frage, ob KI in der Lage ist, Sinn oder individuelle Werte in die Beurteilung einfliessen zu lassen, kontrovers diskutiert. Transdisziplinäres Lernen und alternative Beurteilungskulturen – weg von starren Konzepten von «richtig» und «falsch» hin zu mehr Kreativität – könnten dabei eine Schlüsselrolle spielen. Hier ist Austauschen und Voneinander-Lernen gefragt. Und über eines sind sich alle einig gewesen: Traditionelle Prüfungen, die lediglich Wissen abfragen, waren noch nie und sind einfach nicht mehr haltbar.

Barcamp 2024

Fazit und Ausblick 

Zum Schluss gibt die Disziplin Ethik in der Regel wenig Antworten – Ethik bietet Denkräume. Diese «Safe Spaces» müssen wir im Bildungswesen schaffen, in denen wir erforschen, entwickeln und vermitteln können – basierend auf Werten wie Menschlichkeit, Sinnhaftigkeit und Verantwortung. Denn nur, wenn wir Technologie bewusst und reflektiert einsetzen, können wir sicherstellen, dass der Wandel menschenwürdig ist. 

Das Thema werden wir weiterdiskutieren und laden an dieser Stelle zum nächsten Barcamp «Assessment und KI: Gemeinsam praktische Formate erkunden» am 20. November 2025 ein. Wer bis dahin nicht warten kann, empfehle ich unser kleines Büchlein, darin findet man weitere Fragen und praktische Anwenderbeispiele für den eigenen Unterricht.

INFOBOX

BARCAMP «ASSESSMENT UND KI: GEMEINSAM PRAKTISCHE FORMATE ERKUNDEN»,
20. NOVEMBER 2025 AUF SCHLOSS AU

Interessieren Sie sich für diese Tagung? Gerne können Sie in diesem Formular Ihren Namen und Mailadresse hinterlassen, dann informieren wir Sie, sobald Programm und Anmeldemöglichkeit aufgeschaltet sind.

KURS (PHZH-INTERN)
Ethische Fragen zur KI: Praxisnahe Ansätze für den Unterricht
Dienstag, 8. April, 12.15–13 Uhr, Campus PH Zürich

LITERATUR
Blume, Dana & Axelsson, Charlotte. 2024: Ich, wir & Digitalität, Ethik in der Lehre.

Zur Autorin

Wie nutze ich KI für das Schreiben an der Hochschule?

Text: Maik Philipp, Alex Rickert, Yves Furer und Daniel Ammann

Positionspapier zum wissenschaftlichen Schreiben in Zeiten von künstlicher Intelligenz

Dieses Positionspapier des Schreibzentrums der PHZH setzt sich mit zentralen Herausforderungen auseinander, die sich für Hochschulen in Zeiten von künstlicher Intelligenz (KI) im Kontext des Lernens und des Verfassens schriftlicher Arbeiten ergeben.

Wie an anderen Hochschulen nutzen auch Studierende der PHZH generative KI für das Schreiben ihrer Texte. Studien aus Deutschland (Helm u. Hesse 2024), Schweden (Stöhr, Ou u. Malmström 2024), Australien (Kelly, Sullivan u. Strampel 2023) oder den USA (Dang u. Wang 2024) belegen die intensive KI-Nutzung von Studierenden. Die deutsche Studie zeigt, dass zumindest ein Teil der Studierenden KI auf eine Weise einsetzt, die problematisch erscheint – etwa zur Überprüfung der inhaltlichen Richtigkeit.

Diese Entwicklung zwingt Hochschulen, sich Fragen zur Funktion und zum Stellenwert des Schreibens zu stellen, sei es für das Lernen, das Verfassen von Leistungsnachweisen oder in Prüfungen. Das Schreibzentrum äussert sich dazu aus epistemologischer und lernbezogener Perspektive. Die Fähigkeit, im Umgang mit Texten analytisch und kritisch zu denken, gewinnt in komplexer werdenden Wissensgesellschaften zusehends an Bedeutung. Künstliche Intelligenz nimmt mündigen Personen diese Aufgabe nicht ab, sondern fordert diese ein und heraus. Das Schreibzentrum positioniert sich mit zwei Thesen zur Nutzung von KI für das Schreiben an der Hochschule, um die Notwendigkeit des reflektierten Einsatzes zu betonen. Die erste These bezieht sich auf die Systemebene der Wissenschaft, die zweite betrifft die Personenebene und die Einsatzgebiete generativer KI. Die Thesen werden exemplarisch von Vignetten flankiert.

Ist die Zukunft des Schreibens eine Kollaboration zwischen einem Menschen und künstlicher Intelligenz? (Foto: Adobe Stock)

These 1: KI ist keine verlässliche Wissensquelle, weil sie keine Expertise hat. Wissen wird von Expert:innen hergestellt und über epistemisch vertrauenswürdige Quellen verbreitet. Wissensproduktion folgt anerkannten und transparenten Regeln – es ist unklar, ob KI das tut.

Vignetten:

  • Student A übernimmt eine automatisch generierte Definition aus ChatGPT, die plausibel klingt, und sucht via Elicit eine Quelle, die dazu passt.
  • Student B sucht nach unterschiedlichen Definitionen in der Fachliteratur, die er mit Hilfe von KI-Recherchetools gefunden hat, vergleicht die Definitionen miteinander und entscheidet sich unter Angabe von Gründen für eine Variante.

In Wissensgesellschaften sind wir darauf angewiesen, dass Erkenntnisse jedweder Art auf nachvollziehbare Weise entstanden sind. Die Komplexität der Wissensherstellung bringt ein hohes Mass an Expertise und Spezialisierung mit sich. Darauf baut die Wissenschaft, indem sie erkennbare Expertise in einem Fachgebiet als Indikator dafür nutzt, dass sich andere Mitglieder der Gesellschaft auf die Aussagen verlassen können (Chinn, Barzilai u. Duncan 2021).

  • Darum beschreiben Wissenschaftler:innen ihre Methoden genau und belegen, auf welche Quellen sie sich stützen.
  • Darum gibt es Qualitätssicherungsmechanismen, indem etwa Beiträge in Fachzeitschriften von anderen Expert:innen begutachtet werden.
  • Darum lassen sich wissenschaftliche Quellen zumindest annäherungsweise daran erkennen, dass sie von fachlich qualifizierten Personen für ihre Fachcommunitys verfasst werden, um darin ihre Erkenntnisse zu verbreiten.
  • Darum ist es keineswegs trivial, auf welche Quellen sich Studierende stützen. Eine angemessene Quellenkritik und -auswahl wird zusehends wichtiger.

Funktionsweise und Datengrundlage generativer Large-Language-Models bleiben teils Betriebsgeheimnis, deshalb lässt sich kaum nachvollziehen, welche Quellen den KI-Outputs zugrunde liegen und wie die Aussagen zustande kommen. Stil und Textoberfläche der Outputs dürfen nicht darüber hinwegtäuschen, dass sich darin inhaltlich Falsches, Fragwürdiges, Verkürztes, Tendenziöses verbirgt.

These 2: KI soll das Lernen durch Schreiben unterstützen und nicht verhindern. Schreiben ist nachweislich ein effektives Instrument für das Lernen. Dafür sollte es auch genutzt werden.

Vignetten:

  • Studentin A füttert Claude.ai mit Fragestellung, Theorie- und Ergebnisteil ihrer Bachelorarbeit und lässt den Diskussionsteil von der KI generieren.
  • Studentin B formuliert ihren Diskussionsteil selbst, indem sie die Ergebnisse auf die Fragestellung bezieht und diese mit Modellen und Studien aus dem Theorieteil abgleicht und einordnet.

KI-Tools sind auf Schnelligkeit und Aufgabenerledigung ausgerichtet. Das macht sie attraktiv. Deshalb ist wichtig, dass diese Systeme reflektiert und eigenverantwortlich genutzt werden. Dies bedeutet: Die Tools kommen dort sinnvoll zum Einsatz, wo sie das Lernen durch Schreiben unterstützen und es nicht verhindern – etwa bei der Quellenrecherche, der Datenstrukturierung, beim Generieren inhaltlicher Impulse und Ideen, für Feedback oder bei der stilistischen und orthografischen Überarbeitung. Lese- und schreibbezogenen Aktivitäten, die auf das Denken höherer Ordnung – das Anwenden, Analysieren, kritische Evaluieren und Kreieren (List u. Sun 2023; Philipp in Druck; Philipp 2022) – abzielen, sollten jedoch nicht an eine KI delegiert werden. Solche Schreibpraktiken sind kognitiv herausfordernd, aber für die Entwicklung von Fachexpertise unverzichtbar. Die Fähigkeiten zum Denken höherer Ordnung durch Lesen und Schreiben entwickeln sich in der kleinschrittigen Auseinandersetzung mit Texten. Sie führen dazu, dass tief, flexibel und kritisch über Gegenstände eines Fachs nachgedacht wird. Aufgrund ihres transformierenden Anforderungscharakters erfordern sie Genauigkeit in Analyse und Evaluation und deshalb Langsamkeit (Chen 2019).

Auch bei Arbeiten mit KI, die auf fremden Texten basieren, zum Beispiel beim automatischen Zusammenfassen, ist es notwendig, Output, Prompt und Ursprungstexte miteinander zu vergleichen. Denn häufig gilt es, unterschiedliche Texte aus mehreren Quellen im eigenen Text zu integrieren. Integrieren bedeutet, die verschiedenen Aussagen sinnvoll aufeinander zu beziehen und deren Perspektiven zu erkennen und zu kombinieren. Diese Mehrperspektivität und die qualitativen Unterschiede von Aussagen zu erfassen und nachzuvollziehen, zeichnet den Wissensaufbau und die gedankliche Eigenleistung beim Lernen und bei Prüfungen aus (Kuhn 2020). Dafür braucht es die Fähigkeit, Bezüge zwischen Themen aktiv herzustellen, insbesondere wenn Autor:innen nicht das gleiche Vokabular verwenden. Solche Verstehensleistungen verlangen ein genaues Lesen (Britt u. Rouet 2012). Dies gilt auch und insbesondere für die Nutzung KI-generierter Textangebote: Geben die Chatbots angemessen wieder, was in den verwendeten Quellen steht – und passt der Prompt überhaupt zu den Texten? Darum wird es in der Regel nötig sein, genau zu lesen und den Output anzupassen. Anders gesagt: Die Zeit, die man beim Schreiben spart, ist gut im Lesen und Überarbeiten reinvestiert.

INFOBOX

Das Angebot der PH Zürich zum Schreiben und Schreiben mit KI umfasst Weiterbildungen, Dienstleistungen und Beratungen.

MEHR ZU WISSENSCHAFTLICHEM SCHREIBEN UND SCHREIBEN MIT KI
Das Schreibzentrum der PH Zürich bietet Unterstützung beim wissenschaftlichen Schreiben und Schreiben mit KI sowie spezifische weitere Informationen zu Schreiben mit KI.

MODULE
Schreiben begleiten und beurteilen, ab 17. März, Campus PH Zürich
Wissenschaftliches Schreiben, ab 23. September, Campus PH Zürich

SCHREIBBERATUNG
Mittels Schreibberatungen für Personen und Teams hilft das Schreibzentrum der PH Zürich, Schreibkompetenzen weiterzuentwickeln und Texte zu optimieren.

LITERATUR
- Philipp, Maik. 2025 Digitales Lesen fördern. Göttingen: Vandenhoeck & Ruprecht.
- Philipp, Maik. 2025. Lesen digital: Komponenten und Prozesse einer sich wandelnden Kompetenz. Weinheim: Beltz Juventa.

Zu den Autoren

Alex Rickert ist Leiter des Schreibzentrums der PH Zürich und ist als Dozent in Weiterbildungsgefässen aktiv. Seine Arbeits- und Forschungsschwerpunkte sind Textlinguistik, Schreibberatung und -didaktik.

Maik Philipp ist Professor für Deutschdidaktik an der PH Zürich. Seine Schwerpunkte sind Lese- und Schreibförderung mit Fokus auf Evidenzbasierung.

Wissenschaftliches Schreiben – KI als Ghost, Partner oder Tutor

Text: Alex Rickert

Es gibt inzwischen empirische Evidenz dafür, dass Studierende und Schüler:innen mit KI zwar qualitativ bessere Texte schreiben, dadurch aber weniger Lernen in Bezug auf den Gegenstand im Vergleich zum Schreiben ohne KI (Ju 2023; Süße u. Kobert 2023). Es fragt sich daher, inwiefern der Einsatz von KI beim Schreiben zum Zweck des Lernens sinnvoll ist. Auf welche Weise sollen generative Bots beim Schreiben von Texten zum Einsatz kommen, damit sie den Schreibprozess unterstützen und gleichzeitig das Lernen durch Schreiben fördern? Dieser Frage geht der vorliegende Beitrag nach.

KI fürs Fachlernen nutzen – aber wie?

Ausgehend von einer Heuristik nach Steinhoff (2023) wird von drei Rollen ausgegangen, die eine generative KI beim Schreiben als zusätzlicher «Aktant» nebst der schreibenden Person spielen kann. Diese Rollen sind: Ghostwriter, Writing Partner und Writing Tutor.

  • Als Ghostwriter nimmt ein Large Language Model (LLM) einer Person das Schreiben ab. Eine Person formuliert einen Prompt oder eine interaktive Sequenz von Prompts, die den Schreibauftrag enthält. Der Output der KI wird übernommen und die Person beansprucht die Autorschaft dennoch für sich. Schreibkompetenz reduziert sich auf Prompting-Kompetenz.
  • Als Writing Partner schreibt die KI zusammen mit der Person, die das LLM bewusst und zielorientiert beim Schreiben miteinbezieht, sei es stellenweise, z.B. nur beim Überarbeiten, oder während allen Phasen des Schreibens. Die KI hat die Rolle einer Ko-Autorin. Im Vergleich zur Ghostwriter-Praktik interagiert der Mensch hier dynamisch und bringt sich selbst als Autor ein. Analog zu Ghostwring-Praktiken besteh die Gefahr, Fehlinformationen zu erhalten. Um ein LLM als Writing Partner zu nutzen, bedarf es hoher Lese- und Schreibkompetenzen. Die Person muss in der Lage sein, die Schreibaktivitäten metakognitiv zu steuern und entscheiden können, welche Art von KI-Einbezug zu welchem Zeitpunkt sinnvoll ist.
  • In der Rolle als Writing Tutor unterstütz ein KI-Bot eine Person beim Schreiben, indem er der schreibenden Person als «Quasi-Lehrperson» gegenübertritt. Die Person nimmt das LLM interagierend als Lerner:in in Anspruch.
Welche Rolle nimmt die KI bei der Unterstützung beim Schreiben ein? (Quelle: Adobe Stock)

Implikationen für das wissenschaftliche Schreiben mit KI: ein Diskussionsvorschlag

Im Folgenden werden die KI-Rollen anhand von Beispielen hinsichtlich ihres Potenzials fürs Lernen durch das Schreiben beurteilt. Hierbei wird auf prototypischen Phasen des Schreibprozesses – Planen, Formulieren, Überarbeiten – eingegangen. Die Beurteilung erfolgt anhand einer Ampel-Logik, wobei rot eine kritisch anzusehende, orange und grün eingefärbte KI-Praktiken legitime, aber im Falle des Writing Partners mit Vorsicht einzusetzende Rollen darstellen. Die Begründung zu den Urteilen folgt danach.

PLANENFORMULIERENÜBERARBEITEN
Ghostwriter

– Skizze oder Inhaltsverzeichnis für einen Text generieren (strukturell und inhaltlich) und übernehmen
    – Text ausformulieren lassen auf Basis von Prompts
    – Zusammenfassungen generieren
    – Fazit formulieren
– Text inhaltlich, strukturell, stilistisch und/oder formal revidieren lassen.
Writing Partner

– eigene Ideen weiterentwickeln
– Strukturvorschläge zu definierten Inhalten generieren
– Brainstorming mit integraler Plausibilitäts- und Wahrheitsprüfung
– Hypothesen formulieren aufgrund zuvor festgelegter Variablen
– Reformulieren der Fragestellung
– einen selbst geschriebenen Abschnitt kürzen
– Formulierungs-alternativen generieren
– Text inhaltlich, strukturell, stilistisch und/oder formal revidieren lassen, dabei Überarbeitungen hervorheben lassen und die Eignung der Revisionen selbst überprüfen
Writing Tutor

– Geplante Textstruktur auf Schlüssigkeit prüfen lassen
– Feedback zur Passung der geplanten Inhalte zu einer Fragestellung evaluieren lassen
– Tipps zum Vorgehen bei der Textplanung oder zur Recherche einholen
– Textsortenspezifische Formulierungshilfen erfragen
– Tipps zum Vorgehen beim Formulieren einholen
– Verschiedene Stile aufzeigen
– Rückmeldungen zur Lesefreundlichkeit, Satzlänge und zur Wortwahl einholen
– Feedback zu aufgabenbezogenen Passung von Inhalt, Struktur, Stil und/oder Korrektheit generieren und begründen lassen
– Tipps für die Schlussredaktion einholen
– Überarbeitungsvorschläge priorisieren lassen

The good, the bad and the buddy

Zur Beurteilung der Frage, welche Rolle der KI-Anwendung in welcher Phase des Schreibens lernförderlich und legitim ist, muss zunächst geklärt werden, was epistemisches Schreiben ist oder anders gefragt: Unter welchen Bedingungen ist Schreiben förderlich für das Fachlernen?

Dieser Frage liegt eine Vielzahl von weitverzweigten Theorien und empirische Arbeiten zugrunde, die hier nur sehr verkürzt und unvollständig erläutert werden. Der Nachweis, dass (Fach-)Lernen durch Schreiben erfolgt, wurde vielfach postuliert, theoretisch modelliert sowie empirisch nachgewiesen (z. B. Meta-Analysen von van Dijk et al. 2022; Graham et al. 2020; Bangert-Drowns et al. 2004). Es existieren mehrere Modelle, die die Funktionsweise des Lernens durch Schreiben beschreiben. Das verbreitete Modell von Galbraith und Baaijen (2018) geht davon aus, dass inhaltliche Konzepte als mental verknüpfte semantische Einheiten im Langzeitgedächtnis gespeichert sind. Beim Schreiben greift die schreibende Person auf dieses Repertoire zurück. Um ihr Schreibziel zu erreichen, aktiviert sie die gespeicherten Verknüpfungen in Syntheseprozessen, überprüft diese und fügt gegebenenfalls weitere Ideen aus bereits gespeicherten semantischen Einheiten oder externen neue Quellen hinzu. Im Prozess dieser Wissensaktivierung und -transformation findet Lernen statt.

Aus dieser Perspektive werden die drei KI-Rollen wie folgt eingeschätzt:

  • Ghostwriter: Keine oder minimale Notwendigkeit der Informationstransformation eigener Wissensbestände sowie kognitiver Syntheseprozesse in Bezug auf den Lerngegenstand. KI-Anwendung ersetzt den Lernprozess oder kürzt ihn ab. Prompting-Kompetenzen ersetzen Schreibkompetenzen.
  • Writing Partner: Wissensaktivierung und -transformation ist erforderlich. Die KI-Rolle unterstützt den Lernprozess, sofern die Sinnhaftigkeit und der Zeitpunkt der KI- Anwendung metakognitiv bewusst gesteuert sind sowie die Bereitschaft und die Fähigkeit vorhanden sind, Informationen des Outputs in eigene Wissensbestände zu integrieren und damit eigenes Wissen zu transformieren.
  • Writing Tutor: Wissensaktivierung und -transformation ist erforderlich. Eigene Textproduktion steht im Mittelpunkt. Unterstützung beim (strategischen) Vorgehen durch Instruktionen und Feedback der KI. Die KI-Rolle unterstützt den Lernprozess.

Fazit: Augen auf beim Prompten! 

Die drei KI-Rollen lassen sich nicht immer klar voneinander abgrenzen. Vor allem die Übergängen zwischen der Partner- und der Tutoren-Rolle sind fliessend. Die Heuristik zu diesen KI-Rollen, die in der obigen Tabelle beispielhaft Mensch-Maschine-Interaktionen in verschiedenen Phasen des Schreibprozesses aufführt, verstehen sich als Diskussionsbeitrag, um den sinnvollen und legitimen KI-Einsatz zu planen und zu reflektieren. Das hier angelegte Ampelsystem ist nicht apodiktisch zu verstehen. Auch die Ghostwriter-Rolle kann beim Schreiben unter Umständen lernförderlich sein. Etwa dann, wenn der Output als musterhaftes Beispiel einer Textsorte oder einer Formulierung studiert und dessen Merkmale analysiert werden. Solche Analysen können dabei helfen, Wissen über Textsorten aufzubauen.

Ein absolut zentraler Aspekt bei allen Formen der KI-Anwendung in Wissenskontexten ist der zweifelhafte epistemische Status der KI-Ausgaben. LLMs garantieren aufgrund ihrer Funktionsweise keine verlässlichen Outputs können keine Verantwortung für die Richtigkeit von Informationen übernehmen. Aus diesem Grund sprechen wissenschaftliche Publikationsinstanzen – z.B. Nature – den LLMs eine Autorschaft ab. Jede KI-Ausgabe muss deshalb minutiös daraufhin überprüft werden, ob sie wahr, vollständig, verzerrt und für das eigene Vorhaben relevant und valide ist. Dabei gilt: Je höher das Ausmass an Delegation von Schreibaufgaben an die KI ist, desto höher ist die Notwendigkeit, Informationen zu prüfen. Die KI-Anwendung Ghostwriter macht die Prüfung des Outputs unausweichlich, auch für die Writing-Partner-Rolle ist sie notwendig und für die Writing-Tutor-Anwendung mindestens empfohlen. Diese Prüfverfahren setzen digitale Lesekompetenzen voraus, die als «epistemisch wachsames Lesen» (Philipp 2021; 2023) bezeichnet werden. Verkürzt gesagt, versteht man darunter Fähigkeitenbündel, um die Plausibilität von Aussagen, die Vertrauenswürdigkeit von Quellen, die Kohärenz von Aussagen oder die Entstehung und Interpretation von Daten zu evaluieren. Es sind in erster Linie diese Fähigkeiten, die für das Lernen durch Schreiben mit KI geschult werden müssen und dies mit Vorteil zusammen mit einem Menschen in der Rolle eines Reading Tutors.

INFOBOX

Das Schreibzentrum der PH Zürich bietet Module zum Schreiben an, in denen KI-Aspekte thematisiert werden:

Schreiben begleiten und beurteilen (Start: 17. März 2025)
Wissenschaftliches Schreiben (Start: 23. September 2025)


Auch für literarische Zugänge zum Schreiben finden Sie beim Schreibzentrum Angebote – z.B. das Modul Biografisches Schreiben (Start: 30. April 2025).


Einzelpersonen, Teams und Organisationen bietet das Schreibzentrum Weiterbildungen und Schreibberatungen in Form von Coachings, Kursen oder Workshops an. Kontaktieren Sie uns! schreibzentrum@phzh.ch

Zum Autor

Alex Rickert ist Leiter des Schreibzentrums und ist als Dozent in Weiterbildungsgefässen aktiv. Seine Arbeits- und Forschungsschwerpunkte sind Textlinguistik, Schreibberatung und -didaktik.

Schreiben an Hochschulen in Zeiten von KI – das tiefe Nachdenken wird zukünftig noch nötiger

Text: Maik Philipp

Wenn wir Texte an der Hochschule schreiben, verfolgen wir damit häufig den Zweck, Wissen zu dokumentieren, es zu kritisieren oder es weiterzuentwickeln. Dabei stützen wir uns zum einen auf Wissensquellen wie andere Texte, aber auch auf unsere eigenen Ideen. Was für Forschende gilt, wird auch für das Lernen im Rahmen des Studiums beansprucht. Diese traditionelle Sicht auf das, was «epistemisches Schreiben» genannt wird, hat sich zu verändern begonnen, seitdem mit ChatGPT ein Game Changer aufgetreten ist, dessen mögliche Auswirkungen zurzeit Gegenstand von umfassenden Abwägungen sind. Automatische Textproduktion mittels Large-Language-Models ist die vorerst letzte, aber bei Weitem nicht einzige technologisch basierte Etappe in der offenen Frage, wie wir hochschulisches Lernen und Lehren betreiben wollen, wenn neue Technologien aufkommen.

Reine Reproduktion beim Schreiben und die Ausweichmöglichkeiten

Vielleicht ist es gar nicht unbedingt die technische Seite, die im Kern das Problem ausmacht. Die Frage, die sich stellt, wenn Algorithmen Texte herstellen, betrifft natürlich Chancen der Arbeitserleichterung und Risiken der Eigenleistungsbestimmung. Aber sie tangiert doch viel mehr eine andere Grundsatzthematik: Wozu und was schreiben wir denn an den Hochschulen noch bzw. lassen wir schreiben? Damit sind unweigerlich Zielvorstellungen angesprochen und infolgedessen wiederum die Notwendigkeit, sich über diese Ziele Gedanken zu machen. Solche Klärungsnotwendigkeit besteht freilich nicht nur bei den Prüfungsformaten, sondern zusätzlich bei den Lernaufgaben, ja: beim Lernen allgemein.

Dabei müssen wir keineswegs wieder von Null starten. Die Lehr-Lern-Forschung hat sich intensiv damit beschäftigt, wie das Schreiben das Fachlernen unterstützt und welche Arten von kognitiven Prozessen und welche Arten von Wissen für das Lernen unterscheidbar sind. Dabei wird schnell deutlich, dass es verschiedene Facetten des Lernens gibt, die sich darin unterscheiden, wie stark Gegenstände im Rahmen des Lernens kognitiv verändert werden müssen. So kann zum Beispiel unterschieden werden, ob man eine Theorie nur wiedergeben, ihre Logik und Anwendungsgebiete erläutern, sie auf einen Fall anwenden, sie mit einer anderen Theorie vergleichen oder begründet kritisieren soll. Je nach Aufgabe müssen Lernende zu sehr unterschiedlichen Dingen kognitiv in der Lage sein. Nicht alles davon ist in allen Fällen immer gefragt oder sinnvoll, aber entscheidend ist, dass wir Lernaufgaben profilieren und charakterisieren können, welche Prozesse sie einfordern und welche Wissensarten sie touchieren. Wir können zudem kartieren, welche Prozesse und Produkte des Denkens höherer Ordnung wir lesend und schreibend an Hochschulen nutzen wollen und wie wir Enkulturation in Wissensgemeinschaften mit dem Schreiben verbinden.

KI-generierte Texte müssen von kritisch denkenden Personen eingeschätzt werden.

Was automatische Textproduktion zumindest ansatzweise kann, ist das Reproduzieren von Inhalten auf der Basis von Mustererkennung in riesigen Textkorpora, anhand derer der Algorithmus trainiert wurde. Dass Tools wie ChatGPT diese Reproduktion sprachlich auf hohem Niveau leisten, mag arbeitserleichternd sein, aber es entbindet nicht davon, wozu Personen schreibend in der Lage sein müssen: einem evaluierenden Verarbeiten, welches seinerseits Verstehen voraussetzt. Ein ChatGPT-Text ist zunächst ein Angebot. Dessen Eignung oder Nicht-Eignung, seine Richtigkeit, seine Angemessenheit und seine Verwertbarkeit bemessen sich daran, dass die Texte von kritisch denkenden Personen eingeschätzt werden müssen. Hier bestehen Ausweichmöglichkeiten für die Hochschullehre, die teils zutiefst in das hineinragen, was zum Beispiel im Falle des naturwissenschaftlichen Lernens gefordert wird. Wir können und sollten uns darum Lern- und Leistungsaufgaben überlegen, welche das Denken höherer Ordnung fördern und fordern. In diesen Aufgaben sollte weniger die Reproduktion eine Rolle spielen als die begründete und begründbare Evaluation von Aussagen und ihrem Geltungsanspruch als Wissen.

Prüfen von Aussagen als immer wichtiger werdende Fähigkeit: Was ist weshalb wahr und wer ist warum vertrauenswürdig?

Was es – nicht nur bei KI-basierten Texten – zu prüfen gilt, ist die Plausibilität, also die potenziell zugeschriebene Wahrheit von Aussagen, und die Vertrauenswürdigkeit von Quellen hinter der Aussage. Die Leseforschung nennt dies Erste- und Zweite-Hand-Einschätzung. Die Zuweisung von Plausibilität als Erste-Hand-Einschätzung ist an Wissen über den Gegenstand, kohärentes Begründen von Aussagen und auch die Produktion von wissensbezogenen Aussagen gebunden. Die Bestimmung der Vertrauenswürdigkeit als Zweite-Hand-Einschätzung bemisst sich daran, welchen Personen und Organisationen zugestanden wird, sich inhaltlich qualifiziert und gesellschaftlich wohlwollend zu äussern, weil Expertise und Redlichkeit unterstellt werden. Solche Zweite-Hand-Beurteilungen von Aussagen werden von ChatGPT zwar erschwert, aber sie sind dadurch nicht unwichtiger geworden – im Gegenteil. Vielmehr geht es zunehmend um die Abwägungen, was warum wahr ist und wie wir sinnvoll vorgehen, um begründbare und ausreichend sichere Antworten auf diese Frage zu finden. Anders gesagt: Das tiefe Nachdenken und mit ihm eine Entschleunigung wirken nötiger denn je.

Damit ist ein Bündel von Fähigkeiten angesprochen, welches in der Leseforschung schon seit Längerem als wichtig erachtet wird und durch die Zunahme an digitalen Texten und Dokumenten noch an Bedeutung gewonnen hat. ChatGPT und andere KI-Applikationen werden diese Fähigkeiten mutmasslich nicht weniger wichtig werden lassen. Darin liegt auch eine Chance, Lern- und Lehrprozesse an den Hochschulen anzupassen.

INFOBOX

Das Schreibzentrum der PH Zürich pilotiert derzeit Kurse für Studierende und Dozierende. Im Kern der Angebote stehen Prozesse des Lernens. Die Erfahrungen werden voraussichtlich am Tag der Lehre der PH Zürich (2. Februar 2024) im Workshop «Los, KI, denk für mich?! Lernen und Lehren mit Texten» vorgestellt.

Zum Autor

Maik Philipp ist Professor für Deutschdidaktik an der PH Zürich. Seine Schwerpunkte sind Lese- und Schreibförderung mit Fokus auf Evidenzbasierung.

Promoting Authentic Assessment in the Age of Artificial Intelligence

Text: Mònica Feixas

In the actual context of higher education, the emergence of artificial intelligence (AI) tools introduces a multitude of challenges to conventional assessment practices. While we are witnessing that certain teaching and learning activities may eventually be performed by AI to a relatively good standard, we cannot fully rely on the generated content because it can exhibit deficiencies in accuracy, comprehending context, coping with intricate analysis or being ethical. For rigorous scholarly pursuits, it is necessary to empower students to critically discern and interpret data, to identify bias and ensure fairness, and to make choices aligned with human values, that is: to form evaluative judgements (EJ). This blog is about practices that foster EJ within the context of authentic assessment tasks, answering questions such as: What precisely constitutes an authentic assessment task? What practices promote EJ in the context of authentic assessment tasks? How can we effectively leverage tools like ChatGPT to facilitate the development of evaluative judgement?

Can artificial intelligence give you a realistic assessment of your work? (Image source: Adobe Stock)

Authentic Assessment Tasks in Higher Education: a Response to traditional Assessments

Authentic assessment tasks have emerged as a meaningful response to address the limitations of conventional assessment methods in higher education (Clegg & Bryan 2006). They require students to perform as professionals within the actual social and physical contexts of a specific field, demanding the demonstration of skills and knowledge reflective of real-world scenarios.  

Authentic assessment aims to replicate the tasks and performance standards typically found in the world of work and has been found to have a positive impact on student learning, autonomy, motivation, self-regulation and metacognition; abilities highly related to employability.

(Villarroel et al. 2018)

Different displays of knowledge and performance can be encouraged based on the selected assessment formats employed to assess students‘ learning:

Figure 1: Continuum from traditional to authentic assessment approaches (own elaboration)

While traditional assessment formats focus on the demonstration of Knowing (e.g. through factual tests or MCQs) or Knowing How (context-based tests, MCQs, problem solving), authentic assessment also emphasize Showing How (performance based, objective school observations, problem-based learning, scenarios, portfolios) and Showing Doing (performance based tasks, work/professional experience, patient care, pupils’ teaching) (Sambell & McDowell 1998)

Designing authentic tasks can be done by following the five-dimensional framework from Gulikers, Bastiaens and Kirschner (2004) (reproduced in Figure 2) with pertinent questions in relation to each dimension. Another alternativ is Sambell’s guide. In both cases, effective assessments work in tandem with teaching and learning activities to help students develop long-term approaches to learning.

Figure 2: Framework for designing authentic assessment (adapted from Gulikers, Bastiaens and Kirschner 2004

Examples of authentic assessment tasks can be found in Jon Mueller’s Authentic Assessment Toolbox, or Kay Sambell and Sally Brown.

Evaluative Judgement: a crucial Skill in the Age of AI 

Following Villarroel et al. (2018), authentic assessments should include at least three components: 

  • Realism, to engage students with problems or important questions relevant to everyday life; 
  • Cognitively challenging tasks that prompt students to develop and use higher levels of thinking to use knowledge, process information, make connections and rebuild information to complete a task (rather than low-level recall or reproduction of facts); 
  • Opportunities to develop Evaluative Judgement and enhance the self-regulation of their own learning. 

Evaluative judgement is the capability to make decisions about the quality of work of oneself and others.

Tai et al. (2018)

In the age of AI, supporting students navigate the fake news world, veracity of data and reflect the work being presented by ChatGPT or other artificial intelligence tools is crucial. It is only possible if students develop a deep understanding of topics and of quality and help them assess quality of a product or performance. EJ is all about engaging with grading criteria, improving the capacity to appreciate the features of «quality» or excellence in complex outputs and developing the ability to provide, seek and act upon feedback. 

EJ is additionally a skill that interacts with self-regulated learning. When students develop an understanding of quality, they are better able to apply feedback, and become less reliant on external sources of feedback. Students who can self-regulate and judge their own work can be more autonomous in their learning. It is suggested that students with these attributes may make a smoother transition into the workforce (Tai et al. 2018)

EJ is also relevant from a perspective of inclusive education. A Delphi Study with 10 international experts on authentic and inclusive assessment showed that activities which develop EJ include discussions of quality with their students, listen to students‘ perspectives and have the potential to be more inclusive by ensuring that all students have a shared understanding of standards and criteria (Feixas & Zimmermann 2023).

Practices supporting the Development of Students’ evaluative Judgement

In order to apply EJ we have to consider its two key components: the contextual understanding of the quality of work, and the judgement (and articulation thereof) of specific instances of work. This can be applied to the work or performance of both self and others.   

Research suggest the following practices to developing the EJ components (Bouwer et al. 2018; Tai et al. 2018; Sridharan & Boud 2019):

  1. Exemplars:  
  • Students receive various examples of expected standards for evaluating their own and others‘ performance, including progress notes, reports, learning goals, reflection sheets, and intervention strategies. They are provided alongside grading criteria, and can be used for  review, or students can discuss exemplar assignments in groups. 
  • Video-feedback, like «live marking» screencasts, can also be utilized to demonstrate different levels of work quality. See the three examples by Dr. Nigel Frances (University of Swansea):  
  1. Assessment criteria and rubrics: 
  • Checklists, templates, or rubrics are provided to help students reflect on their achievement of competencies. 
  • Students engage with criteria by discussing the meaning and distinguishing features of work at each level of the rubric. 
  • Involving students in translating generic grade descriptors into assignment-specific grading criteria, and involving students in designing own rubrics with ChatGPT enhances their understanding. 
  1. Peer-review and feedback: 
  • Students engage in providing feedback on their peers‘ work-in-progress based on the grading criteria, focusing on elements where they can offer valuable insights, such as i.e. argument strength in the case of a ChatGPT-text. 
  1. Self-appraisal or self-assessment:  
  • Students appraise their own work against grading criteria to show their development of EJ.  
  • They submit cover sheets where they self-assess their work before assessment and receive feedback about it. Such feedforward supports improvement from one task to another (Sadler, Reimann & Sambell 2022).   
  • This higher-level thinking process involves reflection, identifying potential improvements, and working towards integration in an ongoing manner. 

A fictitious Example of an Authentic Assessment Task in an Educational Psychology Course and the Use of ChatGPT to enhance Evaluative Judgement Practices

Task-Title: Inclusive Education Initiatives – An Educational Psychology Project for Social Impact 

In this group task, students design an inclusive education initiative that not only addresses educational psychology principles but also seeks to foster diversity, equity, and inclusion in educational settings. The goal is to create a project that promotes an inclusive learning environment, where every pupil thrives academically and socially. Rubrics, self-and peer-assessment options, exemplars, and feedback are practices deployed to strengthen their evaluative judgement skills.  

Part 1: Identifying the Need

Students conduct research on challenges in marginalized communities‘ access to quality education. They are allowed to use AI-tools after their initial research to broaden their understanding of the educational psychology concepts related to the identified communities. AI can assist, for example, in providing new data, visualisations, translating information from other languages, condensing content summaries or responding questions. Students‘ critical analysis and ethical review of the generated content is crucial in interpreting results and making summaries or recommendations. The teacher afterwards provides feedback to the groups to improve the needs assessment. 

Part 2: Project Design

Based on their research, students develop evidence-based inclusive education initiatives. ChatGPT can be utilized to help students with intervention strategies, best practices, and approaches used in similar contexts. A possible prompt is: «Identify evidence-based interventions that have demonstrated success in narrowing the education gap among underserved populations.» Peer-assessment is encouraged to critically evaluate their different project designs and identify differences between versions of ChatGPT. Groups include improvements done after peer-feedback. 

Part 3: Social Impact Assessment

Students describe the potential social impact of their initiatives and self-evaluate it with a rubric containing criteria about how the project can contribute to breaking down barriers, promoting social cohesion, and enhancing educational opportunities for the targeted group. 

Part 4: Stakeholder Engagement

Students present their projects to stakeholders and utilize feedback to enhance their engagement strategies, ensuring buy-in and long-term sustainability. After the presentation and before the final submission, teacher offers exemplars based on successful projects in similar contexts. 

Final Reflection:

Students utilize a rubric to self-assess their projects, reflecting on strengths, limitations, and ethical considerations. The final project is submitted alongside an individual reflection highlighting aspects of the use of EJ. Final feedback is provided by the teacher to foster growth and improvement.

INFOBOX

Empowering academics to promote Evaluative Judgement – three training opportunities:

We want to empower teachers to design authentic assessment practices to better create work-ready graduates, who are able to operate independently in rapidly evolving, technologically-enabled environments and to promote EJ as means to judge the quality of work through standards.
At ZHE, we offer a half-day course online on Authentic Assessment and Evaluative Judgement: «How to judge the quality of my own work and that of others, including ChatGPT? Evaluative Judgement in the context of authentic assessment tasks». 27th September 2023, 13–17h, online.

From February to May 2024, the PH Zürich offers a one-time course: «Beyond Exams: Designing Authentic Assessment and Feedback Practices». The 1.5 ECTS module takes place in the context of the international project «PEER-Net» of the Department Projects in Education (PH Zürich). The course is taught in a team-teaching format by experts in assessment and feedback of the Faculty of Education of the University of Pristina in Kosovo and the ZHE. The participation in this module includes a reciprocal visit (Swiss scholars to Kosovo and the colleagues of Kosovo to Zurich), classroom visits and discussion with students.

In the context of our CAS Hochschuldidaktik, the module «Assessment und Evaluation» offers a comprehensive exploration of these subjects. 26th October to 7th December, PH Zürich. Enrol now!

About the Author

LINKEDIN
Share
INSTAGRAM