Als der Roboter laufen lernte

Text von Charlotte Axelsson

In China jagen humanoide Roboter einem Halbmarathon hinterher und an der ZHAW spaziert der Unitree G1 durchs Gebäude und sorgt für Aufsehen. Roboter sind längst nicht mehr nur futuristische Ideen, sondern Teil unseres Alltags – als Haushaltshelfer, KI-Influencer oder Bildungs-Bots. Doch was steht als Nächstes auf der Agenda der Robotik? Ich gebe einen kompakten Einblick in die rasante Entwicklung dieser Technologie, beleuchte die Kunst als Experimentierfeld und teile persönliche Erfahrungen aus der Roboterkunst.

Was ist ein Roboter?

Ein Roboter ist technisch eine sensomotorische Maschine: Er nimmt seine Umwelt über Sensoren wahr, verarbeitet Informationen mithilfe eines Rechners und reagiert über mechanische Komponenten. Oliver Bendel, Autor von Soziale Roboter, beschreibt Roboter als selbstständig handelnde Systeme, die menschliche Aufgaben übernehmen und unsere Handlungsfähigkeit erweitern. Er unterscheidet Industrie-, Service-, Weltraum- und Kampfroboter sowie Softwareroboter wie Chat-GPT oder Crawler.

Mit der Weiterentwicklung von KI, insbesondere Large Language Models (LLMs), ist die Verständigung zwischen Mensch und Maschine einfacher, schneller – und vor allem günstiger – geworden. Verbesserte Sensorik und Beweglichkeit machen Roboter zugleich autonomer und agiler. Spürbar ist der Wettlauf zwischen den USA und China: Wer bringt den ersten humanoiden Roboter in marktfähiger Stückzahl? China hat 2025 mit dem G1 von Unitree für rund 14’000 Franken vorgelegt. Das erinnert an die Mondlandung: Wer ist zuerst da?

Kunst als Labor

Um das Thema nicht nur technisch zu betrachten, streife ich durch Kunst- und Kulturwelten – ideale Orte zum Experimentieren, Spielen und kritischen Hinterfragen. Deswegen besuche ich regelmässig Independent-Veranstaltungen und Ausstellungen, in denen – ohne kommerziellen Druck – Überraschendes entsteht. Dort wird das Thema emotional und nahbar; ich kann analog reflektieren und mit Künstler:innen sprechen. Nachfolgend drei Einblicke: die Performance AcRobotics am Robotival, eine Fotoinstallation an der Vernissage Terms of Exposure sowie die Performance Friendly Fire at the Shrink.

Performance AcRobotics von Daniel Simu (Foto: Charlotte Axelsson)

Robotival: Wo Robotik auf Kunst prallt

Im Mai war ich auf dem Robotival im Zürcher Dynamo: ein Festival, bei dem Robotik auf Kunst und Forschung auf Alltag trifft – so die Veranstalter. Besonders beeindruckte mich die Performance von Daniel Simu, einem niederländischen Künstler mit Akrobatik-Hintergrund. Im Gespräch betonte Simu, wie wichtig es ihm sei, Roboter als technische Werkzeuge zu sehen – und zugleich als Spiegel unserer Vorstellungen von Körper, Kontrolle und Kreativität. Eine Verlängerung unseres Ichs. Seine Analogie: Ein Stuhl, auf den ich mich setze, verlängert mich – und der Stuhl fühlt nichts.

Mit einer kleineren Version seines Akrobatik-Roboters besucht Simu Schulklassen, erzählt er mir. Im Klassenzimmer klärt er zuerst immer die gleichen Fragen: Warum hat der Roboter keinen Kopf? Warum wirkt er trotzdem menschlich? Kann er traurig sein? Tut es ihm weh, wenn er fällt? Dann greift Simu zu seiner Stuhl-Analogie: Wir geben immer Emotionen in die Maschine – nie die Maschine in uns. Ein Stuhl hat auch keinen Kopf, verlängert uns aber dennoch.

Trotz dieser guten Erklärung: Für mich hatte die Performance AcRobotics einen klaren «Jö-Faktor». Offenbar bin ich nicht gefeit vor Anthropomorphisierung, der Vermenschlichung von Dingen.

Installation Terms of Exposure von Raphaela Pichler (Foto: Charlotte Axelsson)

Bots als Manipulator

Etwas später im Mai war ich bei Raphaela Pichler auf der Vernissage Terms of Exposure. Dort begegnete ich einer Installation: aussen eine verspiegelte Fotobox, innen ein Bot, der Identitäten verwebt – ungewohnt und wunderbar philosophisch. Pichler meint: Die Maschine liegt zwischen Eingabe und Ausgabe, zwischen Nähe und Verfremdung – und sie zerfasert Identität. Sie spricht mit mir und fragt: Bin das ich – oder der Algorithmus in meinem Gesicht? Am nächsten Tag, als ich die Fotos auf meinem Handy anschaue, frage ich mich tatsächlich: Sehe ich noch mich – oder bereits eine algorithmisch veränderte Version?

Therapie mit dem Chatbot

Etwas später liess ich mich in der Performance Friendly Fire at the Shrink – einer Chatbot-Therapiesoftware von Manuel Hendry – acht Minuten «therapieren». Irritiert, keineswegs mit «Jö-Effekt», verliess ich den Raum. Mit Hendry reflektierte ich danach: Was bleibt? Die Einsicht, dass nicht die Maschine entscheidet, sondern wir. Wer übernimmt Verantwortung – Staat, Big Tech, Gesellschaft? Und wie verhindern wir, dass Technik uns bevormundet, statt uns zu unterstützen?

Wandel statt Wettlauf

Ich fasse zusammen: Robotik ist kein Wettlauf um Marktanteile, sondern löst einen gesellschaftlichen Wandel aus. In künstlerischen Kontexten wird Robotik zum Resonanzraum, in dem wir Technik emotional begreifen, experimentieren, diskutieren und Verantwortung aushandeln. Dabei bleibt Technik Werkzeug und nicht Subjekt: Denn Roboter erweitern unsere Handlungsmöglichkeiten, doch Gefühle und Verantwortung sind und bleiben menschlich. Deshalb braucht es gesellschaftliche Auseinandersetzung – der Wandel wird nicht von Konzernen allein vorangetrieben.

INFOBOX

Beratung oder regelmässige Inputs zum Thema Roboter in der Lehre gibt's im Zentrum Digital Learning.

In diesem Interview spricht Charlotte Axelsson und anderem über Lernroboter.

Im Museum für Gestaltung können Sie sich in der Ausstellung Museum of the Future – 17 digitale Experimente vom 29. August 2025 bis 1. Februar 2026 inspirieren lassen.

Weitere Literaturtipps zum Thema

- Oliver Bendel: 300 Keywords Generative KI
- Kate Crawford: Atlas der KI
- Charlotte Axelsson: Tender Digitality
- Kazuo Ishiguro: Klara und die Sonne

Zur Autorin

Lernen oder überspringen? Wie generative KI Lernwiderstände verstärken kann

Text: Stefanie Dernbach-Stolz und Dominic Hassler

In der (zunehmend digitalen) Bildungswelt scheint Effizienz das oberste Ziel zu sein: Inhalte werden komprimiert, Lernpfade automatisiert und ganze Fähigkeiten per «Skill Skipping» übersprungen. Warum werden beim Lernen Abkürzungen genommen? Wie entwickeln sich Lernwiderstände? Und was hat das mit generativer KI zu tun?  

Menschen neigen laut der «Cognitive Miser Theory» dazu, kognitiven Aufwand zu vermeiden (Fiske & Taylor 2013). Lernende haben das schon früher getan – etwa durch Abschreiben. Mit KI-Tools wie Chat-GPT ist das heutzutage einfacher denn je.

Heute können wir in vielen Schulzimmern und Weiterbildungskursen beobachten, dass Lernende Aufgaben direkt mit Chat-GPT lösen. Nuxoll (2024) nennt das «Skill Skipping»: Es wird ein Resultat abgegeben, aber kein Lernprozess durchlaufen. Doch Lernen entsteht nicht durch richtige Antworten, sondern durch eigenständiges Denken.

Es entbehrt nicht einer gewissen Ironie, dass Aufgaben so zu lösen als kompetenzorientiert ausgelegt werden kann. Tatsächlich dürfte es in vielen beruflichen Situationen sinnvoll sein, Aufgaben wie bspw. das Verfassen einer E-Mail mit einem KI-Sprachmodell zu erledigen. Trotzdem ist es in einem Bildungssetting nicht zielführend das zu tun, da das Schreiben (und damit verbunden auch das Lesen) weniger effektiv erworben wird.

Eine Metapher hilft uns, dies zu verdeutlichen: Es ist allen klar, wie absurd es wäre, einen Roboter ins Fitnesscenter zu schicken, wenn man seinen Körper trainieren möchte. Weniger offensichtlich, aber genau gleich absurd sollte es sein, in Bildungskontexten eine Lernaufgabe mit Chat-GPT zu lösen. Denn Bildungsinstitutionen sind die Fitnesscenter für das Gehirn. Wenn man nicht hingeht und die grauen Zellen bei den Übungen selbst anstrengt, gibt es keinen Trainingseffekt bzw. Lernzuwachs.

Zwei Roboter trainieren im Fitnesscenter. Quelle: leonardo.ai

Betrachtet man das «Skill Skipping» aus der Perspektive des Lernwiderstandes, stellt sich die Frage, warum Lernen nicht positiv konnotiert ist. Häufig wird das Lernen in Bildungskontexten als Zumutung wahrgenommen, was Widerstände und Vermeidungsstrategien erzeugt (man denke da nur an die eigene Schulzeit zurück). Dabei ist es ein zentrales Ziel von Lehrpersonen, Dozierenden und Erwachsenenbildner:innen, gelingendes oder erfolgreiches Lernen zu ermöglichen. Entsprechend stellt sich die Frage, wie und warum Lernwiderstände entstehen. Gemäss der subjektwissenschaftlichen Lerntheorie entstehen Lernwiderstände dann, wenn die Lernenden keinen subjektiven Sinn in einer Lernsituationen erkennen können oder sich gezwungen fühlen zu lernen – ohne dass es ihnen einen persönlichen Nutzen erbringt. Dies führt dazu, dass sie sich verweigern, unmotiviert sind oder nur oberflächlich lernen (Holzkamp 1993). Dabei kann man zwischen zwei grundlegenden Lernformen unterscheiden:

(Abb. 2. Quelle: Foucault 1993)

Defensives Lernen: Bei dieser Form findet Lernen unter Druck oder Zwang statt. Die Lernenden lernen, weil sie lernen müssen, um etwa eine Prüfung zu bestehen oder um Sanktionen zu vermeiden. Bildlich überspitzt kann man dies in der Grafik (Abb. 2) sehen, die eine Gefängnisszene darstellt, bei der die Insassen einem Vortrag zu den Folgen von Alkoholismus zuhören müssen. Bei dieser Form des Lernens entstehen häufig Lernwiderstände, da das Lernen nicht aus innerem Antrieb stattfindet. Expansives Lernen: Bei dieser Form geschieht Lernen aus eigenem Interesse und zur Erweiterung der eigenen Handlungsmöglichkeiten. Dadurch wird das Lernen als sinnvoll erlebt, weil es in einem Zusammenhang mit den eigenen Zielen, Interessen und Lebenszusammenhängen steht. In solchen Fällen treten kaum Lernwiderstände auf. (Holzkamp 1993)

Die Unterscheidung dieser zwei Lernformen ist für die Erklärung von Lernwiderständen wesentlich. Dennoch lassen sich Lernwiderstände nicht allein durch das Anwenden von expansiven Lernformen auflösen.

Einerseits sind die Gründe und Ursachen für Lernwiderstände vielfältig. Dazu gehören u.a. die fehlende Relevanz des Lerngegenstandes oder der mangelnde praktische Nutzen, bestehende (Bildungs-) Erfahrungen und Einstellungen und Wertehaltungen als auch die persönliche Lebenssituation (soziale Herkunft, Alter, Familie, etc.) die dem Lernen im Wege stehen können (Faulstich/Grell 2004).

Andererseits lassen sich Prüfungen o.ä. nicht immer umgehen. Die effizienzorientierte bzw. defensive Lernperspektive betont jedoch vor allem Standardisierung, Vergleichbarkeit und Messbarkeit. Das widerspricht expansivem Lernen. Wenn Aufgaben oder Lernpfade zu weit von der Lebenswelt der Lernenden entfernt sind und nicht als bedeutsam erlebt werden, reagieren diese oft defensiv – etwa mit automatisiertem Durchklicken oder KI-Nutzung. In diesem Fall setzen die Lernenden sich nicht tiefergehend mit Inhalten auseinander und haben keine Möglichkeit, eigene Lerninteressen zu verfolgen oder eigene Fragen zu entwickeln. Dies führt dazu, dass Lernen noch stärker als fremdbestimmt erlebt wird, was noch mehr Lernwiderstände auslösen kann. Ein Teufelskreis.

Was können Lehrende tun? – Anregungen zum expansiven Lernen

KI kann selbstgesteuertes Lernen untergraben. Sinnstiftendes Lernen braucht Zeit und Subjektivität – nicht nur Technik. Zentral ist, dass Lehrende unreflektierte Anwendungen von KI erkennen und handeln. Hier einige Anregungen:

Mit den Lernenden über das Lernen sprechen. Dadurch entstehen Reflexionsräume, in denen ein Bewusstsein geschaffen werden kann, wodurch die subjektive Relevanz gestärkt wird. Das braucht Zeit für Fragen, Irritationen und Selbstverortung. Und die Lehrenden erhalten ein besseres Verständnis für den Ursprung der Lernwiderstände, was sie wiederum handlungsfähig macht. Naheliegend wäre etwa die Lernenden in Gruppen über das Bild der beiden Roboter (Sie dürfen es gerne verwenden) diskutieren zu lassen und dabei gleich Transparenz zu schaffen: «Sie können (fast) alle Aufgaben im Unterricht mit KI lösen. Wollen Sie das – und warum?». So wird das Bewusstsein für den Lernprozess gefördert.

Von der Kultur des richtigen Resultats zur Kultur des Lernprozesses. Wenn Lehrende dem richtigen Resultat eine hohe Bedeutung zumessen, bspw. indem sie nur die Lösungen der Lernenden auf Richtigkeit kontrollieren, geben sie den Lernenden unbewusst einen Anreiz, KI für all diese Aufgaben zu nutzen. Stattdessen ist es zielführender, ein Bewusstsein dafür zu schaffen, dass ein richtiges, KI-generiertes Resultat für das Lernen weitestgehend wertlos ist. Der Weg zum Resultat, also der Lernprozess, ist zentral, ebenso die dabei gemachten Fehler. Aus diesen lässt es sich hervorragend Lernen. Bewertungen dokumentieren in diesem Sinne die Lernfortschritte und nicht das Resultat. Für manche Lehrende ist das ein grosser, aber essenzieller Kulturwandel.

Abb. 3
(Quelle: LinkedIn)

Verantwortung an Lernende übergeben. Viele Lehrende möchten nicht ständig mit dem Zeigefinger darauf hinweisen, dass die Lernenden keine KI für das Lösen der Aufgaben verwenden sollen. Zudem gibt es manchmal durchaus Aufgaben, bei denen KI-Unterstützung hilfreich sein kann. Folgende Idee stammt von Tobias Seidl: Aufgaben, bei denen es zur Erreichung der Lernziele wichtig ist, dass zunächst selbst nachgedacht wird, werden mit einem Warnhinweis markiert (Abb. 3). Dadurch können Lehrende sich dem traditionellen Katz-und-Maus-Spiel entziehen. Die Lernenden fühlen sich ernst genommen und die Verantwortung für ihr Lernen und den KI-Einsatz geht subtil auf sie über.

Wenn Bildungsinstitutionen als «Fitnesscenter für das Gehirn» verstanden werden, darf der «Trainings»lernprozess nicht ausgelagert oder automatisiert werden. Gerade in einer von KI geprägten Welt ist es entscheidend, dass Lernende selbst denken, reflektieren und ihre Handlungsmöglichkeiten erweitern. Lehrpersonen und Bildungsverantwortliche sind deshalb gefordert, Lernsettings so zu gestalten, dass sie expansive Lernprozesse ermöglichen, statt defensive Vermeidungsstrategien befördern.

INFOBOX

Lehrgänge

In den folgenden Lehrgängen können Sie sich vertieft mit der Gestaltung von Lernprozessen in einer von KI geprägten Welt auseinandersetzen:
- CAS Unterricht gestalten mit digitalen Medien, ab 13. Januar 2026
- CAS Weiterbildungsdesign, ab 4. Februar 2026

Module

Die folgenden Module können einzeln gebucht und als Wahlmodul in verschiedenen CAS-Lehrgängen angerechnet werden:
- Lernen und Lehren mit künstlicher Intelligenz (KI), ab 19. August 2025
- Lernen und Weiterbildungsteilnahme Erwachsener, ab 3. März 2026

Zu den Autor:innen

Stefanie Dernbach-Stolz ist Dozentin an der PH Zürich und arbeitet im Zentrum Berufs- und Erwachsenenbildung. Sie ist Leiterin des CAS Weiterbildungsdesign.

A machine in need is a friend indeed? – Zu viel Vertrauen in KIs durch Vermenschlichung

Text: Yves Furer

Wenn Dinge misslingen, neigen Menschen dazu, nichtmenschlichen Objekten wie Maschinen menschliche Eigenschaften zuzuschreiben. So scheint der Drucker persönlich etwas gegen mich zu haben, weil er immer dann nicht funktioniert, wenn ich ihn dringend brauche. In die Maschine wird ein Wille hineininterpretiert, wo keine Intention vorhanden ist. Solche Vermenschlichung oder Anthropomorphisierung hilft uns, Situationen zu bewältigen, in denen wir uns externen Faktoren ausgeliefert fühlen.

Ist mir der Drucker heute gut gesinnt oder nicht? (Bild: Adobe Stock)

Im Gegensatz zu Druckern, die weder aussehen wie Menschen noch bedeutungsvoll mit Menschen interagieren, sind moderne KI-Systeme genau dafür designt, menschlich zu wirken. Bei Chat-GPT und Co. stellt die Anthropomorphisierung ein Feature und kein Zufall dar. Der Erfolg grosser Technologiekonzerne beim Vorantreiben dieser Entwicklung wird sichtbar, indem es immer schwieriger wird, menschliche Äusserungen von KI-generierten zu unterscheiden. Im schriftlichen Dialog mit Chat-GPT-4 können offenbar viele Menschen nicht mehr mit Sicherheit sagen, ob sie sich gerade mit einem Menschen oder einer Maschine unterhalten (Mei et al. 2024). Doch wirken die Antworten von KI-Chatbots nicht nur deshalb menschlich, weil sie inhaltlich passend ausfallen, sondern KI-Chatbots beantworten beispielsweise medizinische Fragen in einem Online-Forum auch empathischer als medizinisches Fachpersonal (Ayers et al. 2023).

Auffällig ist, wie scheinbar mühelos menschliche Eigenschaften auf die KI übertragen werden, indem entsprechende Begrifflichkeiten verwendet werden. Schon der Begriff künstliche Intelligenz suggeriert, dass eine Entität vorliegt, die eine menschliche Eigenschaft, nämlich Intelligenz besitzt. Doch es stellt sich die Frage, ob KIs wirklich empathisch sind oder uns Menschen nur sehr gut vorspielen, dass sie es sind. Wären KIs empathisch, müssten sie die Gefühle von Menschen erkennen, verstehen und nachempfinden können. Während das Erkennen von Emotion durchaus funktioniert und wohl auch schon kommerziell genutzt wird (Monteith et al. 2022), dürften Verstehen und insbesondere das Nachempfinden Kategorien sein, über die die KIs noch nicht verfügen.

Die KI versteht dich. Oder doch nicht? (Quelle: Adobe Stock)

Vertrauen in KI: Ein zweischneidiges Schwert

Wie sich zeigt, bleibt es nicht ohne Folgen, wenn KIs menschliche Eigenschaften zugeschrieben werden, die sie gar nicht besitzen. Anthropomorphe Elemente scheinen das Vertrauen von Menschen in KIs zu erhöhen. Leider handelt es sich beim Vertrauen um ein zweischneidiges Schwert. Ein höheres Vertrauen kann den Umgang mit neuen Technologien erleichtern oder sogar dazu führen, dass sich Personen überhaupt auf eine neue Technologie einlassen. Andererseits besteht beispielsweise die Gefahr, dass Menschen in der Interaktion mit der KI zu viele, auch private Daten von sich preisgeben (Akbulut et al. 2024). Doch auch beim Lernen mit KI-Systemen können weitere Probleme entstehen, wenn insbesondere den KI-generierten Outputs zu viel Vertrauen entgegengebracht wird.

Mehr Vertrauen = weniger nachprüfen?

Bekanntlich liegt die KI sehr häufig richtig, wenn sie mit konkreten Fragen konfrontiert wird, jedoch nicht immer. Insbesondere beim wissenschaftlichen Lernen und Arbeiten ist es essenziell, genau diese Fehler zu erkennen. Das gezielte Prüfen von Informationen stellt allerdings einen aufwändigen und anstrengenden Prozess dar. Ein zu hohes Vertrauen in KI-generierten Output könnte sowohl dazu führen, dass die Notwendigkeit, Inhalte zu prüfen, zu wenig erkannt oder Prüfungsprozesse nicht bis zum Ende durchgehalten werden, weil die Motivation dazu fehlt. Wahrscheinlich mangelt es an Bereitschaft zur kritischen Auseinandersetzung mit KI-Antworten, wenn die KI nicht als Maschine oder Tool angesehen wird, sondern als quasi menschliche Partner:in oder Tutor:in. Schliesslich war die KI doch so nett, mir lange und ausführlich meine Fragen zu beantworten, mir passende Quellen zu suchen und zusammenzufassen und dann erst noch meinen Text zu korrigieren. Wer so viele Freundschaftsdienste für mich erbracht hat, hat doch mein Vertrauen verdient?

Maschinen bleiben Maschinen

Wie schon erwähnt, werden die Technologiekonzerne weiterhin mit viel Geld daran arbeiten, KIs noch menschlicher wirken zu lassen. Auf diese Entwicklung können die wenigsten direkt Einfluss nehmen. Unmittelbar beeinflussen können wahrscheinlich viele Leser:innen dieses Blogs jedoch, wie ihre Studierenden mit KI arbeiten. Selbst wenn die Studierenden KIs häufig auch ohne das Wissen der Dozierenden einsetzen, besteht trotzdem die Möglichkeit, das Lernen mit KI direkt zu thematisieren. KI-generierten Inhalten mit einer gewissen Skepsis zu begegnen, stellt dabei nur einen Ausgangspunkt dar. Dennoch erscheint es wichtig, genau diesen Ausgangspunkt herzustellen, um weitere Schritte wie Überprüfen, Auswählen, Integrieren und Kombinieren von Inhalten und damit Lernen zu ermöglichen. Und schliesslich haben wir alle die Möglichkeit, uns zu hinterfragen, welche Begriffe wir im Kontext von KIs verwenden und wie stark diese Begriffe eine Vermenschlichung implizieren. Denn Maschinen bleiben vorerst Maschinen und keine Freund:innen.

INFOBOX

WORKSHOP
Nachricht an Chat-GPT: Gib mir Feedback auf meinen Text, Montag, 14. April 2025, 12.15–13.30 Uhr, Campus PH Zürich

MODUL
Schreiben begleiten und beurteilen, ab 16. März 2026, Campus PH Zürich

LITERATUR
- Placani, Adriana (2024): Anthropomorphism in AI: hype and fallacy. In: AI and Ethics 4 (3), 691–698.
- Reinecke, Madeline G. / Ting, Fransisca / Savulescu, Julian / Singh, Ilina (2025): The Double-Edged Sword of Anthropomorphism in LLMs. In: Proceedings 114 (1), 4.

Zum Autor

Yves Furer ist Dozent für Deutschdidaktik und Mitarbeiter des Schreibzentrums der PH Zürich.

Vom KI-Fastfood zum sinnhaften Einsatz

Text: Charlotte Axelsson

Vor Kurzem wurde ich gefragt, ob ich Angst vor den rasanten technologischen Entwicklungen habe. Meine Antwort lautete: ein klares Jein. Die Technologie selbst macht mir keine Angst – im Gegenteil, sie fasziniert mich. Ich werde zum Homo Ludens, mein Spieltrieb kennt kaum Grenzen. Was mir Sorgen bereitet, ist der Mensch, der diese Technologien nutzt, steuert oder weiterentwickelt – oft ohne sich der Verantwortung für deren Auswirkungen bewusst zu sein. Diese Sorge hat mich dazu gebracht, intensiver über Ethik in der Bildung nachzudenken, zum Beispiel am PHZH Barcamp «Assessment im Wandel – KI-basierte Ansätze für Beurteilung und Feedback» oder als Co-Herausgeberin der neuen Open-Access-Publikation «Ich, Wir & Digitalität, Ethik in der Lehre». Für mich ist klar: Eine ethisch fundierte Lehre ist der Schlüssel für einen sinnhaften Einsatz von Technologie. Ganz im Sinne des Buchtitels: «ICH steht für die persönliche Reflexion, WIR für das Miteinander und DIGITALITÄT beschreibt den kulturellen Wandel, der durch technologische Innovationen entsteht», lässt sich dieser Dreiklang auch im Dagstuhl-Dreieck (Figur 1) als technologische, gesellschaftliche, kulturelle und anwenderbezogene Perspektive beschreiben. Solche Modelle ermöglichen es auch, die eigene Lehre zu überprüfen und fehlende Perspektiven zu integrieren.

Figur 1: Dagstuhl Dreieck in «Ich, Wir & Digitalität, Ethik in der Lehre»

Bildung vermittelt nicht nur Wissen, das ist ebenfalls klar und wurde zum Beispiel durch Peter Holzwarth in «Sind Menschen die besseren Roboter? Ethische Fragen zur Digitalisierung» beschrieben, sondern auch die grundlegenden Werte einer Gesellschaft – ein essenzielles Element für deren Zusammenhalt und Funktionieren. Doch wie verändert der technologische Fortschritt unsere Zusammenarbeitsformen und das Beurteilen von Leistungen? Warum ist es besonders wichtig, im digitalen Zeitalter über Ethik zu sprechen? Im Folgenden habe ich zwei wichtige Gründe zusammengetragen, die die Wichtigkeit einer tiefgründigen Auseinandersetzung für uns Menschen unterstreichen sollen. Folgend gebe ich Einblicke in die Diskussion des Barcamps mit der Anwenderperspektive «Ethik und gesellschaftlichen Implikationen von KI im Assessment von Leistungen».

Erster Grund ist omnipräsentes Wissen: Technologien wie die Suchmaschine von Google oder Wikipedia machen Wissen allgegenwärtig und leicht zugänglich. Generative Technologien – etwa ChatGPT von OpenAI – ermöglichen es zudem, Wissen neu zu kombinieren und zu generieren. So stellt der technologische Wandel traditionelle Konzepte von Wissen und dessen Bewertung infrage und verlangt nach neuen Ansätzen. Wie überprüfen wir Leistungen, wenn man auf einen Klick ganze Hausarbeiten von einer Maschine generieren lassen kann?

Zweiter Grund sind intransparente Machtstrukturen: Unternehmen wie Google, Microsoft oder OpenAI kontrollieren zentrale Plattformen und Technologien und verfolgen in erster Linie ihre wirtschaftlichen Interessen. Dadurch entstehen gefährliche Abhängigkeiten, die Bildungseinrichtungen, Gesellschaften und sogar Staaten in ihrer Autonomie einschränken. Ein zentrales Problem ist die Intransparenz der Algorithmen: Sie steuern, welche Informationen priorisiert oder generiert werden, und beeinflussen dadurch, was wir sehen, lesen und lernen. Dies schafft eine neue Wissenshierarchie. Damit wird Wissen nicht mehr neutral verteilt, sondern von wenigen Akteuren gelenkt. Um dieser Entwicklung entgegenzuwirken, braucht es unabhängige Alternativen und eine breite gesellschaftliche Debatte. Gerade Pädagogische Hochschulen müssen eine Vorreiterrolle übernehmen, indem sie kritische Medienkompetenz fördern und sich aktiv mit diesen ethischen Fragen auseinandersetzen.

Ethik in der Lehre – Diskussionen aus dem Barcamp 

Die Herausforderungen werden besonders deutlich, wenn man diese beiden Gründe auf konkrete Bereiche im Bildungswesen anwendet. Beim Barcamp «Assessment im Wandel – KI-basierte Ansätze für Beurteilung und Feedback» haben wir uns in einem Track mit «Ethik und gesellschaftlichen Implikationen von KI im Assessment von Leistungen» beschäftigt.

Die Diskussionen zeigten schnell, dass Bildung und vor allem Prüfungen nicht nur der Vermittlung und dem Abfragen von Wissen dienen, sondern auch kulturelle, soziale und persönliche Entwicklung umfassen. In der Diskussion haben wir uns um zwei Statements gedreht: Mensch, sei du selbst der Wandel – Technologie sollte sinnstiftend eingesetzt werden – nicht allein aus Effizienzgründen. Oder mit Play, Qualität fördern! rufen die Teilnehmenden das spielerische Konzept «Slow AI» auf, welches auf Reflexion, Neugierde und Entschleunigen setzt und eine Art Gegenbewegung zu Fastfood (KI-)Wissen darstellt.

Des Weiteren wurde die Frage, ob KI in der Lage ist, Sinn oder individuelle Werte in die Beurteilung einfliessen zu lassen, kontrovers diskutiert. Transdisziplinäres Lernen und alternative Beurteilungskulturen – weg von starren Konzepten von «richtig» und «falsch» hin zu mehr Kreativität – könnten dabei eine Schlüsselrolle spielen. Hier ist Austauschen und Voneinander-Lernen gefragt. Und über eines sind sich alle einig gewesen: Traditionelle Prüfungen, die lediglich Wissen abfragen, waren noch nie und sind einfach nicht mehr haltbar.

Barcamp 2024

Fazit und Ausblick 

Zum Schluss gibt die Disziplin Ethik in der Regel wenig Antworten – Ethik bietet Denkräume. Diese «Safe Spaces» müssen wir im Bildungswesen schaffen, in denen wir erforschen, entwickeln und vermitteln können – basierend auf Werten wie Menschlichkeit, Sinnhaftigkeit und Verantwortung. Denn nur, wenn wir Technologie bewusst und reflektiert einsetzen, können wir sicherstellen, dass der Wandel menschenwürdig ist. 

Das Thema werden wir weiterdiskutieren und laden an dieser Stelle zum nächsten Barcamp «Assessment und KI: Gemeinsam praktische Formate erkunden» am 20. November 2025 ein. Wer bis dahin nicht warten kann, empfehle ich unser kleines Büchlein, darin findet man weitere Fragen und praktische Anwenderbeispiele für den eigenen Unterricht.

INFOBOX

BARCAMP «ASSESSMENT UND KI: GEMEINSAM PRAKTISCHE FORMATE ERKUNDEN»,
20. NOVEMBER 2025 AUF SCHLOSS AU

Interessieren Sie sich für diese Tagung? Gerne können Sie in diesem Formular Ihren Namen und Mailadresse hinterlassen, dann informieren wir Sie, sobald Programm und Anmeldemöglichkeit aufgeschaltet sind.

KURS (PHZH-INTERN)
Ethische Fragen zur KI: Praxisnahe Ansätze für den Unterricht
Dienstag, 8. April, 12.15–13 Uhr, Campus PH Zürich

LITERATUR
Blume, Dana & Axelsson, Charlotte. 2024: Ich, wir & Digitalität, Ethik in der Lehre.

Zur Autorin

Wie nutze ich KI für das Schreiben an der Hochschule?

Text: Maik Philipp, Alex Rickert, Yves Furer und Daniel Ammann

Positionspapier zum wissenschaftlichen Schreiben in Zeiten von künstlicher Intelligenz

Dieses Positionspapier des Schreibzentrums der PHZH setzt sich mit zentralen Herausforderungen auseinander, die sich für Hochschulen in Zeiten von künstlicher Intelligenz (KI) im Kontext des Lernens und des Verfassens schriftlicher Arbeiten ergeben.

Wie an anderen Hochschulen nutzen auch Studierende der PHZH generative KI für das Schreiben ihrer Texte. Studien aus Deutschland (Helm u. Hesse 2024), Schweden (Stöhr, Ou u. Malmström 2024), Australien (Kelly, Sullivan u. Strampel 2023) oder den USA (Dang u. Wang 2024) belegen die intensive KI-Nutzung von Studierenden. Die deutsche Studie zeigt, dass zumindest ein Teil der Studierenden KI auf eine Weise einsetzt, die problematisch erscheint – etwa zur Überprüfung der inhaltlichen Richtigkeit.

Diese Entwicklung zwingt Hochschulen, sich Fragen zur Funktion und zum Stellenwert des Schreibens zu stellen, sei es für das Lernen, das Verfassen von Leistungsnachweisen oder in Prüfungen. Das Schreibzentrum äussert sich dazu aus epistemologischer und lernbezogener Perspektive. Die Fähigkeit, im Umgang mit Texten analytisch und kritisch zu denken, gewinnt in komplexer werdenden Wissensgesellschaften zusehends an Bedeutung. Künstliche Intelligenz nimmt mündigen Personen diese Aufgabe nicht ab, sondern fordert diese ein und heraus. Das Schreibzentrum positioniert sich mit zwei Thesen zur Nutzung von KI für das Schreiben an der Hochschule, um die Notwendigkeit des reflektierten Einsatzes zu betonen. Die erste These bezieht sich auf die Systemebene der Wissenschaft, die zweite betrifft die Personenebene und die Einsatzgebiete generativer KI. Die Thesen werden exemplarisch von Vignetten flankiert.

Ist die Zukunft des Schreibens eine Kollaboration zwischen einem Menschen und künstlicher Intelligenz? (Foto: Adobe Stock)

These 1: KI ist keine verlässliche Wissensquelle, weil sie keine Expertise hat. Wissen wird von Expert:innen hergestellt und über epistemisch vertrauenswürdige Quellen verbreitet. Wissensproduktion folgt anerkannten und transparenten Regeln – es ist unklar, ob KI das tut.

Vignetten:

  • Student A übernimmt eine automatisch generierte Definition aus ChatGPT, die plausibel klingt, und sucht via Elicit eine Quelle, die dazu passt.
  • Student B sucht nach unterschiedlichen Definitionen in der Fachliteratur, die er mit Hilfe von KI-Recherchetools gefunden hat, vergleicht die Definitionen miteinander und entscheidet sich unter Angabe von Gründen für eine Variante.

In Wissensgesellschaften sind wir darauf angewiesen, dass Erkenntnisse jedweder Art auf nachvollziehbare Weise entstanden sind. Die Komplexität der Wissensherstellung bringt ein hohes Mass an Expertise und Spezialisierung mit sich. Darauf baut die Wissenschaft, indem sie erkennbare Expertise in einem Fachgebiet als Indikator dafür nutzt, dass sich andere Mitglieder der Gesellschaft auf die Aussagen verlassen können (Chinn, Barzilai u. Duncan 2021).

  • Darum beschreiben Wissenschaftler:innen ihre Methoden genau und belegen, auf welche Quellen sie sich stützen.
  • Darum gibt es Qualitätssicherungsmechanismen, indem etwa Beiträge in Fachzeitschriften von anderen Expert:innen begutachtet werden.
  • Darum lassen sich wissenschaftliche Quellen zumindest annäherungsweise daran erkennen, dass sie von fachlich qualifizierten Personen für ihre Fachcommunitys verfasst werden, um darin ihre Erkenntnisse zu verbreiten.
  • Darum ist es keineswegs trivial, auf welche Quellen sich Studierende stützen. Eine angemessene Quellenkritik und -auswahl wird zusehends wichtiger.

Funktionsweise und Datengrundlage generativer Large-Language-Models bleiben teils Betriebsgeheimnis, deshalb lässt sich kaum nachvollziehen, welche Quellen den KI-Outputs zugrunde liegen und wie die Aussagen zustande kommen. Stil und Textoberfläche der Outputs dürfen nicht darüber hinwegtäuschen, dass sich darin inhaltlich Falsches, Fragwürdiges, Verkürztes, Tendenziöses verbirgt.

These 2: KI soll das Lernen durch Schreiben unterstützen und nicht verhindern. Schreiben ist nachweislich ein effektives Instrument für das Lernen. Dafür sollte es auch genutzt werden.

Vignetten:

  • Studentin A füttert Claude.ai mit Fragestellung, Theorie- und Ergebnisteil ihrer Bachelorarbeit und lässt den Diskussionsteil von der KI generieren.
  • Studentin B formuliert ihren Diskussionsteil selbst, indem sie die Ergebnisse auf die Fragestellung bezieht und diese mit Modellen und Studien aus dem Theorieteil abgleicht und einordnet.

KI-Tools sind auf Schnelligkeit und Aufgabenerledigung ausgerichtet. Das macht sie attraktiv. Deshalb ist wichtig, dass diese Systeme reflektiert und eigenverantwortlich genutzt werden. Dies bedeutet: Die Tools kommen dort sinnvoll zum Einsatz, wo sie das Lernen durch Schreiben unterstützen und es nicht verhindern – etwa bei der Quellenrecherche, der Datenstrukturierung, beim Generieren inhaltlicher Impulse und Ideen, für Feedback oder bei der stilistischen und orthografischen Überarbeitung. Lese- und schreibbezogenen Aktivitäten, die auf das Denken höherer Ordnung – das Anwenden, Analysieren, kritische Evaluieren und Kreieren (List u. Sun 2023; Philipp in Druck; Philipp 2022) – abzielen, sollten jedoch nicht an eine KI delegiert werden. Solche Schreibpraktiken sind kognitiv herausfordernd, aber für die Entwicklung von Fachexpertise unverzichtbar. Die Fähigkeiten zum Denken höherer Ordnung durch Lesen und Schreiben entwickeln sich in der kleinschrittigen Auseinandersetzung mit Texten. Sie führen dazu, dass tief, flexibel und kritisch über Gegenstände eines Fachs nachgedacht wird. Aufgrund ihres transformierenden Anforderungscharakters erfordern sie Genauigkeit in Analyse und Evaluation und deshalb Langsamkeit (Chen 2019).

Auch bei Arbeiten mit KI, die auf fremden Texten basieren, zum Beispiel beim automatischen Zusammenfassen, ist es notwendig, Output, Prompt und Ursprungstexte miteinander zu vergleichen. Denn häufig gilt es, unterschiedliche Texte aus mehreren Quellen im eigenen Text zu integrieren. Integrieren bedeutet, die verschiedenen Aussagen sinnvoll aufeinander zu beziehen und deren Perspektiven zu erkennen und zu kombinieren. Diese Mehrperspektivität und die qualitativen Unterschiede von Aussagen zu erfassen und nachzuvollziehen, zeichnet den Wissensaufbau und die gedankliche Eigenleistung beim Lernen und bei Prüfungen aus (Kuhn 2020). Dafür braucht es die Fähigkeit, Bezüge zwischen Themen aktiv herzustellen, insbesondere wenn Autor:innen nicht das gleiche Vokabular verwenden. Solche Verstehensleistungen verlangen ein genaues Lesen (Britt u. Rouet 2012). Dies gilt auch und insbesondere für die Nutzung KI-generierter Textangebote: Geben die Chatbots angemessen wieder, was in den verwendeten Quellen steht – und passt der Prompt überhaupt zu den Texten? Darum wird es in der Regel nötig sein, genau zu lesen und den Output anzupassen. Anders gesagt: Die Zeit, die man beim Schreiben spart, ist gut im Lesen und Überarbeiten reinvestiert.

INFOBOX

Das Angebot der PH Zürich zum Schreiben und Schreiben mit KI umfasst Weiterbildungen, Dienstleistungen und Beratungen.

MEHR ZU WISSENSCHAFTLICHEM SCHREIBEN UND SCHREIBEN MIT KI
Das Schreibzentrum der PH Zürich bietet Unterstützung beim wissenschaftlichen Schreiben und Schreiben mit KI sowie spezifische weitere Informationen zu Schreiben mit KI.

MODULE
Schreiben begleiten und beurteilen, ab 17. März, Campus PH Zürich
Wissenschaftliches Schreiben, ab 23. September, Campus PH Zürich

SCHREIBBERATUNG
Mittels Schreibberatungen für Personen und Teams hilft das Schreibzentrum der PH Zürich, Schreibkompetenzen weiterzuentwickeln und Texte zu optimieren.

LITERATUR
- Philipp, Maik. 2025 Digitales Lesen fördern. Göttingen: Vandenhoeck & Ruprecht.
- Philipp, Maik. 2025. Lesen digital: Komponenten und Prozesse einer sich wandelnden Kompetenz. Weinheim: Beltz Juventa.

Zu den Autoren

Alex Rickert ist Leiter des Schreibzentrums der PH Zürich und ist als Dozent in Weiterbildungsgefässen aktiv. Seine Arbeits- und Forschungsschwerpunkte sind Textlinguistik, Schreibberatung und -didaktik.

Maik Philipp ist Professor für Deutschdidaktik an der PH Zürich. Seine Schwerpunkte sind Lese- und Schreibförderung mit Fokus auf Evidenzbasierung.

Überlegungen zu KI-generiertem Feedback

Text: Jacqueline Egli

«Bitte lesen Sie sich die kommentierte Arbeit in Ruhe durch. Überlegen Sie, ob Sie die Korrekturen nachvollziehen können und ob das schriftliche Feedback für Sie verständlich ist. Bei Unklarheiten wenden Sie sich bitte an mich. Überarbeiten Sie den Text und vertiefen Sie das Thema. Reichen Sie Ihre Arbeit in zwei Wochen erneut ein.»

Diese Situation kennen wohl alle Lehrpersonen: abends oder über das Wochenende viele Texte lesen und Rückmeldungen dazu verfassen. Das braucht Zeit, Geduld und Ausdauer. Besonders, wenn die Weiterentwicklung erneut gelesen und gefeedbackt wird. Wer würde sich da nicht über einen Zauberspruch freuen, der diese Arbeit automatisch erledigt. (Generative) künstliche Intelligenz (KI) kann vieles, aber kann sie auch das? – Ja und Nein.

Lernförderliches Feedback

Das Angebot, Texte oder Projekte bereits während der Erstellung zu sichten und zu besprechen, legt den Fokus auf den Prozess (siehe den Blogbeitrag Über das Potenzial von Online-Feedback von Mònica Feixas und Franziska Zellweger) oder die Handlung und nicht (nur) auf das Endprodukt. Dies ist wichtig, denn Feedback greift u.a. dann, wenn es von der feedbackerhaltenden Person reflektiert und gleich weiterverarbeitet wird. Tobias Zimmermann nennt in seinem Buch Leistungsbeurteilung an Hochschulen lernförderlich gestalten explizit zwei verschiedene Arten von Unterstützung: adaptive (durch Erklärung und Beispiele) und behelfsmässige (durch Erhalten der richtigen Antwort). Lernförderlich ist nur ersteres, da es durch Hilfestellung unterstützt. Dies unterstreicht die aktuelle Studie von Hamsa Bastani «Generative AI can harm learning»: Laut dieser wurden zwar Übungen generell mit Unterstützungen von KI-Bots besser gelöst, aber das Lernen unterstützt haben nur die KI-Tutorsysteme, die – aufgrund der Einstellungen – keine Lösung, sondern lediglich Hinweise auf weitere (Reflexions-)Schritte gaben.

KI-generierte Rückmeldungen

Mehrere KI-Anwendungen bieten neuerdings an, Korrekturen und Feedback zu übernehmen (z.B. ChatGPT, DeepL und Language Tool) Aber wie gut, differenziert und lernförderlich sind diese KI-generierten Rückmeldungen?

Intuitiv werden viele sagen, dass die Rückmeldung eines Menschen wertvoller ist als die einer KI. Denn beim Feedback spielt die Beziehungsebene eine wichtige Rolle, wie u.a. Tobias Zimmermann in seinem Blogbeitrag deutlich macht, und diese ist an Menschen gebunden.

Quelle: Adobe Stock

Studien (Dai et al. 2023 oder Escalante et al. 2023) haben nun beschrieben, dass auch maschinelles Feedback – bei gut erstellten Prompts – lernförderlich sein kann und dass sich bei den Studierenden keine eindeutige Präferenz zeigt, von wem sie die Rückmeldung erhalten möchten. Escalante stellt in seiner Studie «no difference in learning outcomes», also keinen Unterschied bezüglich Lernergebnis zwischen maschinellem und menschlichem Feedback fest. Es stellt sich die Frage, ob die Studierenden sich bewusst sind, dass die KI eine Maschine ist oder ob sie dies manchmal vergessen und die KI als empathisch und verständnisvoll sehen, also vermenschlichen.

Gemäss dieser Studien ist das Feedback der KI positiver (Fokus auf Gelungenes), während das der Lehrperson negativer gepolt ist (Fokus auf Verbesserungswürdiges). Dies ist nicht falsch, denn aus Fehlern lernt man. In der Schule ist es aber auch wichtig, bereits Gelungenes hervorzuheben und daran Weiterentwicklungsmöglichkeiten zu knüpfen (also Stärken zu stärken). Möglicherweise kann KI das Feedback der Lehrperson sinnvoll ergänzen.

Rückmeldungen von GPT wurden von den Studierenden signifikant besser verstanden (Dai et al. 2023). KI generiertes Feedback begann meist mit einer kurzen Zusammenfassung der Arbeit des Lernenden und einem Überblick über die Bewertung, gefolgt von weiteren Ausführungen. Die bessere Verständlichkeit könnte daraus resultieren, dass GPT länger und in vollständigen Sätzen kommentiert, wohingegen Rückmeldungen aus menschlicher Hand eher aus unvollständigen Sätzen, bzw. Satzfragmenten bestehen. Die Verständlichkeit bleibt dabei oft auf der Strecke.

Erfahrungsgemäss tendiert KI-Feedback zur Oberflächlichkeit. Die KI erkennt Details und Besonderheiten von Inhalten oft nicht, insbesondere wenn diese regional differieren, da diese Informationen in ihren Trainingseinheiten wohl nicht vorkamen. ChatGPT liefert daher eher allgemein gehaltenes Feedback. Zudem kann die KI etwas als «gut» rückmelden, auch wenn es inhaltlich falsch ist. Daher ist es wichtig, in der Klasse Falschinformationen und Halluzinationen zu thematisieren.

Mit den Worten von Beat Döbeli in seinem Blogbeitrag: «Konkret: Das Feedback eines GMLS ist derzeit vermutlich schlechter als das einer guten Lehrperson. Das Feedback eines GMLS ist jedoch rascher und öfter verfügbar als das einer Lehrperson.»

Es kann für Lernende auch ein Sicherheitsanker sein, wenn sie eine erste Rückmeldung von einer anonymen und wertungsfreien Instanz erhalten und darauf basierend erste Überarbeitungen vornehmen können, bevor eine Lehrperson (oder Peers) einen Blick darauf werfen.

Lerneffekt?

Wenn es um Rückmeldungen zu Grammatik oder Orthografie geht, kann die KI diese meist problemlos erkennen und korrigieren. Allerdings gibt z.B. ChatGPT keine Erklärungen zu den Optimierungen. Bleiben diese aus, verpufft der Lernerfolg, resp. er muss sich mühsam erarbeitet werden, indem der Ursprungstext mit dem generierten Output verglichen wird, Unterschiede herausgestrichen und verstanden werden. Natürlich kann die KI auch aufgefordert werden, diese Aufgaben zu übernehmen und eine Tabelle mit den häufigsten Fehlern zu erstellen, allenfalls sogar mit einer Erklärung dazu. Aber Hand aufs Herz: wie viele Lernende nehmen diesen Aufwand wohl auf sich, wenn die Lösung direkt erfragt werden kann?

Es ist daher unabdingbar, sowohl das Thema «Lernen» als auch das Thema «Feedback» auf der Meta-Ebene mit den Klassen zu besprechen. Einerseits sollten die Jugendlichen lernen, dass Skill-Skipping (sich also die Lösung geben lassen anstatt sich die Kenntnisse selbst zu erarbeiten) zwar einfach, aber nicht lernförderlich ist. Andererseits sollten sie auch befähigt werden, Feedback zu verstehen und für sich zielführend einzusetzen. Und für diese Diskussion braucht es Menschen mit Empathie, Menschenkenntnis und einem Augenzwinkern.

INFOBOX

Am 20. Mai 2025 findet der halbtägige Kurs (Digitales) Feedback – Lernprozesse sichtbar machen statt.

Im Rahmen des CAS Unterricht gestalten mit digitalen Medien besteht die Möglichkeit, das Modul Lernförderliches Feedback: digital, multimedial oder mit KI zu besuchen. Das Modul ist auch einzeln buchbar.

Zur Autorin

Jacqueline Egli ist Dozentin am Zentrum für Berufs- und Erwachsenenbildung an der PH Zürich. Ihre Themengebiete sind unter anderem die Schul- und Unterrichtsentwicklung mit dem Schwerpunkt auf den digitalen Wandel und Changemanagement und Organisationsentwicklung für Bildungsinstitutionen.

Potential offener Formate  – Learnings vom Barcamp Curriculumentwicklung

Text: Tetiana Kaufmann, Monika Schlatter, Franziska Zellweger

Herausforderung Curriculumentwicklung

Teilnehmende des Barcamp Curriculumentwicklung.
Teilnehmende des Barcamp Curriculumentwicklung. Foto: Giuseppa Kälin

Der Wechsel zu Kompetenzorientierung, Modularisierung und Bachelor-Masterabstufung führte in den letzten Jahren zu zahlreichen Reformen von Studienprogrammen. Die Implikationen der Digitalisierung, nicht zuletzt die rasante Entwicklung generativer KI auf Bildungsziele, Lern- und Prüfungsformate sowie die zunehmende Heterogenität der Studierenden treiben diese Entwicklungen weiter voran.

(Weiter-) Entwicklungen von Studienprogrammen sind daher anspruchsvoll. Es gibt zahlreiche Bedürfnisse und Ideen vieler Beteiligter, die begrenzten Ressourcen und spezifischen Rahmenbedingungen gegenüberstehen. Fragen, die sich im Zusammenhang mit einer Curriculumentwicklung stellen, sind daher komplex, und entsprechend herausfordernd ist die Gestaltung von Entwicklungsprozessen.

Mit dem Barcamp Curriculumentwicklung wollten wir einen Beitrag dazu leisten, Personen im tertiären Bildungsbereich ihre Erfahrungen, Herausforderungen und Erfolge bei der Curriculumentwicklung teilen zu lassen. Ebenso sollte so der Austausch innovativer Ideen und Konzepte gefördert und einen Anstoss für Lösungen gegeben werden. Anfang November 2023 sind in diesem Zusammenhang über 60 Personen aus Fach- und Pädagogischen Hochschulen wie auch Höheren Fachschulen auf Schloss Au zusammengekommen. Während einige Anliegen aus bereits laufende Studiengänge mitbrachten, standen andere noch am Anfang des Prozesses und liessen sich für die bevorstehenden Aufgaben inspirieren.

Ein Barcamp ist eine offene und partizipative Veranstaltung, an der von den Veranstaltern zu Beginn nur Zeitfenster und Räume festgelegt werden. In einem gemeinsamen Prozess mit den Teilnehmenden werden die Themen festgelegt. Im Zentrum der daraus entstehenden Sessions steht die Diskussion, wobei ein mitgebrachtes Fallbeispiel, Erfahrungen oder Fragen der Teilnehmenden als Initiator dienen. Mehr Infos zu Barcamps

Barcamp Curriculumentwicklung: Konkrete Einblicke und Learnings

Im Folgenden geben wir einen chronologischen Einblick in die konkrete Durchführung des Barcamps und legen dar, welche Erkenntnisse wir mit diesem offenen Weiterbildungsformat gewonnen haben.

 

1. Zeit in das Kennenlernen investieren

Um auch bei über 60 Teilnehmenden gleich eine erste Verbindung zwischen den Personen zu schaffen, haben wir die Veranstaltung mit einem mündlichen Soziogramm eröffnet. Die Moderatorin rief verschiedenste Fakten aus, und Personen, auf die diese zutrafen, hoben die Hand. So wurde rasch sichtbar, aus welcher Institution und welcher Landesregion die Teilnehmenden stammten und es wurde Transparenz über die Rollen oder Funktionen geschaffen. Unterstützt wurde die Kontaktaufnahme auch mit einer ausführlichen Teilnehmendenliste. Dieses Kennenlernen wurde sehr positiv wahrgenommen. Genügend Zeit dafür einzuplanen, lohnt sich. Eine Alternative zum mündlichen Soziogramm könnte auch ein Speeddating sein.

Mündliches Soziogramm in Aktion.
Mündliches Soziogramm in Aktion. Foto: Giuseppa Kälin

 

2. Themenstrukturierung schon vor dem Anlass

Die gemeinsame Programmplanung und das Identifizieren gemeinsamer Fragen ist ein wichtiger Schritt eines Barcamps. Dabei ist es eine Herausforderung, nicht zu viel Zeit mit der Planung des Tages zu verbringen, sondern genügend Raum für Vernetzung und Austausch zu schaffen.

Die Teilnehmenden waren daher aufgefordert, schon vor dem Barcamp mögliche Fragestellungen einzugeben. Aus diesen haben wir vier Hauptthemen identifiziert und durch Leitfragen präzisiert, welche auf der digitalen Pinnwand Taskcards veröffentlicht und den Teilnehmenden vorgängig zur Verfügung gestellt wurden. Diese Vorstrukturierung der Themen erlaubte es, die Interessen der Teilnehmenden transparent zu machen und gleichzeitig einen effizienten Programmfindungsprozess entlang der vorstrukturierten Themen zu gestalten.

Vier Themen mit Leitfragen
1. Prozessgestaltung • Wie kann man ein Curriculum trotz knapper werdenden (finanziellen) Ressourcen weiterentwickeln? • Wie geht man mit Widerständen und starren Verwaltungsprozessen um? • Welche Rolle spielt Partizipation in der Curriculumsentwicklung und wie kann sie effektiv koordiniert werden?
2. Individualisierung in der Hochschulbildung • Was sind Best Practices und neue Tendenzen in der Begleitung von Studierenden (auch in grossen Studiengängen)? • Wie können Hochschulen bei begrenzten Ressourcen den wachsenden Anforderungen an Individualisierung begegnen? • Wie kann man individuelle Bedürfnisse berücksichtigen und gleichzeitig Kohärenz gewährleisten?
3. Future Skills und Entwicklung zukunftsfähiger Curricula • Welche Trends müssen jetzt in der Curriculumsentwicklung vorrangig begegnet werden? • Welche curricularen Strukturen bzw. Studienmodelle ermöglichen die Entwicklung nachhaltiger, kompetenzorientierter Curricula, die unserer schnelllebigen Zeit gerecht sind? • Wie kann man KI-Tools sinnvoll einsetzen und gleichzeitig das Deep-Learning unterstützen (z.B. im Sprachunterricht)?
4. Kompetenzorientierte Leistungsnachweise • Welche innovative Beurteilungsformate und Zusammenarbeitsformen (z.B. Stud.-Dozis) fördern eine kompetenzorientierte Lehre? • Wie kann man bei begrenzten Ressourcen individuelles Feedback geben und optimal Peer Assessment einwenden? • Was sind Best Practices in der Messung und Anrechnung bereits erbrachter Leistungen/Erfahrungen?

 

3. Klar gestaltete Sessionplanung

Dafür teilten sich die Teilnehmenden in vier Gruppen zu je einem Thema ein und arbeiteten an einer vorbereiteten Pinwand. Wer eine Fragestellung eingegeben hatte oder neu mitbrachte, stellte diese innerhalb einer Minute vor (Pitch). Ähnliche Fragestellungen wurden dann zusammengeführt, so dass im Ergebnis jede Gruppe je drei Sessions (Zeit- und Raumfenster) definierte.

Strukturierung der Sessionplanung
Strukturierung der Sessionplanung

Wieder im Plenum, wurde der gesamte Plan aller vier Gruppen vorgestellt. Danach waren die Teilnehmenden frei darin zu entscheiden, in welchen der vielen Sessions sie beitragen möchten. Die Vielfalt an spannenden Fragen bedeutet auch eine gewisse Qual der Wahl: Mehrere Durchführungen von Sessions könnten sich lohnen.

 

4. Ideale räumliche Rahmenbedingungen

Wenn viele engagierte Personen gemeinsam diskutieren und die finalen Themen festlegen, entsteht eine nicht zu unterschätzende Geräuschkulisse, und auch ein vermeintlich grosser Raum wird plötzlich zu klein. Es ist zwar ein Vorteil, wenn die ganze Gruppe für die Festlegung des Programms in demselben Raum arbeiten kann, da die Moderation den Gesamtprozess gut im Blick hat. Auch die Teilnehmenden können so wahrnehmen, wie die anderen Gruppen arbeiten. Je nach räumlichen Gegebenheiten kann es dennoch sinnvoll sein, an unterschiedlichen Orten zu diskutieren, da ein konzentriertes Gespräch von einem ruhigen Rahmen profitiert. Darüber hinaus zeigte sich das Schloss Au auch bei regnerischem Wetter als idealer Ort für ein solches Format. Das gastfreundliche Schlossambiente mit inspirierendem Garten und vielen Gruppenräumen bot einen wohltuenden Kontrast zur üblichen Hektik. Die Teilnehmenden konnten voll in das Barcamp eintauchen und die Laptops blieben in der Tasche.

Teilnehmende des Barcamps bei der Themenauswahl.
Teilnehmende des Barcamps bei der Themenauswahl. Foto: Giuseppa Kälin

 

5. Rollenverteilung in den Sessionen vorab definieren

In den Sessions brauchten die neu formierten Gruppen jeweils eine Weile, bis sie sich gefunden hatten. Da die Zeit an einer solchen Veranstaltung knapp ist, würden wir zukünftig eine klare Rollenzuteilung mit vordefinierten Zuständigkeiten (Lead der Session, Moderation, Dokumentation, Zeitmanagement) vornehmen.

 

6. Ergebnisse sichtbar und greifbar machen

Um die Diskussionen und Erkenntnisse aus den Sessions für alle Teilnehmenden sicht- und greifbar zu machen, haben wir darum gebeten, die Ergebnisse der Sessions auf Taskcards zu dokumentieren.

Teilnehmende bei der Reflexionsrunde.
Teilnehmende bei der Reflexionsrunde. Foto: Giuseppa Kälin

In einer Schlussrunde im Umfang von 20 Minuten entlang der Methode 1-2-4-all von Liberating Structures haben in einem ersten Schritt alle Teilnehmenden persönliche thematische Erkenntnisse und noch offene Fragen in einer kurzen Einzelreflexion identifiziert. Im danach folgenden Austausch in Zweiergruppen wurden die Gedanken geteilt und weiterentwickelt, um anschliessend in Vierergruppen die Diskussion weiter zu vertiefen und Erkenntnisse sowie offenen Fragen zu notieren. Diese prägnanten Sätze und Stichworte wurden dann mit allen Teilnehmenden geteilt.

Fazit

Selten haben wir Weiterbildungstage in so disziplinierter und arbeitsamer Atmosphäre erlebt. Die Feedbacks der Teilnehmenden haben klar aufgezeigt, dass sie sehr viel aus dem offenen Format mitnehmen konnten. Die wertvollen Diskussionen auf Augenhöhe, Inspiration und Vernetzung standen dabei zuoberst. Diese Erfahrung hat uns gezeigt, dass bei anspruchsvollen Fragestellungen wie in der Curriculumsentwicklung offene Formate wie ein Barcamp der richtige Weg sind, gemeinsam an Lösungen zu arbeiten und dabei gerade zu erleben, wie kraftvoll offene und partizipative Formate sein können.

Mehr Offenheit hat sich auch als zentrales Thema durch die Sessions gezogen. Viel Interesse weckten unter anderem Beispiele individuellerer Lehr-/Lernformaten und Prüfungsformen. Das Ziel dabei bleibt klar: Studierende auf die Lösung komplexer Fragestellungen vorzubereiten, denen sie zunehmend in ihrer Arbeits- und Lebenswelt begegnen werden.

INFOBOX

CAS Weiterbildungsdesign

Die Weiterbildung befindet sich in einer anspruchsvollen Entwicklungsphase. Es wandeln sich die Ansprüche der Zielgruppen, der Digitalisierungsschub wirkt nachhaltig und die Diversität der Teilnehmer:innen nimmt zu. Die damit verbundenen veränderten Lehr- und Lernkonzepte fordern eine diversifiziertere Programm- und Angebotsplanung. Dieser CAS befähigt Sie dazu, als Fachspezialist:in für Weiterbildungsdesign zeitgemässe und wirksame Bildungsprogramme in der Weiterbildung zu konzipieren.
Weitere Informationen zum CAS Weiterbildungsdesign


CAS Führen in Projekten und Studiengängen an Hochschulen

Fachleuten aus Fachhochschulen, Universitäten, Pädagogischen Hochschulen, Höheren Fachschulen und weiteren Bildungsinstitutionen ermöglicht dieser CAS massgeschneidert und laufbahnbezogen die Entwicklung rollenspezifischer Kompetenzen in den Bereichen Führung, Management und Planung. Essentielle Kernelemente sind Praxisorientierung und der Transfer in den eigenen Kontext.
Weitere Informationen zum CAS Führen in Projekten und Studiengängen an Hochschulen

Zu den Autorinnen

Promoting Authentic Assessment in the Age of Artificial Intelligence

Text: Mònica Feixas

In the actual context of higher education, the emergence of artificial intelligence (AI) tools introduces a multitude of challenges to conventional assessment practices. While we are witnessing that certain teaching and learning activities may eventually be performed by AI to a relatively good standard, we cannot fully rely on the generated content because it can exhibit deficiencies in accuracy, comprehending context, coping with intricate analysis or being ethical. For rigorous scholarly pursuits, it is necessary to empower students to critically discern and interpret data, to identify bias and ensure fairness, and to make choices aligned with human values, that is: to form evaluative judgements (EJ). This blog is about practices that foster EJ within the context of authentic assessment tasks, answering questions such as: What precisely constitutes an authentic assessment task? What practices promote EJ in the context of authentic assessment tasks? How can we effectively leverage tools like ChatGPT to facilitate the development of evaluative judgement?

Can artificial intelligence give you a realistic assessment of your work? (Image source: Adobe Stock)

Authentic Assessment Tasks in Higher Education: a Response to traditional Assessments

Authentic assessment tasks have emerged as a meaningful response to address the limitations of conventional assessment methods in higher education (Clegg & Bryan 2006). They require students to perform as professionals within the actual social and physical contexts of a specific field, demanding the demonstration of skills and knowledge reflective of real-world scenarios.  

Authentic assessment aims to replicate the tasks and performance standards typically found in the world of work and has been found to have a positive impact on student learning, autonomy, motivation, self-regulation and metacognition; abilities highly related to employability.

(Villarroel et al. 2018)

Different displays of knowledge and performance can be encouraged based on the selected assessment formats employed to assess students‘ learning:

Figure 1: Continuum from traditional to authentic assessment approaches (own elaboration)

While traditional assessment formats focus on the demonstration of Knowing (e.g. through factual tests or MCQs) or Knowing How (context-based tests, MCQs, problem solving), authentic assessment also emphasize Showing How (performance based, objective school observations, problem-based learning, scenarios, portfolios) and Showing Doing (performance based tasks, work/professional experience, patient care, pupils’ teaching) (Sambell & McDowell 1998)

Designing authentic tasks can be done by following the five-dimensional framework from Gulikers, Bastiaens and Kirschner (2004) (reproduced in Figure 2) with pertinent questions in relation to each dimension. Another alternativ is Sambell’s guide. In both cases, effective assessments work in tandem with teaching and learning activities to help students develop long-term approaches to learning.

Figure 2: Framework for designing authentic assessment (adapted from Gulikers, Bastiaens and Kirschner 2004

Examples of authentic assessment tasks can be found in Jon Mueller’s Authentic Assessment Toolbox, or Kay Sambell and Sally Brown.

Evaluative Judgement: a crucial Skill in the Age of AI 

Following Villarroel et al. (2018), authentic assessments should include at least three components: 

  • Realism, to engage students with problems or important questions relevant to everyday life; 
  • Cognitively challenging tasks that prompt students to develop and use higher levels of thinking to use knowledge, process information, make connections and rebuild information to complete a task (rather than low-level recall or reproduction of facts); 
  • Opportunities to develop Evaluative Judgement and enhance the self-regulation of their own learning. 

Evaluative judgement is the capability to make decisions about the quality of work of oneself and others.

Tai et al. (2018)

In the age of AI, supporting students navigate the fake news world, veracity of data and reflect the work being presented by ChatGPT or other artificial intelligence tools is crucial. It is only possible if students develop a deep understanding of topics and of quality and help them assess quality of a product or performance. EJ is all about engaging with grading criteria, improving the capacity to appreciate the features of «quality» or excellence in complex outputs and developing the ability to provide, seek and act upon feedback. 

EJ is additionally a skill that interacts with self-regulated learning. When students develop an understanding of quality, they are better able to apply feedback, and become less reliant on external sources of feedback. Students who can self-regulate and judge their own work can be more autonomous in their learning. It is suggested that students with these attributes may make a smoother transition into the workforce (Tai et al. 2018)

EJ is also relevant from a perspective of inclusive education. A Delphi Study with 10 international experts on authentic and inclusive assessment showed that activities which develop EJ include discussions of quality with their students, listen to students‘ perspectives and have the potential to be more inclusive by ensuring that all students have a shared understanding of standards and criteria (Feixas & Zimmermann 2023).

Practices supporting the Development of Students’ evaluative Judgement

In order to apply EJ we have to consider its two key components: the contextual understanding of the quality of work, and the judgement (and articulation thereof) of specific instances of work. This can be applied to the work or performance of both self and others.   

Research suggest the following practices to developing the EJ components (Bouwer et al. 2018; Tai et al. 2018; Sridharan & Boud 2019):

  1. Exemplars:  
  • Students receive various examples of expected standards for evaluating their own and others‘ performance, including progress notes, reports, learning goals, reflection sheets, and intervention strategies. They are provided alongside grading criteria, and can be used for  review, or students can discuss exemplar assignments in groups. 
  • Video-feedback, like «live marking» screencasts, can also be utilized to demonstrate different levels of work quality. See the three examples by Dr. Nigel Frances (University of Swansea):  
  1. Assessment criteria and rubrics: 
  • Checklists, templates, or rubrics are provided to help students reflect on their achievement of competencies. 
  • Students engage with criteria by discussing the meaning and distinguishing features of work at each level of the rubric. 
  • Involving students in translating generic grade descriptors into assignment-specific grading criteria, and involving students in designing own rubrics with ChatGPT enhances their understanding. 
  1. Peer-review and feedback: 
  • Students engage in providing feedback on their peers‘ work-in-progress based on the grading criteria, focusing on elements where they can offer valuable insights, such as i.e. argument strength in the case of a ChatGPT-text. 
  1. Self-appraisal or self-assessment:  
  • Students appraise their own work against grading criteria to show their development of EJ.  
  • They submit cover sheets where they self-assess their work before assessment and receive feedback about it. Such feedforward supports improvement from one task to another (Sadler, Reimann & Sambell 2022).   
  • This higher-level thinking process involves reflection, identifying potential improvements, and working towards integration in an ongoing manner. 

A fictitious Example of an Authentic Assessment Task in an Educational Psychology Course and the Use of ChatGPT to enhance Evaluative Judgement Practices

Task-Title: Inclusive Education Initiatives – An Educational Psychology Project for Social Impact 

In this group task, students design an inclusive education initiative that not only addresses educational psychology principles but also seeks to foster diversity, equity, and inclusion in educational settings. The goal is to create a project that promotes an inclusive learning environment, where every pupil thrives academically and socially. Rubrics, self-and peer-assessment options, exemplars, and feedback are practices deployed to strengthen their evaluative judgement skills.  

Part 1: Identifying the Need

Students conduct research on challenges in marginalized communities‘ access to quality education. They are allowed to use AI-tools after their initial research to broaden their understanding of the educational psychology concepts related to the identified communities. AI can assist, for example, in providing new data, visualisations, translating information from other languages, condensing content summaries or responding questions. Students‘ critical analysis and ethical review of the generated content is crucial in interpreting results and making summaries or recommendations. The teacher afterwards provides feedback to the groups to improve the needs assessment. 

Part 2: Project Design

Based on their research, students develop evidence-based inclusive education initiatives. ChatGPT can be utilized to help students with intervention strategies, best practices, and approaches used in similar contexts. A possible prompt is: «Identify evidence-based interventions that have demonstrated success in narrowing the education gap among underserved populations.» Peer-assessment is encouraged to critically evaluate their different project designs and identify differences between versions of ChatGPT. Groups include improvements done after peer-feedback. 

Part 3: Social Impact Assessment

Students describe the potential social impact of their initiatives and self-evaluate it with a rubric containing criteria about how the project can contribute to breaking down barriers, promoting social cohesion, and enhancing educational opportunities for the targeted group. 

Part 4: Stakeholder Engagement

Students present their projects to stakeholders and utilize feedback to enhance their engagement strategies, ensuring buy-in and long-term sustainability. After the presentation and before the final submission, teacher offers exemplars based on successful projects in similar contexts. 

Final Reflection:

Students utilize a rubric to self-assess their projects, reflecting on strengths, limitations, and ethical considerations. The final project is submitted alongside an individual reflection highlighting aspects of the use of EJ. Final feedback is provided by the teacher to foster growth and improvement.

INFOBOX

Empowering academics to promote Evaluative Judgement – three training opportunities:

We want to empower teachers to design authentic assessment practices to better create work-ready graduates, who are able to operate independently in rapidly evolving, technologically-enabled environments and to promote EJ as means to judge the quality of work through standards.
At ZHE, we offer a half-day course online on Authentic Assessment and Evaluative Judgement: «How to judge the quality of my own work and that of others, including ChatGPT? Evaluative Judgement in the context of authentic assessment tasks». 27th September 2023, 13–17h, online.

From February to May 2024, the PH Zürich offers a one-time course: «Beyond Exams: Designing Authentic Assessment and Feedback Practices». The 1.5 ECTS module takes place in the context of the international project «PEER-Net» of the Department Projects in Education (PH Zürich). The course is taught in a team-teaching format by experts in assessment and feedback of the Faculty of Education of the University of Pristina in Kosovo and the ZHE. The participation in this module includes a reciprocal visit (Swiss scholars to Kosovo and the colleagues of Kosovo to Zurich), classroom visits and discussion with students.

In the context of our CAS Hochschuldidaktik, the module «Assessment und Evaluation» offers a comprehensive exploration of these subjects. 26th October to 7th December, PH Zürich. Enrol now!

About the Author

ChatGPT und KI im Bildungswesen – Disruption, Revolution oder hatten wir alles schon?

Text: Barbara Getto und Selina Valdivia Rojas

Mischt KI (Künstliche Intelligenz) jetzt das Bildungswesen auf? Zumindest hat es zurzeit den Anschein, als ob sich mit der neuen Technologie ChatGPT eine erdbebengleiche Erschütterung durch die Bildungslandschaft zieht. Zu Recht? (Zu) oft schon hatten wir die Hoffnung – oder Befürchtung –, das Aufkommen einer neuen Technologie würde die Bildung grundsätzlich verändern. Zeit für eine Einordnung. Gerade weil es sich um ein teilweise so schwer greifbares Thema handelt und die Implikationen so tiefgreifend scheinen, ist der Diskurs darüber so wichtig. Uns interessiert hier insbesondere die Frage, was die neue Technologie für die Hochschulbildung bedeutet.

Beginnen wir mit einer begrifflichen Einordnung.

«Schreibt wie ein Mensch»

Was ist denn eigentlich eine «Künstliche Intelligenz» (KI)? Eine KI ist nichts anderes als ein menschgemachtes statistisches Modell. Jeder KI liegt eine Auswahl von Daten sogenannten Trainingsdaten zu Grunde. Anhand dieser Trainingsdaten und einem Input berechnet der Sprachgenerator das statistisch wahrscheinlichste nächste Wort, damit den statistisch wahrscheinlichsten nächsten Satz und somit einen statistisch wahrscheinlichen Text. Eine KI ist höchstens so gut wie ihre Trainingsdaten. Ein Beispiel: Wenn eine KI mit Daten bzw. Texten trainiert wird, in denen auf das Wort «ich» oft das Wort «bin» folgt, wird diese KI Texte produzieren, in denen «bin» oft auf «ich» folgt. Dieses Konzept ist nicht neu; Autokorrektur, die mehr oder weniger sinnvoll korrigiert, findet sich seit einigen Jahren auf jedem Smartphone.

Ein Student spricht mit einer KI. (Quelle: Adobe Stock)

Was ist denn so neu an ChatGPT? GPT steht für «Generative Pre-trained Transformer», also generativ vortrainierter Transformator. Diese Sprach-KI wurde mit Textdaten aus dem Internet mit insgesamt etwa 500 Milliarden Wörtern (das wäre fast 20’000 Mal die gesamte Brockhaus Ausgabe)  darauf trainiert, selbst Texte zu generieren – und zwar möglichst menschenähnliche. ChatGPT nutzt einen sogenannten Transformer, ein neuronales Netzwerk, das 2017 von KI-Spezialistinnen und -Spezialisten sowie Programmierer:innen bei Google entwickelt wurde. Bisher gelang es keinem Chatbot, derart menschenähnliche Texte zu produzieren. Wörter werden in Tokens zerlegt. Die Zerlegung in Tokens basiert auch auf der Semantik eines Wortes und nicht nur vor allem auf der Syntax wie bei bisherigen «autocomplete» Systemen. Die Texte sind auf einem sprachlich sehr hohen Niveau und beeindrucken mit perfekter Grammatik. ChatGPT kann darüber hinaus sein Register anpassen und wie bestimmte Personen schreiben. Das lädt zu interessanten Spielereien ein, so kann man zum Beispiel ChatGPT Gedichte über die Digitalisierung im Stil von Goethe verfassen lassen (Stichworte: Shakespeare, 1. Jahr Bachelorstudentin, Kind).

Goethe hat keine Gedichte über die Digitalisierung geschrieben; ist das also neu, was ChatGPT produziert?  Es sind keine genuin neuen Texte, die hier entstehen. Ein Text von ChatGPT ist eher vergleichbar mit einem Mosaik aus 1’000’000 Teilen, die immer wieder neu zusammengesetzt werden. Allein die Menge der Trainingsdaten erweckt den Anschein, dass ChatGPT neue Sachen produziert. Die Konversation mit dem Chat-Roboter beeindruckt.

Ist die aktuelle Aufregung angebracht?

Das Aufkommen neuer digitaler Technologien ist nichts Neues und das Potenzial von KI-basierten Tools und Diensten für die Bildung ist (eigentlich) bekannt. Warum also die Vielzahl an Beiträgen, Diskussionsrunden, verunsicherte Lehrpersonen, Hochschulen, die mit Verboten reagieren, etc.?

Hier zeichnet sich ein bekanntes Reaktionsmuster im Kontext der Digitalisierung ab, das auch im Bildungsbereich sichtbar wird: Neuen Technologien wird (positiv oder negativ) eine enorme Wirkung zugeschrieben. Diese emotionalen Reaktionen variieren naturgemäss zwischen Euphorie und Angst. So wird ChatGPT eine enorme Zerstörungskraft vorhergesagt und mit starken Bildern untermalt: «ChatGPT kommt wie ein Erdbeben über uns», oder: «Die zermalmende Macht des KI-Konformismus – ChatGPT ist eine trojanische Bombe». Auf der anderen Seite wird Fortschritt und Verbesserung prophezeit: «ChatGPT und Schule: Hausaufgaben werden sich grundlegend ändern» oder gar «ChatGPT kann zu mehr Bildungsgerechtigkeit führen».

Ob sich diese Hoffnungen und Befürchtungen bewahrheiten, werden wir sehen. «Abwarten» möchten wir hier sehr bewusst nicht empfehlen. Ein massentaugliches dialogbasiertes KI-System wie ChatGPT demonstriert einer breiten Öffentlichkeit, was KI alles kann. Damit eröffnet sich auch die Chance (und die Notwendigkeit!) über die Implikationen, Risiken und Potenziale zu sprechen.

Was bedeutet ChatGPT für die Hochschulbildung?

Die Stimmung an den Hochschulen schwankt entsprechend zwischen Begeisterung über die Leistungsfähigkeit der KI-Bots, der Verwunderung über die neuen Möglichkeiten bis zur Sorge um eine Plagiatsmaschine. Innerhalb von weniger als einem Jahr seit der Veröffentlichung hat der mit künstlicher Intelligenz gesteuerte KI-Bot die Wissenschaft aufgeschreckt. Wie also damit umgehen? Was heisst das für die Wissenschaft? Was heisst das für die Lehre? Wie sollen wir mit Prüfungen umgehen?

Dozent:innen sowie Lehrer:innen sind besorgt. Mit ChatGPT verfasste Texte lassen sich nicht mehr als Plagiate erkennen. Wie soll zukünftig Eigen- von Fremdleistung unterschieden werden?  Einige Hochschulen haben bereits mit Verboten reagiert. Aber ist das wirklich die Lösung?

Schliesslich sollen die Hochschulen die Absolventen ja auf die Digitalisierung verschiedenster Bereiche der Gesellschaft vorbereiten und sie nicht künstlich behindern. Die KI-Textgenerierung aber hat ein Schlaglicht auf die mangelnde Digitalisierung der Hochschulbildung geworfen. KI zwingt Hochschulen zu Veränderungen: Schriftliche Arbeiten werden anders aussehen, als wir sie jetzt kennen.

In vielen Studiengängen ist das Schreiben-Können ein basales Bildungsziel – wenn auch mit unterschiedlicher Gewichtung und Ausprägung je nach Fachdisziplin.

ChatGPT trifft damit in zumindest eines der Herzen der akademischen Welt. Die Fähigkeit, gut zu schreiben, die eigenen Ideen klar und prägnant zu formulieren, ist bislang ein zentrales Ziel vieler Studiengänge. Schreiben dient, so die bisher verbreitete Auffassung, nicht nur dazu, die eigenen Gedanken anderen gegenüber schriftlich auszudrücken, sondern auch das eigene Denken zu schärfen und Verständnis für komplexe Sachverhalte zu entwickeln. Schreibend eignen wir uns Themen auf eine ganz andere Art und Weise an, als wir das lesend tun (Gabi Reinmann 2023). Werden Schreibaufträge an ChatGPT delegiert, besteht die Gefahr, dass die Schreibfähigkeit ganzer Generationen verkümmert oder sich gar nicht erst ausbildet.

Was also tun? Ein Zwischenfazit

Im aktuellen Diskurs über die Implikationen für die Hochschulbildung konzentrierte sich das Gros der Stimmen schnell auf das Thema Prüfungen: Einigermassen vorhersehbar galt die erste Sorge den Täuschungsmöglichkeiten bei schriftlichen Leistungen, die ohne Aufsicht erbracht werden und demnach relativ einfach an ChatGPT delegiert werden könnten. Diese pauschale Befürchtung aber erscheint ebenso unangemessen wie die Hoffnung auf immer bessere werdende KI-gestützte Systeme, mit denen sich nicht-erlaubte KI-Nutzung aufdecken lässt. Gegen Misstrauen, Kontrolle und daraus resultierende Ängste hilft nur der Versuch, die neuen KI-Systeme mit wissenschaftlichem Blick und Verantwortung zu explorieren und offen darüber zu sprechen – gerade in der Lehre.

Statt sich gegenseitig darin zu überbieten, mit dem Einsatz von Chatbots die Gestaltung von Lehre effizienter und/oder origineller zu machen, könnten wir die aktuelle Aufregung über ChatGPT auch als Anlass nehmen, unsere Prüfungskultur und/oder den Sinn von Massenuniversitäten in Frage zu stellen (Gabi Reinmann 2023).

Wer ein selbstbestimmtes Leben führen will, muss ein Verständnis für das Digitale haben. Er oder sie muss verstehen, dass es um Vernetzung und um Software, die Daten verarbeitet, geht. KI verspricht Entlastung von Routine- und Standardaufgaben auch in der Lehre: So können Lehrpersonen ChatGPT nutzen, um wiederkehrende Anfragen von Studierenden zu beantworten und Essays zu bewerten, Anregungen geben lassen für Formulierungen und für Standardtexte sowie Fälle/Fallbeispiele. Zentral ist, mit den Studierenden über die Technologie und ihre Implikationen zu sprechen. Sie zu informieren und vor allem mit ihnen zu diskutieren (z.B. Was ist kritisch, was ist vorteilhaft, was sind ihre Erfahrungen?). Was ist am Text gut gelöst, was nicht, was stimmt nicht? (Z.B.: Wie erkenne ich, dass Quellen nicht stimmen?)

Klar könnten Hochschulen auch versuchen, mit Verboten zu reagieren. Zielführender wäre es unserer Ansicht nach, sich mit dem ChatGPT zu befassen und in den Diskurs mit Lehrenden und Lernenden einzusteigen. Eine Aufgabe von Bildungseinrichtungen ist doch, Studierende zu befähigen, sich mit digitalen Medien auseinanderzusetzen. Akteure und Akteurinnen an Hochschulen sind aufgerufen, die Chancen und Risiken der Digitalisierung für die Entwicklung von Bildungsorganisationen zu erkennen und sie strategisch weiterzuentwickeln. Dazu gehört auch, dass sie die Implikationen der Veränderungen verstehen und eine verantwortungsvolle Haltung hinsichtlich kultureller und ethischer Fragen des Digitalen entwickeln.

Die Abschlussworte stammen von ChatGPT. Wir haben sie gebeten, ein Gedicht zur Digitalisierung im Stil von Goethe zu verfassen.

Das Netz, es spinnt sich um die Welt,
Und durch die Schranken dringt es schnell.
Doch was ist mit dem Menschen selbst,
Der immer mehr im Netz verfällt?

ChatGPT (Mai 2023)
INFOBOX

CAS Bildungsmanagement im Digitalen
Im CAS Bildungsmanagement im Digitalen entwickeln und vertiefen Führungskräfte ihre Kompetenzen im Management von Bildungseinrichtungen im Kontext des Digitalen. Dies betrifft die Entwicklung von Strategien für die Digitalisierung, die operative Planung und Umsetzung entsprechender Projekte und Angebote sowie die kulturelle Begleitung des organisationalen Wandels.

Infoveranstaltung
Am Dienstag, 20. Juni 2023 findet von 17 bis 18 Uhr eine Informationsveranstaltung zum CAS Bildungsmanagement im Digitalen statt. Jetzt anmelden

Zu den Autorinnen

Barbara Getto ist Professorin für Medienbildung mit dem Schwerpunkt Hochschul- und Erwachsenenbildung an der PH Zürich. Ihr Forschungsschwerpunkt liegt im Bereich Bildung und Digitalisierung. Gemeinsam mit Gabriel Flepp leitet sie den CAS Bildungsmanagement im Digitalen.

Selina Valdivia Rojas ist Studentin im Bachelor-Studiengang Primar an der PH Zürich, wo sie auch als studentische Mitarbeiterin tätig ist. Sie interessiert sich für Wörter, Zahlen und Menschen und ist sehr gespannt darauf, wie wir in zwanzig Jahren schreiben, denken und leben.

Zwischen Technologie und Menschlichkeit

Text: Dominic Hassler und Monique Honegger

Wenn wir als Bildungsfachleute Curricula und Unterricht im Kontext von KI weiterentwickeln, sollten uns die Stärken und Schwächen von Künstlicher Intelligenz (KI) und von Menschen bewusst sein. Tools wie etwa ChatGPT erzeugen Texte, die solchen von Menschen gleichen. Allerdings produzieren sie Texte auf andere Weise. Vorliegender Beitrag ergründet, u.a. mit Bezug auf Ausführungen von Floridi (2014), worin dieser Unterschied besteht. Abschliessend identifizieren wir Fragen für professionelles Handeln zwischen Technologie und Menschlichkeit.  

Wir bauen keine Roboter, die wie ein Mensch Hemden bügeln und falten. (Quelle: Youtube)
Stattdessen bauen wir eine Kleiderfaltmaschine.
(Quelle: Facebook)

Menschen bauen Maschinen nicht mit dem Ziel, dass die Maschinen Aufgaben auf dieselbe Weise lösen wie Menschen. Andernfalls müsste ein Roboter am Spülbecken stehen und das Geschirr mit Schwamm oder Bürste reinigen. Stattdessen bauen wir einen Geschirrspüler (Luciano Floridi, 2014). Das Ingenieurwesen nennt dies «Enveloping» (dt.: umhüllen). Der Geschirrspüler fungiert als Hülle für die Maschine, die unser Geschirr reinigt. In dieser Hülle erledigt die Maschine ihren Job effizient und effektiv. Entsprechend ist eine Autobaustrasse eine grossformatige Hülle für Maschinen, die Autos zusammenbauen. Solche Umgebungen sind für Maschinen gemacht, nicht für Menschen. 

Diese «Hülle» ist nicht für Menschen gemacht. Rätsel: Wo ist der Mensch?
(Quelle: Adobe Stock)

Ähnlich verhält sich der Transfer von menschlichem Schreiben und einem Tool wie ChatGPT. Wenn ein Mensch einen Text verfasst, erfordert dies Intelligenz sowie für eine angemessene Performance als Erwachsener rund 20’000 Stunden Übung (vgl. Linnemann 2014, S. 27, Kellogg 2008, S. 4). Schreibt hingegen ChatGPT einen Text, braucht es beträchtlich Speicher und Rechenpower.  

Zahlreiche Prozesse unserer Welt sind automatisiert dank Maschinen, also in Envelopes gehüllt. Jeden Tag werden mehr Daten gesammelt, gibt es mehr Geräte, die miteinander kommunizieren, Tools, Satelliten, Dokumente, RFID, IoT – in einem Wort: mehr Enveloping. Darum kann es manchmal so aussehen, als ob Maschinen zunehmend «intelligenter» und Menschen «dümmer» werden. 

Beziehung zwischen Menschen und Technik

Stellen wir uns ein Menschen-Paar mit zwei unterschiedlichen Charakteren vor. Die eine Person ist fleissig, unflexibel und stur. Die andere Person ist faul, anpassungsfähig und nachgiebig. Ihre Beziehung funktioniert, weil sich die faule Person der fleissigen Person anpasst. Derzeit hüllen wir als Teil eines Paars (Mensch-Technik) immer grössere Teile unserer Umgebung in smarte ICTs. Mitunter prägen diese Technologien unsere physische und konzeptionelle Umwelt. Schliesslich ist KI die arbeitssame, aber unflexible Paarhälfte, während Menschen intelligent, aber faul sind. Es passt sich demnach der faule Part an, wenn eine Trennung keine Option ist (vgl. Luciano Floridi 2014, S. 150). Mensch und Maschine als gleichwertiges Paar auf Augenhöhe zu denken, entspricht einer Handlungslogik. Es gibt jedoch auch eine Sehnsuchts- und Angstlogik, respektive eine emotionale Interpretation, die medial weit verbreitet ist: diese geht von einer Dominanz des anderen Paarteils aus.

Mediale Omnipräsenz von «allgemeiner künstlicher Intelligenz»

In Filmen und Literatur und finden sich mächtige «allgemeine künstliche Intelligenz» als fiktionaler Alltag: von Olimpia im Sandmann (ETA Hoffmann) bis zu HAL 9000 in A Space Odyssey oder Skynet in Terminator. Gleichzeitig warnen und warnten Persönlichkeiten wie Stephen Hawking oder Elon Musk davor, dass eine künstliche Intelligenz sich irgendwann über die Menschheit erheben könnte. Ingenieur:innen von Microsoft verkündeten kürzlich, «Experimente mit ChatGPT 4.0 hätten einen Funken von allgemeiner KI gezeigt». Daraus liesse sich folgern, dass die Menschheit auf dem Weg ist, eine mächtige «allgemeine KI» zu entwickeln und aktuelle Schreibroboter wie ChatGPT der nächste Schritt auf diesem Weg sind. Ist diese Folgerung gerechtfertigt? Oder wir können auch anders fragen: Haben KI wie ChatGPT heute oder morgen das Potenzial etwas Bedeutungsvolles zu kreieren? 

Tippende Affen und unendlich viele Daten

Theoretisch kann KI etwas Neues oder Innovatives kreieren, wie das Infinite Monkey Theorem zeigt. Stellen wir uns eine unendliche Anzahl von Affen vor, die auf Schreibmaschinen tippen. Irgendwann verfasst ein Affe per Zufall Goethes Faust. Allerdings versteckt sich der Faust-Text in Galaxien von zusammenhangslosen Zeichen und Texten. Die tippenden Affen realisieren nicht, wenn ein für die menschliche Kultur bedeutsames Werk erschaffen wird. Kurz: Es gibt viel Produziertes, aber den produzierenden Affen entgeht der kulturelle, intellektuelle oder diskursive Wert des jeweiligen Textes. 

Bild einer papierüberquellenden Galaxis (Annäherung).
(Quelle: Adobe Stock)

Die schreibende Affenhorde lässt sich mit ChatGPT vergleichen: ChatGPT beherrscht die Syntax unserer Sprache fast perfekt. Daher entstehen keine Texte mit Schreibfehlern auf der Textoberfläche (Grammatik, Orthografie) und ChatGPT arbeitet etwas weniger zufällig als die unendlich vielen Affen. Gleichwohl müsste ChatGPT unzählige sinnfreie Wortkombinationen verfassen, um zufällig ein Kulturgut wie Faust zu kreieren. Aufgrund des Mooreschen Gesetzes (alle ca. 18 Monate verdoppelt sich die Leistung neuer Computerchips) können KIs bereits heute nahezu unendlich viele Texte kreieren. 

KI versteht jedoch nicht, was sie schreibt. Sie kombiniert aufgrund statistischer Werter, welche Worte zueinanderpassen. Etwas Bedeutungsvolles schafft sie per Zufall, ohne es zu merken. Diese Unbewusstheit der KI schmälert keineswegs ihr enormes Leistungspotenzial. Nützlich ist, dass KI auf Knopfdruck in riesigen Datenmengen weitere Worte und Begriffe findet, die zu einer Suchanfrage passen und daraus Text produziert. Die Resultate erinnern an Texte, welche fleissig sammelnde Lernende für die Schule verfassen. Nebenbei: oftmals ist es unabdingbar, solchen Lernenden zu feedbacken, dass ihr Text einen Fokus, eine diskursive Position sowie eine Verknüpfung der dargestellten Inhalte benötigt. 

Die Existenz solcher KIs wirft Fragen auf für die Bildungswelt, insbesondere für Schreibaktivitäten. Sinkt etwa die Motivation dafür, weil KI schreiben kann (PHSZ)? Oder erhöht sich die Performanz beim Schreiben dank KI-Unterstützung? Dies ist nicht nur eine Frage von Sprachunterricht, bekanntlich findet Lernen nicht ohne Sprache statt. Ebensowenig funktioniert eigenständiges Denken ohne Sprache (Honegger/De Vito/Bach 2020). Umgang mit KI betrifft Denkförderung und Sprachförderung.

Es folgt eine Auswahl von weiterführenden Fragen für den Unterricht und das Lernen in allen Fächern:

A) Lehrende

  1. Wie integriere ich als Lehrende KI-Tools sinnvoll in den Unterricht (→ Beispiel)?  
  1. Wie gestalte ich motivierende Schreibaufgaben und baue die Leistungsfähigkeit von KI in Lernprozesse ein? 
  1. Wie begleite ich einzelne Lernende mit oder dank KI effektiv? 
  1. Was bedeuten Lösungsansätze wie «mehr mündlich» oder «mehr prozessorientierte Lernbegleitung» (siehe bspw. PHSZ) konkret für meinen Unterricht? Gezieltes wirksames Feedback und wirkungsvolle Reflexion. Dies impliziert eine Änderung in methodischen Settings (vgl. Hassler/Honegger 2022

B) Schulleitungen und Schulteams 

  1. Wie nutzen wir KI-Tools im Unterricht als Werkzeug und gewährleisten dabei den Datenschutz? → eine Möglichkeit
  1. Welche Richtlinien und Freiräume brauchen wir für den Einsatz von KI im Unterricht und an Prüfungen (inklusive Projektarbeiten)?

C) Prüfungen

  1. Welche Rahmenbedingungen gelten für Prüfungen und Projektarbeiten?  
  1. Inwiefern sind Inhalte und Kompetenzen anzupassen? (Siehe bspw. Müller/Winkler 2020 für eine Einordnung des Grammatikunterricht)  

D) Weiter- und Ausbildung von Lehrenden 

  1. Inwiefern sind aktuellen Kompetenzbeschreibungen und -modelle anzupassen (Kröger 2021)? 
  1. Welche Kulturkompetenzen (Schreib- oder Lesekompetenzen u.a.) brauchen Menschen in Zukunft?  
  1. Welche Inhalte sollen vermittelt, welche Kompetenzen trainieren werden? 

Lehren und Lernen in einer von digitaler Technik geprägten Welt ist Balancieren zwischen faul und schlau:  Die Beziehung zwischen Mensch und Technik steuern.

INFOBOX

Angebote
Mehr über die Chancen und Herausforderungen von KI und anderen aufkommenden Bildungstechnologien wie VR oder Learning Analytics erfahren Sie im Modul Emerging Learning Technologies am 25.8. und 15.9.2023 am Campus PH Zürich.

Prägnante Aufgabenstellungen für Lernende effizient formulieren
Blitzkurs online, 25.5.2023, 17.30–19 Uhr

Podcast
Hören Sie mehr zum Thema ChatGPT und KI im Gespräch zwischen Rocco Custer (FHNW) und Dominic Hassler (PHZH) im Podcast #12 «Resonanzraum Bildung – ChatGPT, Chancen und Risiken in der Berufs- und Hochschulbildung».

Zu den Autor:innen

Monique Honegger ist Senior Teacher, ZFH-Professorin an der PH Zürich. Beratend, entwickelnd, weiterbildend und bildend. 

LINKEDIN
Share
INSTAGRAM