Text: Dominic Hassler und Monique Honegger
Wenn wir als Bildungsfachleute Curricula und Unterricht im Kontext von KI weiterentwickeln, sollten uns die Stärken und Schwächen von Künstlicher Intelligenz (KI) und von Menschen bewusst sein. Tools wie etwa ChatGPT erzeugen Texte, die solchen von Menschen gleichen. Allerdings produzieren sie Texte auf andere Weise. Vorliegender Beitrag ergründet, u.a. mit Bezug auf Ausführungen von Floridi (2014), worin dieser Unterschied besteht. Abschliessend identifizieren wir Fragen für professionelles Handeln zwischen Technologie und Menschlichkeit.
Menschen bauen Maschinen nicht mit dem Ziel, dass die Maschinen Aufgaben auf dieselbe Weise lösen wie Menschen. Andernfalls müsste ein Roboter am Spülbecken stehen und das Geschirr mit Schwamm oder Bürste reinigen. Stattdessen bauen wir einen Geschirrspüler (Luciano Floridi, 2014). Das Ingenieurwesen nennt dies «Enveloping» (dt.: umhüllen). Der Geschirrspüler fungiert als Hülle für die Maschine, die unser Geschirr reinigt. In dieser Hülle erledigt die Maschine ihren Job effizient und effektiv. Entsprechend ist eine Autobaustrasse eine grossformatige Hülle für Maschinen, die Autos zusammenbauen. Solche Umgebungen sind für Maschinen gemacht, nicht für Menschen.
Ähnlich verhält sich der Transfer von menschlichem Schreiben und einem Tool wie ChatGPT. Wenn ein Mensch einen Text verfasst, erfordert dies Intelligenz sowie für eine angemessene Performance als Erwachsener rund 20’000 Stunden Übung (vgl. Linnemann 2014, S. 27, Kellogg 2008, S. 4). Schreibt hingegen ChatGPT einen Text, braucht es beträchtlich Speicher und Rechenpower.
Zahlreiche Prozesse unserer Welt sind automatisiert dank Maschinen, also in Envelopes gehüllt. Jeden Tag werden mehr Daten gesammelt, gibt es mehr Geräte, die miteinander kommunizieren, Tools, Satelliten, Dokumente, RFID, IoT – in einem Wort: mehr Enveloping. Darum kann es manchmal so aussehen, als ob Maschinen zunehmend «intelligenter» und Menschen «dümmer» werden.
Beziehung zwischen Menschen und Technik
Stellen wir uns ein Menschen-Paar mit zwei unterschiedlichen Charakteren vor. Die eine Person ist fleissig, unflexibel und stur. Die andere Person ist faul, anpassungsfähig und nachgiebig. Ihre Beziehung funktioniert, weil sich die faule Person der fleissigen Person anpasst. Derzeit hüllen wir als Teil eines Paars (Mensch-Technik) immer grössere Teile unserer Umgebung in smarte ICTs. Mitunter prägen diese Technologien unsere physische und konzeptionelle Umwelt. Schliesslich ist KI die arbeitssame, aber unflexible Paarhälfte, während Menschen intelligent, aber faul sind. Es passt sich demnach der faule Part an, wenn eine Trennung keine Option ist (vgl. Luciano Floridi 2014, S. 150). Mensch und Maschine als gleichwertiges Paar auf Augenhöhe zu denken, entspricht einer Handlungslogik. Es gibt jedoch auch eine Sehnsuchts- und Angstlogik, respektive eine emotionale Interpretation, die medial weit verbreitet ist: diese geht von einer Dominanz des anderen Paarteils aus.
Mediale Omnipräsenz von «allgemeiner künstlicher Intelligenz»
In Filmen und Literatur und finden sich mächtige «allgemeine künstliche Intelligenz» als fiktionaler Alltag: von Olimpia im Sandmann (ETA Hoffmann) bis zu HAL 9000 in A Space Odyssey oder Skynet in Terminator. Gleichzeitig warnen und warnten Persönlichkeiten wie Stephen Hawking oder Elon Musk davor, dass eine künstliche Intelligenz sich irgendwann über die Menschheit erheben könnte. Ingenieur:innen von Microsoft verkündeten kürzlich, «Experimente mit ChatGPT 4.0 hätten einen Funken von allgemeiner KI gezeigt». Daraus liesse sich folgern, dass die Menschheit auf dem Weg ist, eine mächtige «allgemeine KI» zu entwickeln und aktuelle Schreibroboter wie ChatGPT der nächste Schritt auf diesem Weg sind. Ist diese Folgerung gerechtfertigt? Oder wir können auch anders fragen: Haben KI wie ChatGPT heute oder morgen das Potenzial etwas Bedeutungsvolles zu kreieren?
Tippende Affen und unendlich viele Daten
Theoretisch kann KI etwas Neues oder Innovatives kreieren, wie das Infinite Monkey Theorem zeigt. Stellen wir uns eine unendliche Anzahl von Affen vor, die auf Schreibmaschinen tippen. Irgendwann verfasst ein Affe per Zufall Goethes Faust. Allerdings versteckt sich der Faust-Text in Galaxien von zusammenhangslosen Zeichen und Texten. Die tippenden Affen realisieren nicht, wenn ein für die menschliche Kultur bedeutsames Werk erschaffen wird. Kurz: Es gibt viel Produziertes, aber den produzierenden Affen entgeht der kulturelle, intellektuelle oder diskursive Wert des jeweiligen Textes.
Die schreibende Affenhorde lässt sich mit ChatGPT vergleichen: ChatGPT beherrscht die Syntax unserer Sprache fast perfekt. Daher entstehen keine Texte mit Schreibfehlern auf der Textoberfläche (Grammatik, Orthografie) und ChatGPT arbeitet etwas weniger zufällig als die unendlich vielen Affen. Gleichwohl müsste ChatGPT unzählige sinnfreie Wortkombinationen verfassen, um zufällig ein Kulturgut wie Faust zu kreieren. Aufgrund des Mooreschen Gesetzes (alle ca. 18 Monate verdoppelt sich die Leistung neuer Computerchips) können KIs bereits heute nahezu unendlich viele Texte kreieren.
KI versteht jedoch nicht, was sie schreibt. Sie kombiniert aufgrund statistischer Werter, welche Worte zueinanderpassen. Etwas Bedeutungsvolles schafft sie per Zufall, ohne es zu merken. Diese Unbewusstheit der KI schmälert keineswegs ihr enormes Leistungspotenzial. Nützlich ist, dass KI auf Knopfdruck in riesigen Datenmengen weitere Worte und Begriffe findet, die zu einer Suchanfrage passen und daraus Text produziert. Die Resultate erinnern an Texte, welche fleissig sammelnde Lernende für die Schule verfassen. Nebenbei: oftmals ist es unabdingbar, solchen Lernenden zu feedbacken, dass ihr Text einen Fokus, eine diskursive Position sowie eine Verknüpfung der dargestellten Inhalte benötigt.
Die Existenz solcher KIs wirft Fragen auf für die Bildungswelt, insbesondere für Schreibaktivitäten. Sinkt etwa die Motivation dafür, weil KI schreiben kann (PHSZ)? Oder erhöht sich die Performanz beim Schreiben dank KI-Unterstützung? Dies ist nicht nur eine Frage von Sprachunterricht, bekanntlich findet Lernen nicht ohne Sprache statt. Ebensowenig funktioniert eigenständiges Denken ohne Sprache (Honegger/De Vito/Bach 2020). Umgang mit KI betrifft Denkförderung und Sprachförderung.
Es folgt eine Auswahl von weiterführenden Fragen für den Unterricht und das Lernen in allen Fächern:
A) Lehrende
- Wie integriere ich als Lehrende KI-Tools sinnvoll in den Unterricht (→ Beispiel)?
- Wie gestalte ich motivierende Schreibaufgaben und baue die Leistungsfähigkeit von KI in Lernprozesse ein?
- Wie begleite ich einzelne Lernende mit oder dank KI effektiv?
- Was bedeuten Lösungsansätze wie «mehr mündlich» oder «mehr prozessorientierte Lernbegleitung» (siehe bspw. PHSZ) konkret für meinen Unterricht? Gezieltes wirksames Feedback und wirkungsvolle Reflexion. Dies impliziert eine Änderung in methodischen Settings (vgl. Hassler/Honegger 2022)
B) Schulleitungen und Schulteams
- Wie nutzen wir KI-Tools im Unterricht als Werkzeug und gewährleisten dabei den Datenschutz? → eine Möglichkeit
- Welche Richtlinien und Freiräume brauchen wir für den Einsatz von KI im Unterricht und an Prüfungen (inklusive Projektarbeiten)?
C) Prüfungen
- Welche Rahmenbedingungen gelten für Prüfungen und Projektarbeiten?
- Inwiefern sind Inhalte und Kompetenzen anzupassen? (Siehe bspw. Müller/Winkler 2020 für eine Einordnung des Grammatikunterricht)
D) Weiter- und Ausbildung von Lehrenden
- Inwiefern sind aktuellen Kompetenzbeschreibungen und -modelle anzupassen (Kröger 2021)?
- Welche Kulturkompetenzen (Schreib- oder Lesekompetenzen u.a.) brauchen Menschen in Zukunft?
- Welche Inhalte sollen vermittelt, welche Kompetenzen trainieren werden?
Lehren und Lernen in einer von digitaler Technik geprägten Welt ist Balancieren zwischen faul und schlau: Die Beziehung zwischen Mensch und Technik steuern.
INFOBOX
Angebote
Mehr über die Chancen und Herausforderungen von KI und anderen aufkommenden Bildungstechnologien wie VR oder Learning Analytics erfahren Sie im Modul Emerging Learning Technologies am 25.8. und 15.9.2023 am Campus PH Zürich.
Prägnante Aufgabenstellungen für Lernende effizient formulieren
Blitzkurs online, 25.5.2023, 17.30–19 Uhr
Podcast
Hören Sie mehr zum Thema ChatGPT und KI im Gespräch zwischen Rocco Custer (FHNW) und Dominic Hassler (PHZH) im Podcast #12 «Resonanzraum Bildung – ChatGPT, Chancen und Risiken in der Berufs- und Hochschulbildung».
Zu den Autor:innen
Dominic Hassler ist Dozent an der PH Zürich und leitet den CAS Unterricht gestalten mit digitalen Medien im Zentrum Berufs- und Erwachsenenbildung.
Monique Honegger ist Senior Teacher, ZFH-Professorin an der PH Zürich. Beratend, entwickelnd, weiterbildend und bildend.
Danke für diesen Blog Post, der kurz und bündig so vieles anspricht und (m)eine Basis für einen persönlichen Deep Dive ist. Wir bleiben dran!
Vielen Dank für diesen Beitrag. Er ist sehr anregend.
Der Begriff des Enveloping kannte ich nicht. Auch eindrücklich, wieviel Zeit wir einsetzen müssen, um einen Text mit angemessener Performance zu schreiben – was auch immer das heissen möge.
Den Bedeutungsbegriff möchte ich aber gerne weiterdiskutieren. Ich stelle in Frage, dass eine Bedeutung durch die Intention des/der „Produzenten/Produzentin“ entsteht.
Sie wird vielmehr in Form einer individuellen oder – wohl eher – einer sozialen Handlung an den jeweiligen Gegenstand herangetragen.
„Faust“ hat nicht „an sich“ Bedeutung. Wir haben den Text als bedeutungsvoll bestimmt und das für den Moment. Was einmal Bedeutung hatte, verliert diese schon morgen.
In diesem Sinne könnte man behaupten, dass im Moment der Produktion kein Unterschied zwischen der menschlichen und der maschinell-stochastischen (?) Produktion bezüglich der Bedeutung besteht.
Die Frage ist wohl vielmehr, ob wir bereit sind, maschinell-stochastischen Produkten eine Bedeutung zuzuschreiben. Kritisch gesprochen: Warum nicht?
Was spricht dagegen, einem mit Wahrscheinlichkeit (zufällig ist nicht korrekt, oder? ) berechneten Produkt Bedeutung zuzuschreiben? Das ist für mich die spannendere Frage.
Danke für das Lob und für deine Überlegungen. Tatsächlich war es nicht unsere Absicht zu entscheiden oder zu bewerten, inwiefern etwas maschinell-stochastisch kreiertes über Bedeutung verfügt.
Man kann durchaus argumentieren, dass bspw. der KI-generierte Song aus The Weeknd und Drake (https://www.npr.org/2023/04/21/1171032649/ai-music-heart-on-my-sleeve-drake-the-weeknd ) über kulturelle Bedeutung verfügt – zumindest hat er schnell eine grosse Popularität erreicht.
Unser Anliegen war vielmehr aufzuzeigen, dass KI nicht versteht, was sie produziert und das alles nur auf stochastischen Werten basiert und um deren Bedeutung einzuordnen immer der Mensch notwendig ist. Und dass aktuell eher davon auszugehen ist, dass KI das auch zukünftig nicht können werden (siehe bspw. https://www.nzz.ch/technologie/immer-groesser-immer-besser-was-ist-von-gpt-6-7-und-8-zu-erwarten-ld.1736980 ).