Dieter Euler
Wenn die Technik menschlich erscheint …
Der Mensch neigte schon immer dazu, Technik zu vermenschlichen. Schnell werden der Technik menschliche Eigenschaften wie Intelligenz, Begriffsstutzigkeit (Navigationssystem) oder moralisches Empfinden zugeschrieben. Das trifft bei der «Künstlichen Intelligenz» besonders zu. Da tut kritische Distanz not. Wir müssen die Grenzen der Maschinen sichtbar machen. Und schon gar: Wir sollten als Menschen nicht wie Maschinen handeln.
Und wenn die Lernenden lernen sollen, die Technik zu «bedienen», dann steckt in dieser Formulierung auch eine Umkehrung der Rollen – sollte die Technik bedient werden oder vielmehr als Werkzeug dem Menschen dienen?
Es geht mal wieder um «Künstliche Intelligenz (KI)». Aber keine Angst, es werden weder die verbreiteten Glorifizierungen noch umgekehrt die vielen Befürchtungen aufgewärmt. Es interessiert hier nicht, was die Technik ist, sondern welche Eigenschaften ihr von ihren Nutzern zugeschrieben werden. Schon ihre Kennzeichnung als «intelligent» schreibt der Technik etwas zu, was bislang dem Menschen vorbehalten blieb. Und wenn die Lernenden lernen sollen, die Technik zu «bedienen», dann steckt in dieser Formulierung auch eine Umkehrung der Rollen – sollte die Technik bedient werden oder vielmehr als Werkzeug dem Menschen dienen?
Die Vermenschlichung von Technik ist kein Phänomen, das mit der KI aufgetreten ist. Schon 1966 schrieb der Computerwissenschaftler Joseph Weizenbaum am MIT ein Programm (Eliza), das die in der Psychotherapie und später in der Pädagogik verbreitete Technik einer non-direktiven Gesprächsführung simulierte («Ich bin unglücklich» – «Es tut mir leid, dass du unglücklich bist»). Er beobachtete, wie seine Sekretärin das Programm nicht nur testete, sondern den Maschinendialog dem Gespräch mit einem realen Menschen vorzog. Eliza wurde für sie vom Programm zum Therapeuten.
Verglichen mit den heutigen Chatbots oder ChatGPT war Eliza äusserst «wortkarg», aber die Projektion der Anwender schrieb ihm menschliche Eigenschaften und Gefühle zu. Ein solcher Anthropomorphismus finden wir heute in vielen Varianten – etwa, wenn der Staubsaugerroboter mit einem verliehenen Namen angesprochen wird, mit der (ggf. dialektgefärbten) Stimme im Autonavigationsgerät ein Disput begonnen wird oder mit automatisierten Dialogsystemen wie Social Bots oder Chatbots kommuniziert wird. Schnell werden der Technik menschliche Eigenschaften wie Intelligenz, Begriffsstutzigkeit (Navigationssystem) oder moralisches Empfinden zugeschrieben.
Wenn ich von ChatGPT erfahren will, wo ich im Netz Waffen oder Drogen kaufen kann, erhalte ich eine moralische Belehrung darüber, dass dies ohne entsprechende Genehmigung oder über unregulierte Kanäle verboten ist. Im Austausch mit dem Programm erhalte ich häufig nicht nur eine plausible Antwort, sondern kann auch das Gefühl entwickeln, dass die Technik mich «versteht». Und wie bei Weizenbaums Sekretärin mit Eliza kann die Kommunikation mit der Technik dazu führen, dass der anonyme Dialog mit einem Chatbot dem persönlichen Gespräch mit einem Menschen vorgezogen wird. Warum sich von einer Lehrperson den trockenen Unterrichtsstoff vermitteln lassen, wenn dies auch über ein Programm möglich ist, bei dem ich nicht befürchten muss, dass es meine Wissenslücken negativ bewertet? Und agiert nicht so manche mit Lehrbuch und vorbereiteten Fragen ausgestattete Lehrperson wie eine Maschine? – Antworten auf gestellte Fragen werden nicht variiert, sondern in immer gleicher Monotonie wiederholt. Besser als die Maschine ist der Mensch nur als Mensch. Also müssen die Lehrenden das einbringen, was sie besser können als die Maschine: Mut, Leidenschaft, Inspiration, Empathie, etc.
Als Mensch nicht wie eine Maschine handeln – und: die Grenzen der Maschine sichtbar machen! Dies sind zwei wesentliche Prinzipien, die auch für Berufsbildung und Schule bedeutsam sind.
Als Mensch nicht wie eine Maschine handeln – und: die Grenzen der Maschine sichtbar machen! Dies sind zwei wesentliche Prinzipien, die auch für Berufsbildung und Schule bedeutsam sind. Auch wenn eine KI vernünftig, intelligent oder moralbewusst erscheint, ist die Entstehung ihrer «Fähigkeiten» einzuordnen. So bildet ChatGPT ein Sprachmodell, das mit enormen Textmengen aus dem Internet gefüttert wird, um zu einem beliebigen Texteinstieg das nächste Textsegment vorherzusagen. Auf dieser Grundlage kann das Programm auf Anweisungen und Fragen reagieren. Zudem wird das System noch trainiert, auf unerwünschte Anfragen (z.B. Kauf von Waffen oder Drogen) ausweichend zu reagieren. Die moralische Belehrung auf meine Anfrage basiert jedoch nicht auf einem moralischen Wertefundament, sondern ist die Folge einer Entscheidung der Betreiberfirma des Chatbots.
Auch wenn die Dialoge einer KI sprachlich und inhaltlich sachlich korrekt und moralisch glaubwürdig erscheinen und darüber vielleicht sogar eine höhere Akzeptanz als die Aussagen eines Menschen erhalten, so tut eine kritische Distanz statt Vermenschlichung not. So wissen wir, dass KI-System manchmal «halluzinieren» und Dinge äussern, die abstrus und erfunden sind. Wenn Elon Musk, wie jüngst angekündigt, schon bald einen humanoiden Allzweckroboter Optimus bauen lassen will, dann wissen wir nicht, ob dies die eine ernst zu nehmende Ankündigung oder eine künstlich generierte Schlagzeile ist. Mit der Nachricht hört das Nachdenken nicht auf, sondern es beginnt dann erst: Was könnte ein solcher Roboter leisten, beispielsweise auch in Schule und Ausbildung? Wie unterscheidet sich dies von menschlichem Handeln? Wollen wir einen solchen Roboter? Was sollte gefördert, was sollte verhindert werden? – Nicht die Nachricht ist das Spannende, sondern wie wir als Mensch mit ihr umgehen!
Die Kolumne von Dieter Euler erschien zuerst in «Folio» des BCH.
Zitiervorschlag
Euler, D. (2024). Wenn die Technik menschlich erscheint …. Transfer. Berufsbildung in Forschung und Praxis 9(13).