Ja, es stimmt: Die neuen Anwendungen so genannter «Künstlicher Intelligenz» sind beeindruckend. Sie lassen sich leicht bedienen und liefern schnell gute Ergebnisse, ohne dass die Bedienung gelernt werden müsste. Ich schreibe meine Fragen und Wünsche in den Chat (ChatGPT) oder beschreibe ein Bild (Dall-E) – und bekomme Texte, Programme, Bilder, vom Computer generiert. Für mich zum ersten Mal werden auch Anwendungen maschinellen Lernens «kreativ» genutzt.
Und, ja, nun kommt ein Aber: Aus meiner Sicht gibt es gute Gründe, wenn mensch dieses Phänomen aus Sicht von Soziokultur bzw. Sozialer Arbeit betrachtet, nach dem ersten «oh wow» kritische, fachliche, pädagogische Überlegungen zu machen – sprich einen professionellen Blick einzunehmen. Denn es ist kompliziert. 🙂
Ich habe selbst in den letzten Wochen eine steile Lernkurve hingelegt auch wenn ich mich schon länger mit so genannter «KI» beschäftige. Mit diesem Artikel möchte ich meine Erkenntnisse teilen und so versuchen, die fachliche Diskussion zu differenzieren.
Ich versuche, die verschiedenen Aspekte durch verschiedene Ebenen auseinanderzuhalten und beginne mit
Ebene 0: Lebenswelt
Wie schon angedeutet: ChatGPT und Dall-E bieten eine riesig verbesserte Usability. In einer einzigen Textzeile kann ich meine Alltagsvorstellungen/Wünsche eingeben und bekomme recht zielgenaue Ergebnisse, die dieser Beschreibung entsprechen. Für die meisten Nutzer:innen ergeben sich so neue Dimensionen: es können leicht komplexe Texte oder Bilder oder gar Programme erstellt werden, auf Fragen kann leicht eine recht differenzierte Antwort gefunden werden (und Nachfragen gestellt). Das ist wohl die grösste Neuerung. Dass ChatGPT Teil einer Suchmaschine werden könnte, scheint logisch. Und das bietet auch Anknüpfungspunkte auf der fachlichen Ebene (s.u.).
Vor allem Dall-E sehe ich auch durchaus als kreatives Tool, mit dem eigene Sichtweisen ausgedrückt werden können. Ich mit meinen begrenzten Malkünsten wollte schon immer mal eine Radarstation im Stil von sowjetischen Arbeiter:innenkunstwerken produzieren:
Auch das birgt wieder Anknüpfungspunkte für fachliche Arbeit (wieder: s.u.).
Ebene 1: Menschenbild
Mein deutlichster Einwand gegen verbreitete Rezeptionen der Tools ist auf der Ebene des Menschenbilds. Die Diskussionen auf Social Media und auch in den meisten Pressebeiträgen folgen der Erzählung der Hersteller:innen von «Künstlicher Intelligenz» und von Transhumanismus, insbesondere dass Computer irgenwann einmal so weiterentwickelt sein könnten, dass sie die menschliche Vernunft und Intelligenz überflügeln.
In einer sehr sehenswerten Folge von «Sternstunde Religion» wird diese Ideologie beschrieben, betrachtet und kritisiert – als von einem vereinfachten und veralteten Menschenbild ausgehend. Die Kritik teile ich. Mir hat das Buch von Thomas Fuchs (2020) tiefgreifende Erkenntnisse gebracht. Er – und auch andere Kritiker:innen des Transhumanismus – kritisieren das dualistische und vereinfachte Menschenbild von einem Verstand in einem Körper. Es gibt (sehr) zahlreiche Belege, dass das anders ist, dass der Mensch auch mit dem Körper denkt und fühlt – und dass Intelligenz, Erinnerung und Persönlichkeit ohne den Körper (bzw. Leiblichkeit als Einheit von Körper und Geist) nicht denkbar sind. Wer die Ausführungen liest, d* wird klar, dass Transhumanismus ein Versprechen ist – das wahrscheinlich auch mit kapitalistischen Logiken zu verstehen ist.
Das sind für mich keine akademischen Fragen, sondern ein grundlegender Aspekt, wenn es darum geht, einen professionellen Blick auf die Angebote zu werfen. Ja, sie sind interessant und praktisch – aber wir müssen nicht danach suchen, ob sie denn nun menschlich sein könnten oder nicht. Das bringt uns zu
Ebene 2: Medienkritik
Bei aller Begeisterung über die leichte Bedienbarkeit wird schnell klar, dass die neuen Anwendungen verbesserte Beispiele für menschliche Simulationen sind, wie sie schon vor gut 50 Jahren mit viel einfacheren Mitteln entwickelt wurden. Es sind Mashups menschlicher Produkte, die diese nachahmen. In einem Beitrag auf Mastodon wurde vorgeschlagen, statt von «künstlicher Intelligenz» von einem «stochastischen Papagei» zu sprechen. Ähnlich wie das Tier ahmen die Computeranwendungen menschliches Verhalten nach, das sie aus den vorhandenen Daten extrahiert haben. Für mich eine gelungene Metapher.
Mit diesen genutzten Daten zeigt sich ein weiterer, im hohen Masse unethischer Aspekt der genannten Anwendungen: Sie wurden mit zahlreichen, frei im Internet verfügbaren, Daten «gefüttert», die ähnlich reproduziert und als eigene Produkte ausgegeben werden. Darunter sind Audioprojekte von Freiwilligen, Kunstwerke von Künstler:innen, die von der im internet publizierten Kunst leben. Hier werden also urheberrechtlich relevante Werke angeeignet und zur Basis eines eigenen Produktes gemacht, mit dem Geld verdient werden soll, während es den Künstler:innen die Existenz bedroht (Artikel der NZZ hierzu).
Und, nicht zu vergessen: Mit den scheinbar neuen Werken werden die bisherigen Daten reproduziert, die gesellschaftliche Schieflagen in sich tragen. Ein schönes Beispiel an für mich unerwarteter Stelle (Deepl):
Ebene 3: Was tun?
Was bleibt (oder: was kommt) also für die Soziokultur und für die Soziale Arbeit? Zunächst einmal die Notwendigkeit (und das ist mein grösstes Anliegen), eine professionelle Haltung zum Phänomen (bzw. den Ausprägungen) einzunehmen, die die verschiedenen Aspekte möglichst berücksichtigt. (Eine ähnliche Forderung findet sich auch in einem Blogbeitrag bei AvenirSocial, wenn auch von einem anderen Ausgangspunkt). Das dürfte die beste Basis sein, um fachliche Handlungsoptionen und -notwendigkeiten zu identifizieren. Eine Möglichkeit kann der offene Kurs der TH Nürnberg zu so genannter «Künstlicher Intelligenz» in Bezug auf die Soziale Arbeit sein.
Das kann auch eine zusätzliche Grundlage sein, die zu einer generellen Positionierung der Sozialen Arbeit zu «KI» in der fachlichen Arbeit beitragen könnte. Ich finde eine fachliche Diskussion mit der Entwicklung eines Kodexes oder Leitlinien sehr erstrebenswert.
Und im engeren Sinne auf der medienpädagogischen Ebene sind mir zwei Hinweise begegnet bzw. eingefallen:
- Nele Hirsch weist darauf hin, dass Anwendung wie ChatGPT in der Bildungsarbeit wie ausgefeilte Suchmaschinen verwendet und eingeordnet werden können. Dies bietet einerseits die Möglichkeit, bereits bestehende Materialien und Ansätze übertragen zu können, ausserdem wirkt dies der Mystifizierung so genannter «künstlicher Intelligenz» entgegen.
- Im Sinne von aktiver Medienarbeit können Anwendungen wie ChatGPT oder Dall-E genutzt werden, um Medienproduktionen zu erstellen (Bildergeschichten, Hörspiele, Videos) und in der Auseinandersetzung mit der Anwendung deren Möglichkeiten und Einschränkungen bewusst gemacht und deren Hintergründe reflektiert werden.
Welche Anknüpfungspunkte, Notwendigkeiten, Fragezeichen, Implikationen sehen Sie für die Soziale Arbeit? Ergänzen Sie gern mit einem Kommentar.
Quellen
Fuchs, Thomas (2020): Verteidigung des Menschen. Grundfragen einer verkörperten Anthropologie. Suhrkamp.