sinnkultur
 

Philoblog

Blog zu Themen und Fragen aus der Philosophie. Schwerpunkte aktuell sind Digitale Ethik, Bildethik und Künstliche Intelligenz. Ich poste hier zwei- bis dreimal im Monat (mit Ferienpausen). Kommentare sind möglich und erwünscht.


11.09.2024

9/11 und die Bilder

Lederhandler 911.pngDie Bilder der Terroranschläge am 11. September 2001 in den USA sind ins kollektive Gedächtnis eingegangen. «Die Bilder kolonisieren unser Gedächtnis: Die Fotos des Aufpralls und der Explosion des zweiten Flugzeugs (UA 175) in den Südturm sind global zitierbare Bildikonen geworden» (Gassert 2021: 19).

Bilder, die ins kollektive Gedächtnis eingehen, vermitteln mehr als nur eine Momentaufnahme; sie lösen Emotionen aus, tragen eine tiefere symbolische Bedeutung, erzählen Geschichten. 9/11 schreibt auch als Medienereignis Mediengeschichte, die Welt wird zu Marshall McLuhans globalem Dorf.

«Die Nachricht von den Anschlägen verbreitet sich wie ein Lauffeuer um den Globus. Eine Stunde nach den Anschlägen haben 70 Prozent der Deutschen davon erfahren. Tags darauf ist die gesamte deutsche Bevölkerung informiert, Alte, Kranke, Jugendliche und Kinder eingeschlossen. In den USA verbreitet sich die Nachricht noch schneller. Dort wissen 60 Minuten nach dem Aufprall des ersten Flugzeugs 90 Prozent der Amerikaner Bescheid. So weit Fernsehen und Internet reichen, sehen Menschen weltweit dieselben schrecklichen Bilder.» (Gassert 2021: 17)

Bildhistorisch ist die These, dass es bei den Anschlägen nicht in erster Linie um die Tötung vieler Menschen, sondern «um die Erzeugung ‹grandioser› Bilder, mit denen die USA und die westliche Welt unter Schock gesetzt werden» (Paul 2009) ging, nicht von der Hand zu weisen. Die Terroranschläge vom 11. September 2001 sind ein medial inszenierter Massenmord (Schicha 2021: 95), sie sind als Medienkrieg zu verstehen (Schicha 2021: 100).

Bildethisch stellt sich auch bei 9/11 prinzipiell die Frage: Was zeigen vom Terrorakt? Nicht zeigen geht auch nicht, es war ein Ereignis mit globalen Dimensionen. Insgesamt haben die Medien viele Bilder, die durchaus vorhanden waren, aus ethischem Gründen nicht publiziert. Statt die Opfer direkt zu zeigen, publizierten sie die Reaktionen der Augenzeugen (Schicha 2021: 99).

In meinem Gedächtnis sind:
- Die brennenden Twin Towers von Marty Lederhandler (AP)
- «The Dusty Lady» von Stan Honda (AFP)
- «The Falling Man» von Richard Drew (AP)

Das Bild des «Falling man» von Richard Drew wurde zuerst gezeigt, aber nach kurzer Zeit nicht mehr, weil man es als ethisch nicht vertretbar anschaute (Schicha 2021).

Als Marty Lederhandler von AP sein Foto der brennenden Türme am Empire State Building vorbei schoss, war er sich nicht bewusst, dass das Empire State in kurzer Zeit wieder zum höchsten Gebäude in New York werden würde.

Quellen
Gassert, Philipp (2021): 11. September 2001.
Gerhard, Paul (2005): Die Geschichte hinter dem Foto.
Schicha, Christian (2021): Bildethik.

Pavel - 17:49 @ Philo-Blog | Kommentar hinzufügen

04.09.2024

Ist das Vucci-Foto des Trump-Attentats eine Medienikone?

Foto Evan Vucci, AP, picture alliance.jpegFoto: Evan Vucci (AP).

In meinem letzten Medienethik-Modultag habe ich das Foto des AP-Fotografen und Pulitzer-Preisträgers Evan Vucci zum Attentat auf Trump (13. Juli 2024) gezeigt, das sofort als Medienikone bezeichnet wurde.

Lässt sich das Vucci-Foto wirklich als Medienikone einordnen?

Medienikonen (vgl. Paul 2005, 2009) werden folgende Merkmale zugeschrieben:

1. Suggestion von Authentizität
2. Verdichtung der Handlung
3. Dominanz einer Gebärdefigur im Bildzentrum
4. Evozierung einer synästhetischen Wahrnehmung
5. Erzeugung eines imaginären Bildraums im Off
6. Loslösung aus historischem Kontext
7. Referenz auf Vorbilder

Tatsächlich erfüllt das Vucci-Foto einige dieser Merkmale klar: das angeschnittene Bild, die Blutspuren im Gesicht, die erhobene Faust, die Authentizität suggerieren; die Security-Leute neben und vor Trump, die die Handlung verdichten; Trump klar als Gebärdefigur im Bildzentrum; der offene (schreiende) Mund, der Synästhesie evoziert, und die wehende Flagge oberhalb und hinter der Gebärdefigur, die einen imaginären Bildraum im Off erzeugt.

Beim Merkmal Authentizität muss man aber eine wichtige Einschränkung machen: Der medienaffine Hauptakteur hat sich (wie ebenfalls medial dokumentiert ist) instinktiv und geistesgegenwärtig selbst inszeniert, indem er sich nach ca. 80 Sekunden aufgerichtet, seine rechte Faust erhoben und «Fight!» gerufen hat. Trump betrieb sozusagen Impression Management in extremis. Schwierig zu beurteilen, wieviel Heroismus, wieviel kaltblütiges Kalkül darin steckten. Beim «Napalm-Girl» von Nick Ut (1972) leistet kein Kalkül der Authentizität des Bildes Abbruch, das 9-jährige Mädchen Phan Thị Kim Phúc rannte in Panik und voller Schmerz um ihr Leben.

Medienikonen brauchen zudem eine Inkubationszeit, in denen Narrative auf der Folie des Bildes gebildet bzw. das Bild quasi ‹überschrieben› und aus seinem historischen Kontext losgelöst wird. Beim Napalm-Girl-Foto war es die Kriegsmüdigkeit und die wachsende Ablehnung des Vietnam-Krieges in den USA, die sofort pazifistische Narrative beförderte. Das Vucci-Foto ist noch zu neu, um sich aus dem historischen Kontext gelöst haben zu können. Interessant war, wie schnell das Vucci-Foto an Aufmerksamkeit verlor, nachdem Biden am 21. Juli 2024, nur knapp eine Woche nach dem Trump-Attentat, seine Kandidatur zurückzog.

Bei der Frage nach Vorbildern denkt man in erster Linie an andere Attentate gegen US-Präsidenten: Kennedy 1963, Reagan 1981 u. a. Aber weder Kennedy noch Reagan waren überhaupt in der Lage, ihre Faust in die Höhe zu heben. Mit seiner erhobenen rechten Faust referiert Trump nicht auf historische Vorbilder, sondern allein auf sich selbst: Die erhobene rechte Faust ist eine Geste, die er (wie eine Bildrecherche zeigt) schon seit Jahrzehnten in seinem symbolischen Repertoire hat.

Fazit: Im Moment ist es noch zu früh, um beurteilen zu können, ob das Vucci-Foto als Medieninkone angesehen werden kann.

Quellen:
Gerhard Paul (2005): Die Geschichte hinter dem Foto.
Gerhard Paul (2009): Kriegsbilder – Bilderkriege.

Pavel - 09:59 @ Philo-Blog | Kommentar hinzufügen

25.06.2024

KI-Narrative (#3/3)

hommemachine.jpg1. Mensch-Maschine-Motiv
Sofern sich KI-Narrative auf Roboter beziehen, bilden sie einen Ast im Baum des Mensch-Maschine-Motivs. In der Literaturwissenschaft wird das Motiv unter dem Titel Der künstliche Mensch zusammengefasst (Frenzel 2008: 501–512). In der Antike enden die meisten Geschichten über das Erschaffen eines künstlichen Menschen unglücklich: «Entweder sind die Meister gezwungen, ihr eigenes, gefährlich werdendes Werk zu zerstören, oder es zerstört sich  selbst und oft den Schöpfer oder andere Menschen zugleich» (Frenzel 2008: 501). Eine Ausnahme bildet die Geschichte über den zyprischen Bildhauer Pygmalion, der eine Elfenbeinstatue, die wie eine lebendige Frau aussieht, erbaut und sich in sie verliebt sich. Mit Hilfe der Göttin Aphrodite wird die Galatea genannte Statue lebendig, Pygmalion heiratet sie und hat sogar Kinder mit ihr.
Im Mittelalter gilt die künstliche Erschaffung eines Menschen im jüdisch-christlichen Kontext als grundsätzlich verwerflich, da dies nur Gott vorbehalten ist. So warnt die bekannte Golem-Legende vor den Gefahren menschlicher Hybris und der Schöpfung von Leben ohne göttliche Autorität. Im Unterschied zu Galatea bleibt Golem ein seelenloses Wesen, das keine eigene Willenskraft besitzt (Frenzel 2008: 503).
Erst im Zeitalter der Aufklärung finden wir optimistische Varianten des Motivs. Der provokante Arzt Julien Offray de La Mettrie dreht das ganze Verhältnis um: In «L’Homme-Machine» (1748) postuliert er, dass der Mensch eine Maschine ist, und hält es für möglich und gut, dass «eines Tages rein mechanisch ein Androide gebaut werden würde, der stehen, gehen, sprechen und alle menschlichen Gebärden verrichten könne» (Frenzel 2008: 504).
Seit der Romantik dominieren aber wieder negative Versionen des Motivs: Frankenstein von Mary Shelley, Der Sandmann von E. T. A. Hoffmann u. a. Motivgeschichtlich betrachtet artikulieren sich Ängste gegenüber künstlichen Menschen bzw. künstlicher Intelligenz schon seit der Antike. Darum ist anzunehmen, dass sich in den negativen KI-Narrativen eine Urangst artikuliert, die man nicht einfach so – z. B. durch ein positives KI-Narrativ – zur Seite schieben kann.

2. West-Ost-Wahrnehmung von KI
Das 2018 bis 2022 durchgeführte internationale Forschungsprojekt Global AI Narratives (GAIN) untersuchte, wie verschiedene Kulturen und Regionen die Risiken und Vorteile von KI wahrnehmen, und versuchte die Einflüsse besser zu verstehen, die diese Wahrnehmungen prägen. Eines der wichtigen Ergebnisse aus dem Projekt war, dass künstliche Intelligenz bzw. Roboter in West und Ost unterschiedlich wahrgenommen werden: im Westen eher negativ-problematisierend, im Osten eher positiv-aufgeschlossen. Während Comics in den westlichen KI-Narrativen eine untergeordnete Rolle spielen, werden in Japan viele KI-Forschende vor allem von Mangas und Animes beeinflusst. KI- und Roboterfiguren werden entweder als buddy oder als extension kategorisiert. Die buddy-Figuren Astro Boy und Doraemon haben die Vorstellungen von KI und Robotern in Japan am stärksten geprägt (Quelle). Die extension-Figur Tetsujin-28 wiederum zeichnet sich dadurch aus, dass sie ausdrücklich blosses Werkzeug ist: Tetsujin ist nicht autonom, sondern ein Diener des Guten oder des Bösen, je nachdem, wer seine Fernsteuerung besitzt (Quelle).
Ein Erklärungsansatz für die unterschiedliche West-Ost-Wahrnehmung ist, dass in Japan das Verhältnis zwischen Mensch und Maschine bzw. zwischen menschlichen und nicht-menschlichen Entitäten graduell und als Kontinuum verstanden wird, während im Westen eine polar-dualistische Sicht (entweder Mensch oder Maschine) ohne Kontinuum bzw. Übergänge dominiert. Die polar-dualistische Sicht wurzelt im christlichen Unterbau bzw. Kontext. Trotz Säkularisierung wird im Westen die Erschaffung einer dem Mensch vergleichbaren, gleichwertigen oder gar überlegenen Intelligenz immer noch als Sakrileg verstanden.

3. Das Meta-Meta-Narrativ
Zu einer «digitalen Mündigkeit» (Noller 2024) gehört, dass wir verstehen, was generative KI ist, wie sie funktioniert und was mit ihr möglich ist (und was nicht). Prädiktive Technologien bzw. algorithmische Systeme – Begriffe, die das ungenaue Kofferwort «KI» vermeiden – können so nicht als Gegenspieler, sondern als (mögliche) Mitspieler aufgefasst werden (Hofmann 2022). Dann kann die Frage im Mittelpunkt stehen, wie diese Technologien und Systeme aus ethischem Blickwinkel entwickelt und eingesetzt werden können (vgl. z. B. Human Centered AI).
Hinter den diskutierten KI-(Meta)Narrativen versteckt sich ein Meta-Meta-Narrativ (das eine implizite Voraussetzung enthält): technologische Entwicklung bzw. Innovation als die treibende Kraft gesellschaftlicher Entwicklung anzusehen. Wir sollten diskutieren, ob tatsächlich neue Technologien die Haupttreiber gesellschaftlicher Entwicklung sind. Schreiben wir Technologien (wie z. B. aktuell generativer KI) eine zu grosse Wirkung zu? Gäbe es auch alternative Sichtweisen? Ist die Annahme eines Zusammenspiels mehrerer Triebkräfte (Innovation/Technologie, Ökonomie, Politik, Bildung/Wissenschaft) für eine adäquate Bewertung passender? To be discussed.

Bild: DALL-E prompted by PN.

Admin - 08:06 @ Philo-Blog | Kommentar hinzufügen

18.06.2024

KI-Narrative (#2/3)

DALLE 2024-06-18 09.33.54 - A grand library filled with many open books scattered around. The library features towering bookshelves filled with books, intricate wooden designs, a.jpgWie werden KI-Narrative aus einem ethischen Blickwinkel beurteilt? Dazu zwei Stimmen:

Petra Grimm (Stuttgart) bündelt in einem aktuellen Input KI-Narrative (am Beispiel ChatGPT) in zwei grosse Metanarrative, die sie mit den mythischen Figuren Prometheus und Pandora versinnbildlicht. Mit «Metanarrativen» sind Muster gemeint, «nach denen eine Kultur ihre Kommunikationen zu einem Thema bzw. einem Diskurs strukturiert» (Grimm). Beim Prometheus-Metanarrativ steht KI positiv für mehr Effektivität, Optimierung, Fülle/Glück, Heilung oder eine Weiterentwicklung der Menschheit; beim Büchse-der-Pandora-Metanarrativ dagegen steht KI negativ für Kontroll- und Autonomieverlust, mehr Überwachung, Destabilisierung, Arbeitsplatzverlust oder Einsatz im Krieg. 

Mark Coeckelbergh (Wien) wiederum unterstreicht, dass das Nachdenken über das Verhältnis von Menschen und Maschinen bzw. künstlichen Entitäten gar nicht neu, sondern sehr alt ist und seine Ursprünge bis in die Antike und weiter zurückverfolgt werden können (Coeckelbergh 2020). Dabei spiele im westlichen Kontext die Golem-Legende und Mary Shelleys Frankenstein-Erzählung eine prägende Rolle: «Moreover, as in Frankenstein and the Golem legend, a narrative of competition emerges: the artificial creation competes with the human. This narrative continues to shape our science fiction about AI, but also our contemporary thinking about technologies such as AI and Robotics» (Coeckelbergh 2020: 21). Das «competition narrative» – der Wettbewerb (bzw. Kampf) zwischen menschlicher und künstlicher Intelligenz – ist laut Coeckelbergh das dominierende Narrativ heute.

Tatsächlich weisen Umfragen darauf hin, dass KI in verschiedenen Ländern (AUS, CAN, F, D, UK, JP, SGP, USA) eher mit Misstrauen wahrgenommen wird (Gillespie et al. 2021). Dies stimmt für die USA auch damit überein, dass man die ‹AI-Awareness› in der US-Bevölkerung als durchzogen anschauen muss (Kennedy et al. 2023). Zwar wissen viele US-Amerikaner:innen über häufige Anwendungen von KI wie Chatbots und personalisierte Empfehlungen Bescheid, aber nur 30% erkennen KI in typischen Kontexten (Fitnesstracker, Chatbot, Produktempfehlungen, Sicherheitskameras, Spamfilter). Das Hintergrundwissen zu KI variiert je nach Bildungsstand und Einkommen, wobei höhere Levels mit grösserem Wissen korrelieren. Trotz häufiger Interaktionen mit KI bleibt die US-Öffentlichkeit vorsichtig: 38% sind mehr besorgt als begeistert über die zunehmende Rolle von KI, während 46% gemischte Gefühle haben.

Auch laut dem AI Index Report (Stanford University, 2023) sind sich Menschen der potenziellen Auswirkungen der KI bewusster – und nervöser. Für 2023 ist der Anteil derjenigen, die glauben, dass KI ihr Leben in den nächsten drei bis fünf Jahren dramatisch beeinflussen wird, von 60% auf 66% gestiegen ist. Darüber hinaus äussern 52% Nervosität gegenüber KI-Produkten und -Dienstleistungen (+13 % gegenüber 2022). In den USA geben 52% der Amerikaner:innen an, eher besorgt als begeistert über KI zu sein (+14% gegenüber 2022).

In der Schweiz zeigt eine repräsentative Umfrage der Digital Society Initiative in Kooperation mit der GFS Bern, dass die Skepsis gegenüber der Nutzung von KI steigt, doch gleichzeitig erhofft man sich eine grosse Entlastung für den Berufsalltag (DSI UZH 2024).

Auch in deutschsprachigen Medien, so mein Eindruck, wird mehrheitlich auf das Pandora-Narrativ bzw. das competition narrative referiert. Es ist durchaus plausibel, dass die Bilder und Projektionen aus dem filmischen Bedrohungsnarrativ ihre Wirkung auf die allgemeine Wahrnehmung von KI in der Gesellschaft entfalten. Ich vermute aber, dass dabei auch folgende Faktoren eine Rolle spielen:

1. Medienschaffende verfügen (noch) nicht über ausreichend informatisches bzw. technisches Hintergrundwissen zu KI bzw. KI-Systemen und bedienen sich bei den fiktionalen Narrativen. Fachlich gesehen fussen Medienberichte über KI immer wieder auf Fehlannahmen zu KI oder Missverständnissen (vgl. Rehak 2023). Das zeigt sich u. a. auch darin, dass sich die negativen KI-Narrative in der Regel gar nicht auf die aktuell hypende generative KI, sondern auf die «GOFAI» («Good Old-Fashioned Artificial Intelligence», Haugeland 1985) beziehen.

2. Beiträge in den Medien, die auf das Bedrohungs- bzw. Pandora-Narrativ referieren, versprechen nach dem ‹death sells›-Modell mehr Klicks bzw. Aufmerksamkeit, sind also aus kommerzieller Sicht attraktiver.

3. Der europäische «Techlash»: Europa hinkt im globalen KI-Rennen hinterher und hat es schwer, führende KI-Unternehmen hervorzubringen. KI wird in Europa stark mit den US-amerikanischen Big Five (GAMAM: Google, Apple, Meta, Amazon, Microsoft) in Verbindung gebracht (was ja durchaus Sinn macht), mit denen wiederum gerade in deutschsprachigen Medien gerne das Narrativ der profitgierigen US-Big-Tech-Firmen verknüpft wird.

Aus medienethischem Blickwinkel braucht es für die öffentliche Debatte andere KI-Narrative. Eine Bedingung für adäquatere Narrative ist (u. a.), genauer hinzusehen, wie generative KI funktioniert und wo sie wie genau zum Einsatz kommt. Mehr dazu im nächsten und letzten Post zu KI-Narrativen.

[Bild: DALL-E prompted by PN.]

Pavel - 09:05 @ Philo-Blog | Kommentar hinzufügen

11.06.2024

KI-Narrative (#1/3)

DALLE 2024-06-11 11.34.00 - An artistic representation of the theme Science fiction stories shape our worldview, depicting an open book at the center with futuristic illustrati.jpgFür mein Weiterbildungsformat Ethische Herausforderungen durch KI möchte ich KI-Narrative für einen Einstieg in die Thematik verwenden. Dass «Narrativ» kein scharfer Begriff ist, sehe ich für diesen Zweck als Vorteil. Narrative bzw. Metanarrative können als sinnstiftende Erzählungen verstanden werden, die einen starken Einfluss auf kulturelle und gesellschaftliche Entwicklungen haben (Lyotard 1979, Ricoeur 1984, Bruner 1986, Geertz 2002). Mit dem «narrative turn» hat sich Narrativität zu einem interdisziplinären Schlüsselbegriff entwickelt (Nünning 2011), der auch in die Medienforschung Eingang gefunden hat (vgl. Müller/Grimm 2016). Zwei Haupterkenntnisse meiner kleinen Recherche: 1. Fiktionale KI-Narrative haben einen grossen Einfluss auf nichtfiktionale KI-Narrative. Dieser Einfluss ist meistens nicht bewusst. 2. Im globalen Vergleich differieren KI-Narrative: im Westen eher negativ, im Osten eher positiv.

Mir sind KI-Narrative erstmals in der Jugend in SF-Büchern und -Filmen begegnet – meist in Robotergestalt wie C-3PO (Star Wars) oder T-800 (Terminator). Während C-3PO eher harmlos und lustig daherkommt, ist T-800 eine fast nicht zu stoppende, furchterregende Killer-KI. Nachhaltiger beunruhigt hat mich aber HAL-9000 (2001 Odyssee), der ganz ‹intelligent› (bzw. infam) auf einem Raumschiff unterwegs zum Jupiter einen Astronauten nach dem anderen auslöscht. In der Schlüsselszene des Films kann der einzige noch lebende Astronaut HAL-9000 im letzten Moment abschalten. Das von Stanley Kubrick filmisch meisterhaft geschilderte Duell zwischen menschlicher und maschineller Intelligenz blieb in meinem Gedächtnis hängen, weil HAL ganz anthropomorph auftritt. So ‹regrediert› er während des Abschaltprozesses und singt für sich – nachdem er realisiert hat, dass er den Abschaltprozess nicht stoppen kann – das Kinderlied Daisy Bell – wohl um sich zu beruhigen (so als ob eine KI ‹sterben› und vor ihrem ‹Tod› auch noch ‹Angst› verspüren könnte).

Dass fiktionale Erzählungen wie SF-Filme u. a. einen wichtigen Einfluss auf das kollektive Bewusstein (im Westen) haben, zeigt folgende Untersuchung auf: Nadine Hammele hat die narrative Struktur von 70 Science-Fiction-Filmen analysiert, die zwischen 1970 und 2020 veröffentlicht wurden, und daraus drei Metanarrative extrahiert (Hammele 2024):

• Das Bedrohungsnarrativ: Killerroboter und künstliche Superintelligenzen, die Menschenleben bedrohen (z.B. Terminator, Matrix, I, Robot).
• Das Befreiungsnarrativ: Menschenähnliche KI-Roboter, die nach Freiheit und Gleichstellung mit dem Menschen streben (z.B. Nummer 5 lebt!, Der 200 Jahre Mann)
• Das Beziehungsnarrativ: Liebesbeziehungen und Freundschaften zwischen Mensch und KI, die durch Konflikte auf die Probe gestellt werden (z. B. Her, A.I. – Künstliche Intelligenz, Robot & Frank).

Alle drei Metanarrative zeigen deutlich auf, welche Projektionen (Übertragungen) in Bezug auf Künstliche Intelligenz wirksam sind: die Angst, von einer Maschine beherrscht oder ausgelöscht zu werden, die Erwartung, dass künstliche Intelligenzen (Androide) menschlich werden, oder die Hoffnung, das Bedürfnis nach Zweisamkeit durch die Beziehung zu einer künstlichen Intelligenz auf neue, vielleicht umfassendere Art stillen zu können. Die Metanarrative zeigen ebenso auf, dass solche Projektionen durch Anthropomorphie zustandekommen. Nach meiner Interpretation führt genau dieser ‹Übertragungsmechanismus› zu den üblichen KI-Missverständnissen.

Die Untersuchung von Hammele korrespondiert mit den Befunden des GAIN-Projektes. Dieses untersuchte 2018 bis 2022 weltweit, wie KI in der Populärkultur dargestellt wurde und wird und welche Auswirkungen dies nicht nur auf Leser:innen und Kinobesucher:innen, sondern auch auf KI-Forscher:innen, militärische und staatliche Stellen sowie die breite Öffentlichkeit hat (vgl. auch Cave, Dihal & Dillon 2020). Ein wichtiges Ergebnis von GAIN ist, dass die eher negative Wahrnehmung von KI in westlichen Ländern stark von Filmerzählungen beeinflusst ist. «All the questions being raised about AI today have already been explored in a very sophisticated fashion, for a very long time, in science fiction», betont die GAIN-Leiterin Sarah Dillon (vgl. Roberts 2018). Ein weiteres auffälliges Ergebnis ist, dass es in der Wahrnehmung und Bewertung von KI deutliche interkulturelle Unterschiede gibt. So dominieren im Unterschied zu westlichen Ländern im ostasiatischen Kontext mehrheitlich positive KI-Narrative.

PS: In meinen nächsten Posts werde ich auf KI-Narrative aus der Sicht der Medienethik und auf Thesen zu den interkulturellen Unterschieden in der Wahrnehmung von KI eingehen.

Bild: DALL-E prompted by PN.

Pavel - 11:06 @ Philo-Blog | Kommentar hinzufügen

29.05.2024

ChatGPT ist eine Banane

DALLE 2024-05-29 08.08.54 - A vibrant comic-style image featuring a green banana with elements that suggest it is related to AI. The banana should have a futuristic look with cir.jpgVon «Bananensoftware» hörte ich das erste Mal vor 30 Jahren im Zusammenhang mit Windows 95. Das war wirklich eine grüne Banane, aber ist bei mir als Kunde nie ganz ausgereift.

Ist ChatGPT auch eine grüne Banane? Die NZZ (23.05.24) meint, dass Tech-Firmen im Hinblick auf KI-Systeme mit dem ‹Prinzip Hoffnung› arbeiten. Ich denke, dass bei der Lancierung von ChatGPT ab November 2022 nicht der deutsche Philosoph Ernst Bloch Pate stand, sondern das in der Software-Branche bekannte Perpetual-beta-Modell zur Anwendung kommt. Von «perpetual beta» spricht man in der Software-Entwicklung, wenn ein System ständig – basierend auf Nutzerrückmeldungen, neuen Forschungsergebnissen und technologischen Fortschritten – weiterentwickelt, verbessert und aktualisiert wird. Anders gesagt: Die noch grüne Banane reift beim Kunden aus. Dieses Vorgehen garantiert dem Nutzer einerseits ein stets optimiertes Produkt, kostet andererseits aber auch Nerven und birgt Risiken. Perpetual-Beta-Software wird für unternehmenskritische Systeme nicht empfohlen.

General Purpose AI (GPAI) wie ChatGPT als grüne Banane bzw. im Perpetual-beta-Modell auf die Menschheit loszuschicken und ein paar Monate nach der Lancierung mit Kassandrarufen in der Öffentlichkeit aufzutreten und ein KI-Moratorium zu fordern, riecht nach «double game». Die KI-Unternehmen wollen big money, aber sich auch als verantwortungsvolle Partner inszenieren, die die Interessen ihrer Nutzer ernst nehmen («… wir haben ja gewarnt, dass es schief gehen könnte»). Dass es auch intern – zum Beispiel bei OpenAI – Auseinandersetzungen um die Sicherheitskultur gibt, zeigen die aktuellen Abgänge von Ilya Sutskever und Jan Leike.

Was bei Bananen durchaus hingehen kann, bei einem Beriebssystem grenzwertig ist, verursacht bei GPAIs wie ChatGPT eher Stirnrunzeln. Kann man generative KI-Systeme weiterhin im Perpetual-Beta-Modell auf die Nutzer loslassen? Meine Hoffnung ist, dass hier der AI Act der EU eine wichtige Rolle spielen wird. Nach der zwölfmonatigen Übergangsfrist sind Unternehmen, die GPAI-Modelle releasen, unter anderem verpflichtet, die EU-Urheberrechtsrichtlinien einzuhalten und eine Zusammenfassung der für das Training ihres LLMs verwendeten Inhalte bereitzustellen. Da bin ich aber gespannt.

PS: Übrigens gelten GPAI-Modelle laut AI Act dann als systemgefährdend, wenn der kumulative Rechenaufwand für ihr Training mehr als 10^25 FLOPs (Floating Point Operations) beträgt. Das entspricht zehn Trilliarden Gleitkommaoperationen und damit weit mehr als bei den meisten gängigen GPAIs, die aktuell in Forschung und Industrie verwendet werden.

Bild: DALL-E prompted by PN.

Pavel - 11:25 @ Philo-Blog | Kommentar hinzufügen

22.05.2024

Anthropomorphie bei Chatbots

DALLE 2024-05-22 Prompt.jpgStudien zur Anthropomorphie von Chatbots finden sich vorwiegend zu sprechenden Chatbots im Customer-Bereich: sogenannte chatbot service interfaces. Befunde sind darum nur bedingt auf textbasierte Bots wie ChatGPT übertragbar.

Key Findings der Studien (ich stütze mich v. a. auf Pizzi et al. 2021) sind gerafft: Chatbot-Design, das sich anthropomorph gibt, ist für die Nutzung von Chatbots von Vorteil. Stärkere Anthropomorphie fördert auf Seiten der User das Vertrauen in den Chatbot. Die User sind eher bereit, mit ihnen zu interagieren und auch persönliche Informationen preiszugeben. Da Technologie oft Skepsis bei Usern auslöst, müssen Bots so funktionieren, dass sie die anfängliche Skepsis der User nicht bestätigen oder nähren.

Grundsätzlich würde ich in starke und schwache Anthropomorphie bei Chatbots unterscheiden. Multimodale Bots, die mehrere Interaktionsmodi wie Text, Sprache, Bilder und Videos kombinieren und mit sprechenden Avataren operieren, würde ich zur starken Gruppe zählen – zum Beispiel Mitsuku, das 5-mal den Loebner-Preis gewann (der bis 2020 für die Qualität der Simulation menschlicher Konversationen vergeben wurde). Ein anderer stark anthropomorpher Chatbot ist Replika. Dieser Bot zeigt alle Problematiken starker Anthropomorphie in Reinkultur und hat schon zahlreiche Kontroversen ausgelöst (seine ungewöhnliche Entstehungsgeschichte ist hier nachzulesen). In einer aktuellen Studie geben die teilnehmenden Studierenden aber auch an, dass der Chat mit Replika ihnen half, Selbstmord zu vermeiden (Maples et al. 2024).

Textbasierte Chatbots wie ChatGPT würde ich eher zur schwachen Gruppe zählen, da bei ihnen Anthropomorphie ausschliesslich textlich bzw. sprachlich-konversationell herstellbar ist: Der Bot
• verwendet (grammatisch korrekte) natürliche Sprache
• sein Chat-Ton entspricht einer alltäglichen und höflichen menschlichen Konversation
• erinnert sich an frühere Chat-Interaktionen mit dem User (sofern diese abgespeichert wurden)
• kann bis zu einem gewissen Grad auch einfühlsame Antworten geben.

Im Unterschied zum proprietären ChatGPT, das sich sehr nüchtern gibt, muss bei Microsoft Bing (in den ChatGPT integriert ist) bereits die Bezeichnung «Copilot» («Ihr täglicher KI-Begleiter») als anthropomorphe Stilisierung angesehen werden: nämlich das nüchterne Prompt-Fenster in einen persönlichen Supporter für seine User zu verwandeln. Da Microsoft dabei ist, den Copiloten in alle seine Office-Anwendungen integrieren, bin ich gespannt, welche Rolle dabei anthropomorphe Stilisierungen spielen werden und wie man im Schulbereich, wo Office weitverbreitet ist, auf diese Entwicklung reagieren wird.

Bild: DALL-E prompted by PN.

Pavel - 10:30 @ Philo-Blog | Kommentar hinzufügen

15.05.2024

Der Chatbot, mein Freund

OIG1.jpg📍Chatbots sind “anthropomorphe Softwareagenten” (Prof. Dr. Oliver Bendel), also von Anfang an so gedacht, dass sie menschenähnlich kommunizieren. Warum sollten wir als Menschen auch länger daran Spass haben, mit einer Maschine zu kommunizieren? Dann lieber noch mit meiner Büro-Sukkulente plaudern. Die Bots sind bewusst so programmiert, dass sie menschenähnlich antworten: Das hält unsere Aufmerksamkeit hoch, verlängert unsere Interaktionszeit mit dem Chat und steigert die Anzahl der Interaktionen.

🔎 Ich persönlich benutze den Copilot von Microsoft. Über dem Promptfenster (Fragen Sie mich etwas…) werde ich mit folgenden Buttons begrüsst: Etwas Cooles anzeigen, Lied verfassen und Bring mich zum Lächeln. Der Microsoft-Copilot adressiert mich von Anfang an immer auch als spassbedürftigen Kommunikationspartner (und U-Konsument). Nur: Warum sollte ich wollen, dass mich ein Chatbot zum Lächeln bringt?

👉 Aus dem Blickwinkel der Ethik stellt sich die Frage, ob es legitim ist, dass Chatbots so anthropomorph auftreten. Jede Technologie hat einen Aufforderungscharakter (Grimm et al. 2019: 80). Das anthropomorphe Impressionmanagement von Chatbots muss als Affordanz verstanden werden. Als Chatbot-User muss ich mich fragen: Wie verstehe ich mich selbst in der Kommunikation mit dem Bot? In welchem Tonfall kommuniziere ich mit der Maschine? Nach über einem Jahr Prompt-Praxis (in der ich unterschiedliche Kommunikationsstrategien und Ton-Ebenen ausprobiert habe) übe ich mich in einer distanzierten Version, in der ich in etwa so extrovertiert kommuniziere, wie wenn ich per Mail auf dem Amt um eine Auskunft anfrage.

🤔 Bedenken habe ich bei einsamen Usern (insbesondere heranwachsenden), für die die Kommunikation bzw. der Austausch mit dem Bot eine problematische Ersatzfunktion bekommen könnte. Hier könnte die Affordanz der Chatbots zu Abhängigkeitsverhältnissen führen. Wie die US-amerikanischen Chatbot-Firmen wohl mit Suizid-Klagen umgehen würden?

💡 Da die meisten Chatbots (in der Basis-Version) kostenlos angeboten werden, stellt sich auch bei den Bot-Tools die berechtigte Frage, womit wir dann als User zahlen. Ich vermute, dass wir als Prompt-Trainer der LLM eingespannt werden.

PS: Ein Buch, das ich zur Kommunikation mit Chatbots wärmstens empfehlen kann:
👉 “Was macht KI mit unserer Sprache?” von Christoph Drösser.

Bild: DALL-E prompted by PN.

Pavel - 10:36 @ Philo-Blog | Kommentar hinzufügen

02.05.2024

Das Kunstwerk im Zeitalter digitaler Generierbarkeit

Im Zusammenhang mit KI-Kunst lässt sich auch Walter Benjamins These vom Verlust der Aura des Kunstwerks im Zeitalter seiner technischen Reproduzierbarkeit in Anschlag bringen. Meinte Benjamin vor über hundert Jahren, dass das Kunstwerk im Zeitalter seiner technischen Reproduzierbarkeit seine Aura verliere, so wäre aktuell zu überlegen, ob das menschengemachte Kunstwerk im Zeitalter der digitalen Bild-Generierbarkeit seine Aura wiedergewinnt.

In einem aktuellen Essay finde ich folgende fiktive Szene:

«Kunstunterricht 2084: Auf ihrem virtuellen Rundgang erfahren die Schüler:innen der 8b, dass Claude Monet das Bild Seerosenteich gemalt hat, Kichernd fragt eine Schülerin, ob Monet die Beta-Version einer KI war, da das Bild so schlecht gemalt sei: lauter Punkte, blasse Farben, keine räumlichen 3D-Effekte.» (Winter 2024: 6)

Die fiktive Szene «Kunstunterricht 2084» rief mir die nicht-fiktive Anekdote in Erinnerung, dass Dostojewski nach dem Besuch des Basler Kunstmuseums und der Konfrontation mit Hans Holbeins (d. J.) «Der Leichnam Christi im Grabe» gemeint haben soll, vor Holbeins Gemälde könne man ohne Weiteres seinen Glauben verlieren.

Funfact: Der «Seerosenteich» (im Original «Le Bassin aux Nymphéas») war seit seiner Entstehung 1919 nur einmal öffentlich zu sehen. Am 24. Juni 2008 wurde das Werk bei Christie’s in London für 40,9 Mio. Britische Pfund an einen Privatmann versteigert und kann zurzeit nicht besichtigt werden. Das kann sich bis 2084 natürlich wieder ändern 😉

Mit Rückgriff auf Benjamins Aura-These schwebt mir folgende (fiktive) Version «Kunstunterricht 2084» vor:

Steve Ballmer, seit 2000 einer der reichsten Menschen der Welt, investiert sein Vermögen auch in impressionistische Gemälde und ist (wie sich nach seinem Ableben herausstellen wird) der anonym bleibende Privatmann, der 2008 Monets Seerosenteich für 40,9 Mio. Pfund gekauft hat. Seine Enkelin Claudia Ballmer, die ein Faible für moderne Kunst hat, erbt die in der Zwischenzeit weltberühmte Impressionistensammlung ihres Grossvaters. Als Philanthropin verwandelt sie die Ballmer-Galerie in eine öffentlich zugängliche Sammlung und lädt regelmässig Familien, Schulklassen und Jugendgruppen in ihre Galerie ein, weil sie die Schönheit der impressionistischen Gemälde vor allem Kindern und Jugendlichen zugänglich machen will, die – seit der Flutung der Bildwelt ab etwa Mitte des 21. Jahrhunderts durch kostengünstig generierte KI-Bilder – in einer sterilen Bildwelt aufwachsen. Immer wieder kommt es gerade vor dem Bild Seerosenteich zu anrührenden Szenen, als Kinder und Jugendliche, teilweise erstmals in ihrem Leben, mit der sensorischen Wucht eines analogen Gemäldes konfrontiert werden.

Pavel - 15:49 @ Philo-Blog | Kommentar hinzufügen

24.04.2024

Promptgenerierter Kitsch?

In meinem letzten Post habe ich zur Illustration das promptgenerierte Bild eines Roboters verwendet, der in einem Kare-san-sui, einem Steingarten in einem Zen-Kloster, meditativ recht. Das Bild habe ich auf Anhieb (erste Eingabeaufforderung) mit Hilfe des KI-Bildgenerators Bing Image Creator erstellt und fand das Resultat verwendbar.

In der Folge störte mich aber, dass auf dem KI-generierten Bild die Rechenzinken nicht mit den Furchen im Kies kongruent waren. Auch mit einigen Umformulierungen und Erweiterungen des Prompts gelang es mir nicht, ein stimmigeres Bild zu erzeugen. Zwar waren die Zinken nun kongruent mit den Furchen, dafür hatte der Roboter plötzlich Raupen statt Füsse, kniete beim Rechen auf dem Kies oder im Hintergrund fehlten alle Klosterelemente.

Doch ich will hier auf etwas anderes heraus: Seit meine Feeds (auch hier bei LinkedIn) von promptgenerierten Bildern förmlich überquellen, fällt mir auf, dass ich generell die meisten promptgenerierten Bilder als kitschig empfinde. Auch mein eigenes kommt mir wie Kitsch vor. Das ist ein Schimpfwort aus der Kunstkritik – und selbstverständlich kein allgemeingültiges Geschmacksurteil. Aber warum erscheinen mir promptgenerierte Bilder als Kitsch? Wohl weil sie rein illustrativ sind. Weil ihnen Autorschaft fehlt. Und vor allem: Weil man vielen den Wortlaut des Prompts förmlich ansieht.

Aber kann eine KI überhaupt Kitsch generieren? Kitsch setzt eigentlich menschliche Intelligenz voraus. Ausser die Datenbank des Bildgenerators wurde mit Abertausen-den kitschigen Bildern gefüttert. Aber das nehme ich jetzt mal nicht an.

Die Göttinger Philosophin Catrin Misselhorn fragt im Titel ihres Essays: Künstliche Intelligenz – das Ende der Kunst? Wird generative KI-Kunst die Kunstwelt überrollen? Im Moment beobachte ich nicht das Ende der Kunst, sondern eher den Anfang eines schauerlichen Kitsch-Tsunamis.

OIG3.7J1md.jpgBild: DALL-E prompted by PN.

Pavel - 09:55 @ Philo-Blog

E-Mail
Anruf
LinkedIn