sinnkultur
 

Philoblog

Blog zu Themen und Fragen aus der Philosophie. Schwerpunkte aktuell sind Digitale Ethik, Bildethik und Künstliche Intelligenz. Ich führe den Blog (mit Ferienpausen) in der Regel im Wochenrhythmus. Kommentare sind möglich und erwünscht.


22.05.2024

Anthropomorphie bei Chatbots

DALLE 2024-05-22 Prompt.jpgStudien zur Anthropomorphie von Chatbots finden sich vorwiegend zu sprechenden Chatbots im Customer-Bereich: sogenannte chatbot service interfaces. Befunde sind darum nur bedingt auf textbasierte Bots wie ChatGPT übertragbar.

Key Findings der Studien (ich stütze mich v. a. auf Pizzi et al. 2021) sind gerafft: Chatbot-Design, das sich anthropomorph gibt, ist für die Nutzung von Chatbots von Vorteil. Stärkere Anthropomorphie fördert auf Seiten der User das Vertrauen in den Chatbot. Die User sind eher bereit, mit ihnen zu interagieren und auch persönliche Informationen preiszugeben. Da Technologie oft Skepsis bei Usern auslöst, müssen Bots so funktionieren, dass sie die anfängliche Skepsis der User nicht bestätigen oder nähren.

Grundsätzlich würde ich in starke und schwache Anthropomorphie bei Chatbots unterscheiden. Multimodale Bots, die mehrere Interaktionsmodi wie Text, Sprache, Bilder und Videos kombinieren und mit sprechenden Avataren operieren, würde ich zur starken Gruppe zählen – zum Beispiel Mitsuku, das 5-mal den Loebner-Preis gewann (der bis 2020 für die Qualität der Simulation menschlicher Konversationen vergeben wurde). Ein anderer stark anthropomorpher Chatbot ist Replika. Dieser Bot zeigt alle Problematiken starker Anthropomorphie in Reinkultur und hat schon zahlreiche Kontroversen ausgelöst (seine ungewöhnliche Entstehungsgeschichte ist hier nachzulesen). In einer aktuellen Studie geben die teilnehmenden Studierenden aber auch an, dass der Chat mit Replika ihnen half, Selbstmord zu vermeiden (Maples et al. 2024).

Textbasierte Chatbots wie ChatGPT würde ich eher zur schwachen Gruppe zählen, da bei ihnen Anthropomorphie ausschliesslich textlich bzw. sprachlich-konversationell herstellbar ist: Der Bot
• verwendet (grammatisch korrekte) natürliche Sprache
• sein Chat-Ton entspricht einer alltäglichen und höflichen menschlichen Konversation
• erinnert sich an frühere Chat-Interaktionen mit dem User (sofern diese abgespeichert wurden)
• kann bis zu einem gewissen Grad auch einfühlsame Antworten geben.

Im Unterschied zum proprietären ChatGPT, das sich sehr nüchtern gibt, muss bei Microsoft Bing (in den ChatGPT integriert ist) bereits die Bezeichnung «Copilot» («Ihr täglicher KI-Begleiter») als anthropomorphe Stilisierung angesehen werden: nämlich das nüchterne Prompt-Fenster in einen persönlichen Supporter für seine User zu verwandeln. Da Microsoft dabei ist, den Copiloten in alle seine Office-Anwendungen integrieren, bin ich gespannt, welche Rolle dabei anthropomorphe Stilisierungen spielen werden und wie man im Schulbereich, wo Office weitverbreitet ist, auf diese Entwicklung reagieren wird.

Bild: DALL-E prompted by PN.

Pavel - 10:30 @ Philo-Blog | Kommentar hinzufügen

E-Mail
Anruf
LinkedIn