sinnkultur
Weil Kultur Sinn macht.  Nächste Veranstaltungen

Philosophie


Philo-Blog:


29.05.2024

ChatGPT ist eine Banane

DALLE 2024-05-29 08.08.54 - A vibrant comic-style image featuring a green banana with elements that suggest it is related to AI. The banana should have a futuristic look with cir.jpgVon «Bananensoftware» hörte ich das erste Mal vor 30 Jahren im Zusammenhang mit Windows 95. Das war wirklich eine grüne Banane, aber ist bei mir als Kunde nie ganz ausgereift.

Ist ChatGPT auch eine grüne Banane? Die NZZ (23.05.24) meint, dass Tech-Firmen im Hinblick auf KI-Systeme mit dem ‹Prinzip Hoffnung› arbeiten. Ich denke, dass bei der Lancierung von ChatGPT ab November 2022 nicht der deutsche Philosoph Ernst Bloch Pate stand, sondern das in der Software-Branche bekannte Perpetual-beta-Modell zur Anwendung kommt. Von «perpetual beta» spricht man in der Software-Entwicklung, wenn ein System ständig – basierend auf Nutzerrückmeldungen, neuen Forschungsergebnissen und technologischen Fortschritten – weiterentwickelt, verbessert und aktualisiert wird. Anders gesagt: Die noch grüne Banane reift beim Kunden aus. Dieses Vorgehen garantiert dem Nutzer einerseits ein stets optimiertes Produkt, kostet andererseits aber auch Nerven und birgt Risiken. Perpetual-Beta-Software wird für unternehmenskritische Systeme nicht empfohlen.

General Purpose AI (GPAI) wie ChatGPT als grüne Banane bzw. im Perpetual-beta-Modell auf die Menschheit loszuschicken und ein paar Monate nach der Lancierung mit Kassandrarufen in der Öffentlichkeit aufzutreten und ein KI-Moratorium zu fordern, riecht nach «double game». Die KI-Unternehmen wollen big money, aber sich auch als verantwortungsvolle Partner inszenieren, die die Interessen ihrer Nutzer ernst nehmen («… wir haben ja gewarnt, dass es schief gehen könnte»). Dass es auch intern – zum Beispiel bei OpenAI – Auseinandersetzungen um die Sicherheitskultur gibt, zeigen die aktuellen Abgänge von Ilya Sutskever und Jan Leike.

Was bei Bananen durchaus hingehen kann, bei einem Beriebssystem grenzwertig ist, verursacht bei GPAIs wie ChatGPT eher Stirnrunzeln. Kann man generative KI-Systeme weiterhin im Perpetual-Beta-Modell auf die Nutzer loslassen? Meine Hoffnung ist, dass hier der AI Act der EU eine wichtige Rolle spielen wird. Nach der zwölfmonatigen Übergangsfrist sind Unternehmen, die GPAI-Modelle releasen, unter anderem verpflichtet, die EU-Urheberrechtsrichtlinien einzuhalten und eine Zusammenfassung der für das Training ihres LLMs verwendeten Inhalte bereitzustellen. Da bin ich aber gespannt.

PS: Übrigens gelten GPAI-Modelle laut AI Act dann als systemgefährdend, wenn der kumulative Rechenaufwand für ihr Training mehr als 10^25 FLOPs (Floating Point Operations) beträgt. Das entspricht zehn Trilliarden Gleitkommaoperationen und damit weit mehr als bei den meisten gängigen GPAIs, die aktuell in Forschung und Industrie verwendet werden.

Bild: DALL-E prompted by PN.

Pavel - 11:25 @ Philo-Blog | Kommentar hinzufügen





Angebote:


KI und Ethik
Lange galt Künstliche Intelligenz als Stoff für Science-Fiction. Mit dem Ausrollen des KI-Bots ChatGPT Ende 2022 ist KI in der breiten Öffentlichkeit angekommen und erlebt gerade ihren «iPhone-Moment» (Meckel/Steinacker 2024: 17). Schon seit Jahren nutzen Millionen Menschen tagtäglich KI-unterstützte Anwendungen – ohne sich dessen in der Regel bewusst zu sein bzw. die Technik im Hintergrund zu kennen oder zu verstehen: KI optimiert unsere Suchanfragen in Suchmaschinen, verhindert, dass wir mit Spams geflutet werden, gibt uns massgeschneiderte Empfehlungen beim Online-Einkauf, beim Streamen auf Netflix und Spotify oder assistiert uns beim Autofahren.



Infolge der massenhaften Implementierung von KI-Systemen bahnt sich wie beim Web 2.0 oder dem Smartphone ein Quantensprung an, dessen Folgen für Gesellschaft, Politik, Wirtschaft, Bildung usw. noch unklar sind. Aktuell wird in der Medienberichterstattung KI als Zukunftshoffnung thematisiert. Neben dem Nutzen, den KI-Systeme bringen, ergeben sich aber auch einige ethische Herausforderungen. Einerseits greifen KI-Systeme tief in Mensch-Welt-Verhältnisse ein, strukturieren und formen diese (Endres/Filipović 2023). Andererseits sind zahlreiche datenbasierte KI-Produkte in vernetzte digitale Medien und Dienste eingebunden und werfen grundlegende Fragen des Datenschutzes bzw. der Datenethik auf (Mühlhoff 2023). Eine ausgefeilte «Ethik der KI» ist erst in den Anfängen vorhanden, im Moment dominieren proklamative Rahmenrichtlinien, die kaum in der KI-Praxis operationalisierbar sind.


Anhand von aktuellen Fallbeispielen möchte das Angebot einerseits bewusst machen, wo und wie im Alltag und Beruf KI-Systeme genutzt werden, andererseits den Gebrauch und die Nutzung von KI-Systemen (z. B. im eigenen Berufsfeld) aus ethischem Blickwinkel kritisch reflektieren.


Anfragen unter kontakt@sinnkultur.art


Nächste Veranstaltungen:

FH OST, 23.08./27.09.2024, Rapperswil

FH OST, 31.01./28.02.2025, St. Gallen


FH OST: "Digitale Ethik in Zeiten von KI": Juni 2025

Medienethik
Die Digitalisierung unserer Lebenswelt stellt uns vor neue moralische Herausforderungen (Grimm et al. 2019). Anhand von aktuellen Fallbeispielen – mit Schwerpunkt aus dem Bereich Bildethik – wird Mediengebrauch und Mediennutzung aus ethischem Blickwinkel thematisiert.


Im Zeitalter von Web 2.0, in dem alle Webuser:innen Beiträge digital im Netz publizieren können, hat sich neben Medienproduzent:innen und Medienkonsument:innen die neue Rolle ‹Medienprosument:in› etabliert. Medienethik muss darum neu vermessen (Prinzing et al. 2015) und neben dem traditionellen journalistischen Berufsethos ebenso thematisiert werden, welche Verantwortung wir Medienprosument:innen in der Nutzung der neuen Medien tragen.


Das Angebot (Kurs, Workshop oder Inputreferat) zeigt die Herausforderungen der Digitalisierung auf und übt in die ethische Reflexion von Medienhandeln ein.


Anfragen unter kontakt@sinnkultur.art


Nächste Veranstaltung:

16. August 2024, Rorschach.


"Digitale Ethik in Zeiten von KI": Juni 2025



 

E-Mail
Anruf
LinkedIn