Die zweifache akustische Intelligenz virtueller Sprachassistenten zwischen verteilter Kooperation und Datafizierung
-
David Waldecker
und Axel Volmar
Abstract
Virtuelle bzw. intelligente persönliche Assistenten (IPAs), die mit Schnittstellen zur Ein- und Ausgabe gesprochener Sprache ausgestattet sind, bevölkern - u. a. in Form smarter Lautsprecher - zunehmend die häusliche Umgebung. Versteht man die Smartness der Geräte als eine auf akustische Daten bezogene Künstliche Intelligenz, treten zwei unterschiedliche Aspekte zutage, die zwar selten zusammen betrachtet werden, aber dennoch zumeist koexistent sind und einander sogar zu einem gewissen Grad bedingen: Zum einen zeigen wir anhand der Interaktion mit Sprachassistenten, dass akustische Intelligenz als maschinelle Intelligibilität auf die Zuarbeit der menschlichen Nutzer* innen angewiesen ist, um kommunizieren zu können. Sie erweist sich diesbezüglich als eine verteilte Form von Intelligenz. Zum anderen erscheint akustische Intelligenz als anbieterseitige Strategie der Beschaffung, Auswertung und ökonomischen Verwertung der von den Nutzer*innen produzierten akustischen Daten, die wiederum auf den technischen Bedingungen maschineller Lernverfahren und Cloud-Infrastrukturen basiert und sich als Datafizierung häuslicher Sprachkommunikation manifestiert.
Abstract
Virtuelle bzw. intelligente persönliche Assistenten (IPAs), die mit Schnittstellen zur Ein- und Ausgabe gesprochener Sprache ausgestattet sind, bevölkern - u. a. in Form smarter Lautsprecher - zunehmend die häusliche Umgebung. Versteht man die Smartness der Geräte als eine auf akustische Daten bezogene Künstliche Intelligenz, treten zwei unterschiedliche Aspekte zutage, die zwar selten zusammen betrachtet werden, aber dennoch zumeist koexistent sind und einander sogar zu einem gewissen Grad bedingen: Zum einen zeigen wir anhand der Interaktion mit Sprachassistenten, dass akustische Intelligenz als maschinelle Intelligibilität auf die Zuarbeit der menschlichen Nutzer* innen angewiesen ist, um kommunizieren zu können. Sie erweist sich diesbezüglich als eine verteilte Form von Intelligenz. Zum anderen erscheint akustische Intelligenz als anbieterseitige Strategie der Beschaffung, Auswertung und ökonomischen Verwertung der von den Nutzer*innen produzierten akustischen Daten, die wiederum auf den technischen Bedingungen maschineller Lernverfahren und Cloud-Infrastrukturen basiert und sich als Datafizierung häuslicher Sprachkommunikation manifestiert.
Kapitel in diesem Buch
- Frontmatter I
- Inhalt V
- Vorwort VII
- Acoustic Intelligence 1
-
Teil 1: Panakustik
-
Intermezzo
- (Gegen) die kommende Welt hörender Maschinen 39
- Hören macht Macht 47
-
Intermezzo
- Machine Listening als aktiver Prozess in interaktiven Kompositionen 71
- Hören, was die Maschine hört 83
-
Intermezzo
- Was bedeutet es, Machine Listening als eine Form des Hörens zu begreifen? 95
-
Teil 2: Monitor
- Maschinelle Intelligenz?! 99
-
Intermezzo
- AV3RY & CRAWLERS 125
- „A Wall of Sound“ 133
-
Intermezzo
- Schizo Sonics 155
- Die zweifache akustische Intelligenz virtueller Sprachassistenten zwischen verteilter Kooperation und Datafizierung 161
-
Intermezzo
- Lektionen, wie man (nicht) gehört wird 183
-
Teil 3: Agent
- Musik(tabellen)formulare: Musikmach(t)dinge von Musikklangverwaltungen 189
-
Intermezzo
- Improvisation und Kontrolle 215
- Streamability 227
-
Intermezzo
- #dirigate 247
- „Recognized by sound“ 257
-
Intermezzo
- Mycelium Melody 281
- Beiträger*innen 283
- Index 289
Kapitel in diesem Buch
- Frontmatter I
- Inhalt V
- Vorwort VII
- Acoustic Intelligence 1
-
Teil 1: Panakustik
-
Intermezzo
- (Gegen) die kommende Welt hörender Maschinen 39
- Hören macht Macht 47
-
Intermezzo
- Machine Listening als aktiver Prozess in interaktiven Kompositionen 71
- Hören, was die Maschine hört 83
-
Intermezzo
- Was bedeutet es, Machine Listening als eine Form des Hörens zu begreifen? 95
-
Teil 2: Monitor
- Maschinelle Intelligenz?! 99
-
Intermezzo
- AV3RY & CRAWLERS 125
- „A Wall of Sound“ 133
-
Intermezzo
- Schizo Sonics 155
- Die zweifache akustische Intelligenz virtueller Sprachassistenten zwischen verteilter Kooperation und Datafizierung 161
-
Intermezzo
- Lektionen, wie man (nicht) gehört wird 183
-
Teil 3: Agent
- Musik(tabellen)formulare: Musikmach(t)dinge von Musikklangverwaltungen 189
-
Intermezzo
- Improvisation und Kontrolle 215
- Streamability 227
-
Intermezzo
- #dirigate 247
- „Recognized by sound“ 257
-
Intermezzo
- Mycelium Melody 281
- Beiträger*innen 283
- Index 289