Startseite Usability von Browsererweiterungen zum Schutz vor Tracking
Artikel Öffentlich zugänglich

Usability von Browsererweiterungen zum Schutz vor Tracking

  • Marvin Hubert

    Marvin Hubert absolvierte den Masterstudiengang Internationales Informationsmanagement / Informationswissenschaft der Universität Hildesheim. Derzeit arbeitet er als Online Marketing Manager mit Schwerpunkt Suchmaschinenoptimierung und Conversion Rate Optimierung bei der web-netz GmbH in Lüneburg.

    , Joachim Griesbaum

    Prof. Dr. Joachim Griesbaum ist Professor für Informationswissenschaft an der Universität Hildesheim. Forschungsschwerpunkte stellen die Bereiche E-Learning, Informationsverhalten und Online Marketing dar.

    EMAIL logo
    und Christa Womser-Hacker

    Prof. Dr. Christa Womser-Hacker ist Professorin für Informationswissenschaft an der Universität Hildesheim. Wissenschaftliche Arbeitsschwerpunkte stellen die Themenfelder Multilingualität und Interkulturalität in Informationssystemen, Evaluierung von Information-Retrieval-Systemen und Usability/User Experience – Mensch-Maschine-Interaktion dar.

Veröffentlicht/Copyright: 7. April 2020
Veröffentlichen auch Sie bei De Gruyter Brill

Zusammenfassung

Browsererweiterungen zum Schutz vor Tracking stellen beliebte Werkzeuge zum Schutz der Privatsphäre von Nutzerinnen und Nutzern dar. Ihre tatsächliche Effektivität ist in hohem Maße von ihrer Usability abhängig, da diese bestimmt, in welchem Ausmaß diese Werkzeuge effektiv, effizient und zufriedenstellend genutzt werden können. Die vorliegende Untersuchung prüft die Gebrauchstauglichkeit vier solcher Browsererweiterungen mit Hilfe von Benutzertests. Die Ergebnisse zeigen, dass die Add-ons auch heutzutage noch eine Vielzahl an Usability-Mängeln aufweisen. Kernprobleme stellen insbesondere die mangelnde Verständlichkeit und die fehlende Führung und Unterstützung der Nutzenden dar.

Abstract

Browser extensions that block online tracking are popular tools users´ rely on to protect their privacy. As usability determines the effectiveness, efficiency, and satisfaction of software usage, the effectiveness of such browser extensions is largely dependent on their usability. Based on user tests, the present study investigates the usability of four such browser extensions. Results indicate, that such add-ons still suffer from a number of usability flaws today. Especially, the lack of comprehensibility and the lack of user guidance is problematic.

Résumé

Les extensions de navigateur qui protègent les utilisateurs et utilisatrices contre le pistage constituent des outils appréciés pour la protection de la sphère privée. Leur effectivité réelle dépend énormément de leur facilité d’utilisation pratique car celle-ci régit dans quelle mesure ces outils peuvent être utilisés de manière effective, efficiente et satisfaisante. La présente étude examine la fiabilité de quatre de ces extensions de navigateur à l’aide de tests auprès des utilisateurs. Les résultats montrent que les Add-ons (les ajouts) présentent, aujourd’hui encore, de nombreux défauts liés à leur utilisabilité. Les problèmes principaux sont le manque d’intelligibilité, les indications guidant les utilisateurs déficientes et l’absence de fonction d’aide.

Einleitung

Für die Kontrolle und den Schutz der Privatsphäre im Internet und insbesondere vor Webtracking existiert eine Vielzahl sogenannter Privacy Tools. Für deren Effektivität ist neben der Funktionalität insbesondere auch ihre Benutzbarkeit bedeutsam. Unter anderem die European Union Agency for Network and Information Security (ENISA 2016) und Karat et al. (2005) stufen die Benutzerfreundlichkeit solcher Werkzeuge als sicherheitskritisch ein. Das ist problematisch, da Fehler bei der Benutzung zu einer erhöhten Gefährdung der Privatsphäre und der Entstehung weiterer damit verbundener Risiken führen können. Werden die Werkzeuge nicht oder nur unsachgemäß angewendet, können Nutzende möglicherweise durch Tracker verfolgt und detaillierte Profile von ihnen erstellt werden, die sensible Informationen wie ihre politische Gesinnnung, ihren Gesundheitszustand oder ihren finanziellen Status beinhalten und zudem das Risiko einer missbräuchlichen Verwendung bergen. Inwieweit Browsererweiterungen zum Schutz vor Tracking tatsächlich benutzerfreundlich sind, stellt den Ausgangspunkt und die Motivation der vorliegenden Arbeit dar. Ziel ist es, ein aktuelles Bild zur Usability populärer Browsererweiterungen zu gewinnen.

Forschung im Themenfeld

Der folgende Abschnitt gibt eine grobe Übersicht zu Studien im Forschungsfeld usable privacy and security. Die Literaturrecherche erfolgte mithilfe der ACM Digital Library, der IEEE Xplore Digital Library, ResearchGate und Google Scholar. Es zeigt sich, dass bislang insbesondere Untersuchungen zur Effektivität vorhandener Blocking-Mechanismen vorliegen (vgl. u. a. Balebako et al. 2012, Garimella et al. 2017, Merzdovnik et al. 2017, Traverso et al. 2017). Dagegen wird die Usability von Browsererweiterungen zum Schutz vor Webtracking bisher nur in geringem Ausmaß erforscht. Bereits in den 1970er Jahren verdeutlichen Saltzer und Schroeder (1975) das Risiko, dass aus Bedienfehlern Sicherheitslücken resultieren können.

Whitten & Tygar (1999) und Ruoti et al. (2015) untersuchten mittels Nutzertests die Usability einer Verschlüsselungssoftware und konnten erhebliche Usability-Mängel feststellen. Insbesondere die mangelnde Verständlichkeit der Software und die fehlende Unterstützung der Nutzenden wurden als problematisch eingeschätzt. Cranor et al. (2016) stellten bei der Evaluierung des P3P User Agents Privacy Bird Optimierungspotential im Hinblick auf die Wortwahl der Benutzerschnittstelle und die Sichtbarkeit bestimmter Mechanismen fest. Schaub et al. (2016) führten eine Laborstudie mit 24 Probanden zu Browser Extensions‘ Impact on User Privacy Awareness and Concern durch. Auf Basis ihrer Ergebnisse empfehlen die Autoren eine relevante, zugängliche und verständliche Gestaltung der bereitgestellten Informationen, um Verwirrung, Misstrauen und Skepsis gegenüber den Werkzeugen vorzubeugen.

Die Stiftung Warentest (2017) untersuchte mittels einer Expertenevaluation neun Browser Add-ons zum Schutz vor Webtracking. Der Fokus lag auf dem Installationsvorgang, der Konfiguration sowie dem täglichen Gebrauch der Add-ons. Die Ergebnisse zeigen ein sehr unterschiedliches Bild. Einige Tools hoben sich durch eine leichte Handhabung und viele Einstellungsmöglichkeiten (u. a. uBlock Origin, Ghostery, Adblock Plus), geringe Funktionsverluste auf Webseiten (u. a. uBlock Origin) oder auch durch viele hilfreiche Erläuterungen und Erklärungshilfen (u. a. Ghostery) positiv hervor. Andere Werkzeuge wiesen hingegen nur wenige Einstellungsmöglichkeiten für erfahrene Nutzende auf (u. a. Privacy Badger, Adblock Plus) oder zeigten Verbesserungsbedarf im Hinblick auf das Menü-Design und die Erläuterungen zu geblockten Trackern (u. a. Privacy Badger).

Leon et al. (2012) führten eine Laborstudie mit 45 Erstnutzerinnen und -nutzern durch. Mit Hilfe voneinander unabhängiger Stichproben wurde die Usability von insgesamt neun Privacy Tools untersucht. Die Probanden wurden dazu angehalten, mit einem ihnen zufällig zugewiesenen Tool Aufgaben zur Installation, Konfiguration und Feineinstellung bzw. Problemlösung der Tools zu absolvieren. Neben Performanz-Messungen wurden auch Fragebögen zur Datengewinnung verwendet. Die Ergebnisse der Studie deuten zunächst auf einen allgemein unkomplizierten Installationsvorgang hin. Bei der Konfiguration der Tools erwiesen sich jedoch insbesondere ein verwirrender Jargon der Benutzerschnittstelle und auf Nutzerseite ein fehlendes Verständnis für die Funktionsweise der Werkzeuge als problematisch. Leon et al. (2012) kommen zu dem Schluss, dass keines der neun getesteten Tools dazu befähigt, Tracking effektiv und nach persönlichen Bedürfnissen entsprechend zu kontrollieren, weil sie den Erwartungen und Fähigkeiten der Nutzenden nicht gerecht werden.

Im Ergebnis schlagen die Autoren folgende Verbesserungen der Browsererweiterungen vor: a) eine Unterteilung der Tracker in Kategorien, b) die Aktivierung des Trackingschutzes bereits in den Standardeinstellungen, c) eine klare, einfache und verständlich gehaltene Gestaltung der Benutzerschnittstelle, d) Bereitstellen von kontinuierlichem Feedback in der Interaktion sowie von Erklärungshilfen. Die Studie von Leon et al. (2012) kann als die bislang elaborierteste Untersuchung eingeschätzt werden. Aus diesem Grund dient sie für die nachfolgende Untersuchung methodisch als Bezugspunkt und Orientierung.

Forschungsfragen und methodischer Ansatz

In der vorliegenden Untersuchung stehen zwei Forschungsfragen im Fokus.

  1. Wie ist die Usability von Browsererweiterungen zum Schutz vor Tracking einzuschätzen?

  2. Welche Maßnahmen sind aus Sicht der Nutzer lohnenswert, um die Usability von Browsererweiterungen zu verbessern?

Forschungsfrage 1 zielt auf eine Bestandsaufnahme. Hier soll die Untersuchung Einsichten liefern, inwieweit die Werkzeuge für normale Webnutzende (Nichtexperten) zielführend zu gebrauchen sind und ob sich die Browsererweiterungen seit der Studie von Leon et al. (2012) wesentlich verbessert haben. Obwohl die Untersuchung sich im Detail durchaus von der Studie von Leon et al. (2012) unterscheidet und somit im engeren Sinne keine Replikationsstudie darstellt, erweitert und aktualisiert sie die bislang eher spärliche Datenlage im Themenfeld.

Forschungsfrage 2 weist eine konstruktive Pragmatik auf und zielt im Sinne einer eher formativen Evaluation auf konkrete Gestaltungsempfehlungen zur weiteren Verbesserung der Browsererweiterungen.

Untersuchungsdesign

Insgesamt lässt sich die Untersuchung als ein exploratives auf Nutzertests beruhendes Feldexperiment bezeichnen. Nachfolgend werden das Testdesign, die Stichprobengröße, die Nutzergruppe, die Testaufgaben, der Testablauf, die Bewertungsmaße sowie die Pretests und deren Ergebnisse dargelegt.

Methode und Untersuchungsgegenstand

Um die Usability der Browsererweiterungen möglichst realistisch prüfen zu können, werden Benutzertests als Methode gewählt. Diese werden bei den Probanden zu Hause durchgeführt, um möglichst realistische Bedingungen zu schaffen und Stressfaktoren zu minimieren (vgl. Sarodnick & Brau 2011: 239). Dabei wird ihnen ein Laptop mit Windows-Betriebssystem zur Verfügung gestellt und sie können selbst entscheiden, welchen der beiden vorinstallierten Browser („Google Chrome“ und „Mozilla Firefox“) sie verwenden.

Testdesign

Aus Aufwandserwägungen wird die Untersuchung auf die Analyse von vier Browserweiterungen beschränkt. Primäres Auswahlkriterium stellt die Popularität der Browsererweiterung dar. Somit werden Adblock Plus, uBlock Origin, Ghostery und Privacy Badger ausgewählt. Tabelle 1 stellt die Werkzeuge in einer Übersicht vor.

Tabelle 1

Übersicht der untersuchten Add-ons.

Add-onVerbreitungsgrad (Mozilla Foundation 2018; Google LLC 2018)TypRegelsatz
Adblock Plus>20 Mio. Nutzende (Firefox/Chrome)Werbeblockercommunity-driven
uBlock Origin>15 Mio. Nutzende (Firefox/Chrome)Content-Blockercommunity-driven
Ghostery~ 4 Mio. Nutzende (Firefox/Chrome)Tracker-Blockercentralized
Privacy Badger~ 1,5 Mio. Nutzende (Firefox/Chrome)Tracker-Blockeralgorithmic
Abbildung 1 Screenshots der Startbildschirme der vier evaluierten Add-ons.
Abbildung 1

Screenshots der Startbildschirme der vier evaluierten Add-ons.

Abbildung 1 zeigt den Startbildschirm der jeweiligen Werkzeuge in der Übersicht. Um Lerneffekte auszuschließen, wird ein between-subjects-Design gewählt, d. h. jede Testperson wird zufällig einem der vier Werkzeuge zugewiesen und absolviert dann die jeweiligen Aufgaben nur mit dem zugewiesenen Tool.

Stichprobengröße

Für eine statistisch aussagekräftige vergleichende Performanzanalyse aller vier Werkzeuge wären insgesamt 76 Testpersonen erforderlich (Effektstärke f = (0,40), α-Niveau von fünf Prozent, Teststärke (1-β = 0,8)). Da Benutzertests sehr aufwendig sind, wird eine derartig große Stichprobe für unrealistisch gehalten. Daher wird ein problemidentifizierender Ansatz, wie er bei performativen Studien zum Einsatz kommt, verfolgt (Sauro & Lewis 2016: Kap.7). Geht man hier von einer Auftretenswahrscheinlichkeit eines Usability-Fehlers von 20 Prozent (für einen einzelnen Testdurchlauf) aus, so tritt der Fehler bei 7,2 Testdurchläufen mit einer Wahrscheinlichkeit von 80 Prozent auf. D. h. ein Testsample von acht Personen pro Browsererweiterung scheint hinreichend, um ein grundsätzliches Bild zu den Usability-Problemen der Werkzeuge zu gewinnen. Statistische Analysen, die auf Basis von Performanzmaßen die Werkzeuge miteinander vergleichen, können ergänzend vorgenommen werden. Aufgrund der beschränkten Anzahl an Teilnehmenden ist aber die Teststärke sehr gering (unter 50 %), d. h. solche Analysen sind als tentativ einzuschätzen.

Nutzergruppe

Die Zielgruppenauswahl unterliegt keinen Einschränkungen. Die Teilnehmenden sollen „normale Nutzerinnen und Nutzer“ widerspiegeln (vgl. Sarodnick & Brau 2011: 167). Bei den rekrutierten Probanden handelte es sich weiterhin um Erstnutzer des ihnen zugewiesenen Tools. Aufgrund der Tatsache, dass sich die Browsererweiterungen, trotz zum Teil identischer zugrundeliegender Blocking-Ansätze, doch erheblich in ihrer Funktionalität und Handhabung unterscheiden, werden mögliche Erfahrungen, die aus der Nutzung anderer Browsererweiterungen zum Schutz vor Tracking resultieren und damit verbundene Lerneffekte als eher gering eingeschätzt. Daher werden Probanden, die bereits andere Browsererweiterungen zum Schutz vor Tracking verwendet haben, nicht vom Experiment ausgeschlossen.

Testaufgaben

Die Testaufgaben sind das zentrale Element des Untersuchungsdesigns. Sie determinieren die Gegenstandsbereiche und den Ablauf der Untersuchung in hohem Maße. Es werden insgesamt fünf Testaufgaben erstellt. Diese behandeln sowohl den Installations- und Konfigurationsvorgang der Browsererweiterungen als auch die Vornahme von Feineinstellungen im jeweiligen Tool (vgl. Leon et al. 2012: 591). Im Hinblick auf die zu tätigenden Feineinstellungen wurden in den Browsererweiterungen vor der Aufgabenbearbeitung, wenn möglich, zusätzliche Blockingfunktionen aktiviert, die Probleme bei der Aufgabenbewältigung verursachen (z. B. das Abspielen eines Videos verhindern). Diese Probleme sollten dann jeweils gelöst werden. Die Aufgabenstellungen zum Installationsvorgang (Aufgabe 1) und den Feineinstellungen (Aufgabe 3.1.–3.3.) sind für alle Systeme soweit möglich identisch. Die Aufgabenstellungen zum Konfigurationsvorgang (Aufgabe 2) werden aufgrund der unterschiedlichen Funktionalität der Browsererweiterungen für jedes Werkzeug individuell angepasst. In Summe betrachtet sollen die Testaufgaben in ihrer Sequenz näherungsweise einen typischen Nutzungsverlauf abbilden. Die Bewertung des Erfolgs der Aufgabenbewältigung wird auf Basis vorab definierter Bewertungskriterien, die sowohl eine Ideallösung als auch – wenn vorhanden – weitere Lösungsmöglichkeiten abbilden, festgelegt. Die beiden nachfolgenden Tabellen geben einen Überblick über die Testaufgaben.

Tabelle 2:

Übersicht Aufgabenstellungen (1, 3.1., 3.2., 3.3.).

Aufgabe 1: Installation und ErstkonfigurationAufgabe 3: Problemlösung durch Feineinstellung
Aufgabe 3.1. (facebook.com)Aufgabe 3.2. (gutefrage.net)Aufgabe 3.3. (haz.de)
– Tool installieren und über die Funktionsweise informieren

– Hilfe-/ Supportbereich auf-rufen und einen Überblick verschaffen

– Eine erste, den persönlichen Bedürfnissen entsprechende, Konfiguration durchführen
– In einen vorgegebenen Test-account bei Facebook ein-loggen und ein beliebiges/vorgegebenes (Privacy Badger) Spiel starten

– Bei auftretenden Problemen / Störungen Feineinstellungen im Tool vornehmen, um das jeweilige Spiel ausführen zu können
– Auf der Ratgeber-Plattform „gutefrage.net“ einen belie-bigen Beitrag zum Thema „Gesunde Ernährung“ anschauen und sich einen Überblick über die von der Community gegebenen Antworten verschaffen

– Bei auftretenden Problemen / Störungen Feineinstellungen im Tool vornehmen, um den jeweiligen Beitrag bzw. die dazugehörigen Antworten sehen zu können
– Ein beliebiges Video auf der Website der HAZ anschauen

– Bei auftretenden Problemen / Störungen Feineinstellungen im Tool vornehmen, um das jeweilige Video abspielen zu können

Die für jede Browsererweiterung individuellen Aufgabenstellungen für die zweite Aufgabe können Tabelle 3 entnommen werden.

Tabelle 3:

Übersicht Aufgabenstellungen Aufgabe 2.

Aufgabe 2: Konfiguration nach speziellen Vorgaben
Adblock PlusuBlock OriginGhosteryPrivacy Badger
– Filterliste zum Schutz vor Tracking hinzufügen

– Filterregel erstellen
– Filterliste zum Schutz vor Tracking hinzufügen

– Filterregel aktivieren
– Vorgegebene Tracking-Domains blockieren

– Vorgegebene Tracker-Kategorie vollständig blockieren

– Benachrichtigungs-funktion aktivieren
– Vorgegebene Tracking-Domains blockieren

– Cookies für einen, mit einem vorgegebenen Unternehmen verbundenen, Tracker blockieren

– Tracking über Social Media Symbole zulassen

Testablauf

Der Testablauf wird wie folgt festgelegt.

  1. Begrüßung und Einführung

  2. Vorbefragung und Schulung

  3. Aufgabenbearbeitung: Bearbeitung der Testaufgaben

  4. Nachbefragung

  5. Abschluss, Debriefing

Die Benutzertests werden mithilfe der Software „Morae“ aufgezeichnet. Der Untersuchungsleiter (der Erstautor dieses Beitrags) führt die Testsitzungen durch.

Bewertungsmaße

In der Untersuchung werden sowohl das Verhalten der Probanden erfasst als auch deren subjektive Einschätzung erfragt. Zentrale Performanzindikatoren stellen die Erfolgs- und Fehlerrate, die Anzahl der Abweichungen vom Idealpfad und die Dauer der Aufgabenbearbeitung dar. In Bezug auf die Fehlerrate wird die Ausführung einer anderen als der ursprünglich beabsichtigten Aktion (Slip) als Fehler gewertet. Auch die Verfolgung eines für die aktuelle Aufgabe ungeeigneten Ziels (Mistake) wird als Fehler eingestuft (vgl. Norman 2013: 121 f.). Für die Aufgabenbearbeitung wird kein Zeitlimit festgelegt. Es liegt im Ermessen des Testleiters, die Bearbeitung einer Aufgabe abzubrechen, sollte er diese – trotz gegebener Hilfestellung – als nicht lösbar einschätzen. Zur Erhebung der Einstellung der Nutzenden werden Standardfragebögen (der After-Scenario Questionnaire (ASQ), die System Usability Scale (SUS) (vgl. Sauro & Lewis 2016, Kap.8) und ein in Teilen selbstentwickelter Fragebogen zum Verständnis der Funktionen der geprüften Browsererweiterungen genutzt. Tabelle 4 gibt einen Überblick über die Bewertungsmaße.

Tabelle 4

Bewertungsmaße, Messwerte und Indikatoren.

BewertungsmaßMesswerte und Indikatoren
Erfolgsrate100 %=Aufgabe vollständig gelöst

50 %=Aufgabe teilweise gelöst, bzw. mit Hilfestellung gelöst

0 %=Aufgabe nicht gelöst
FehleranzahlAnzahl Fehler
Dauer der AufgabenbearbeitungIn Minuten
Nutzung Support und DokumentationErfolgsrate (0–1) bei Nutzung des Supports
Effektivität, Effizienz, ZufriedenheitAfter-Scenario Questionnaire (ASQ)
Verständlichkeit und ErlernbarkeitFragebogen zum Verständnis der Funktionen der Werkzeuge (vor und nach Aufgabe 3 mit sich wiederholenden Fragen)
Gesamt-Usability Einschätzung durch TestpersonenSystem Usability Scale (SUS-Score)

Ergänzend wurden mit Hilfe der Methode des Lauten Denkens und der Beobachtung der Interaktion das Auftreten konkreter Usability-Probleme im Test erfasst.

Pretests

Zur Prüfung und Optimierung des Untersuchungsdesigns wurden Pretests mit fünf Probanden durchgeführt. Die gewonnenen Erkenntnisse führten zu einer Reduzierung des Aufgabenumfangs und einer Überarbeitung der Formulierung der Aufgabenstellungen. Zudem wurde deutlich, dass eine manuelle Steuerung der Testsitzungen, die Vorlage der Aufgabenbeschreibungen in Papierform sowie die Präsentation eines Informationsvideos zu Webtracking vor Beginn einer Testsitzung sinnvoll sind.

Rekrutierung und Testdurchführung

Die Teilnehmenden wurden im universitären Umfeld sowie im erweiterten Bekanntenkreis des Testleiters rekrutiert, wobei eine heterogene Zusammensetzung der Testgruppe angestrebt wurde (vgl. Rauterberg et al. 1994: 141). Bei den Probanden musste es sich um Erstnutzende der ihnen für die Studie zugewiesenen Browsererweiterung handeln. Alle Tests wurden zwischen dem 11. Oktober und dem 22. November 2018 durchgeführt. An den Tests nahmen 32 Personen teil. Die durchschnittliche Sitzungsdauer betrug etwa 62 Minuten.[1]

Analyse

Übersicht über die Stichprobe

Tabelle 5

Übersicht über die Zusammensetzung der Stichprobe (n = 32).

AttributAusprägung
Anzahl Probanden32
Geschlecht37,50 % weiblich, 62,50 % männlich
Alter≤35 Jahre: 68,75 %, >35Jahre: 31,25 %
Bildungsstand62,50 % Hochschulabschluss, 37,50 % Abschluss Gymnasium/Realschule
IT-Hintergrund/Kenntnisse Webentwicklung vorhanden37,50 %
EDV-/Computerkenntnisse (1 = keine Kenntnisse, 5 = sehr gute Kenntnisse)MW = 3,47 (SD = 1,00)
Bedeutung des Schutzes der Privatsphäre im Internet (1 = gar nicht wichtig, 5 = äußerst wichtig)MW = 4,22 (SD = 0,78)
Akzeptanz gegenüber Web-tracking (1 = sehr niedrig, 5 = sehr hoch)MW = 2,19 (SD = 0,92)
Begriff Webtracking bekannt62,50 %
Maßnahmen zum Schutz vor Webtracking ergriffen34,38 %

Tabelle 5 gibt eine Übersicht über die Zusammensetzung der Stichprobe. Die Mehrheit der Teilnehmenden ist männlich, unter 35 Jahre, besitzt ein hohes Bildungsniveau und betrachtet sich als computer- und internetaffin. Alle Probanden stufen den Schutz ihrer Privatsphäre als wichtig oder sehr wichtig ein. Die Akzeptanz von Webtracking lässt sich als niedrig einstufen. Rund ein Drittel kannte schon andere Maßnahmen zum Schutz vor Webtracking. Darunter wurden am häufigsten vorhandene Browserfunktionalitäten aufgeführt (Antitracking-Einstellung, Inkognito-Modus). Vier Probanden nannten Browsererweiterungen zum Schutz vor Tracking (Adblock Plus, uBlock Origin, Ghostery), jeweils einmal erschien „VPN Client“, „Spamfilter“ und „vorsichtiger Umgang mit Daten im Internet“.

Ergebnisse

Die nachfolgende Darstellung gibt zunächst eine Übersicht über die Performanz der Werkzeuge bei den Testaufgaben. Nachfolgend wird die Einschätzung der Probanden dargelegt. Darauf aufbauend werden die wesentlichen Problembereiche und Verbesserungsoptionen der einzelnen Werkzeuge diskutiert.

Performanz in Bezug auf die Testaufgaben

Tabelle 6 gibt eine Gesamtsicht über die Effektivität und Effizienz der Browsererweiterungen bei den Testaufgaben. Sie zeigt die Mittelwerte und Standardabweichungen über alle Teilnehmenden in den jeweiligen Testgruppen.

Tabelle 6:

Gesamtansicht über Effektivität und Effizienz der Ad-Blocking-Tools bei den Testaufgaben.

Adblock PlusuBlock OriginGhosteryPrivacy Badger
Aufgabe 1: Installation und Erstkonfiguration
Erfolgsrate (in Prozent)93,75 % (17,68)31,25 %* (37,20)93,75 % (17,68)81,25 % (25,88)
Fehleranzahl (absolut)0,13 (0,35)0,25 (0,46)0,25 (0,46)0,63 (0,74)
Bearbeitungsdauer (in Minuten)13,35 (6,57)15,03 (6,01)15,20 (3,6)12,41(4,31)
Aufgabe 2: Konfiguration nach speziellen Vorgaben
Erfolgsrate (in Prozent)56,25 % (17,68)50 % (26,73)81,25 % (25,88)43,75 % (17,68)
Fehleranzahl (absolut) 2,13 (0,99)1,75 (1,39)0,88 (0,99)2,5 (1,2)
Bearbeitungsdauer (in Minuten)10,51 (2,54)19,61** (8,13)7,67 (5,36)11,76 (6,38)
Aufgabe 3: Problemlösung durch Feineinstellung
3.2 GuteFrage3.1 Facebook3.3 HAZ3.1Facebook3.3 HAZ3.1 Facebook3.3 HAZ
Erfolgsrate (in Prozent)93,75 % (17,68)68,75 % (37,20)87,50 % (35,36)87,50 % (23,15)93,75 % (17,68)100 % (0,00)87,50 % (23,15)
Fehleranzahl (absolut) 0,25 (0,46)0,57 (0,79)0,86 (0,69)0,38 (0,52)0,38 (0,52)0,00(0,0)0,38 (0,74)
Bearbeitungsdauer (in Minuten)3,26 (0,86)6,71** (2,24)3,49 (1,43)4,56 (2,04)3,05 (1,81)2,82 (0,71)4,11(1,58)
Alle Aufgaben
Erfolgsrate (in Prozent)81,25 % (21,65)59,38 %(24,21)89,06 % (5,98)78,13 % (24,21)
Fehleranzahl (absolut)0,84 (1,12)0,86 (0,65)0,47 (0,28)0,88 (1,11)
Bearbeitungsdauer (in Minuten)9,04 (5,20)11,21 (7,42)7,62 (5,41)7,78 (5,01)
Werte in Klammern stellen die Standardabweichung zu den jeweiligen Mittelwerten dar. * zeigt eine Tendenz (p < .10) gemäß des Kruskal-Wallis-Tests (paarweiser Vergleich mit Wilcoxon-Vorzeichen-Rang-Test mit Alphafehler Adjustierung gemäß der Bonferroni-Holm-Prozedur). **zeigt einen signifikanten Unterschied (p < .05) gemäß einer einfaktoriellen Varianzanalyse (ANOVA) (paarweiser Vergleich mittels t-Tests mit Alphafehler Adjustierung gemäß der Holm-Prozedur).

Insgesamt deutet die Analyse darauf hin, dass sich hinsichtlich der Nutzbarkeit der Werkzeuge Unterschiede erwarten lassen. So liegen die Erfolgsraten für alle Aufgaben bei Ghostery bei über 80 Prozent, während die anderen Werkzeuge, insbesondere bei Aufgabe 2, zurückfallen. Besonders uBlock Origin-Nutzende haben Probleme, die Aufgabenziele zu erreichen. Für Aufgabe 1 zeigt sich auch statistisch eine Tendenz (p<0.10)[2]. In Bezug auf die Fehleranzahl sind die Daten weniger einheitlich. Bei Aufgabe 2 wird über alle Tools hinweg eine erhöhte durchschnittliche Fehleranzahl sichtbar. Auch bei der Dauer der Aufgabenbearbeitung kann Aufgabe 2 als auffällig beschrieben werden. Gerade uBlock Origin-Nutzende zeigen bei den Aufgaben 2 und 3.1. eine höhere durchschnittliche Bearbeitungsdauer auf. Es deutet sich an, dass die uBlock Origin-Nutzenden tendenziell mehr Zeit investieren müssen, um sich in dem komplexen Werkzeug zurechtzufinden.

Differenziert man die Ergebnisse nach verschiedenen Nutzertypen, so zeigt sich über alle Gruppen hinweg kein statistisch signifikanter Unterschied zwischen Probanden mit und ohne IT-Kenntnissen (p=0.66, Mann-Whitney-U-Test).

Usability Einschätzung durch die Nutzenden

Die Einstufung der Probanden wurde zunächst mittels After-Scenario Questionnaire (ASQ) bei den einzelnen Testaufgaben erfasst. Hier zeigt sich Folgendes: Die durchschnittliche Zufriedenheit der Nutzenden bzgl. der Aufgabenerledigung, des Zeitaufwands sowie den Supportinformationen der Tools liegt insgesamt im mittleren Bereich. Die Zufriedenheit mit den Supportinformationen fällt dabei am geringsten aus. Bei den Aufgaben verursacht die zweite Aufgabe (Konfiguration nach speziellen Vorgaben) bei dem System uBlock Origin die größte Unzufriedenheit.

Eine Gesamteinschätzung der Werkzeuge wurde in der Nachbefragung mittels des System Usability Scale-Fragebogens (SUS) ermittelt. Der Fragebogen besteht aus zehn Punkten. Folgende Abbildung zeigt die deutsche Übersetzung der System Usability Scale.

  1. Ich denke, dass ich das System gerne häufig benutzen würde.

  2. Ich fand das System unnötig komplex.

  3. Ich fand das System einfach zu benutzen.

  4. Ich glaube, ich würde die Hilfe einer technisch versierten Person benötigen, um das System benutzen zu können.

  5. Ich fand, die verschiedenen Funktionen in diesem System waren gut integriert.

  6. Ich denke, das System enthielt zu viele Inkonsistenzen.

  7. Ich kann mir vorstellen, dass die meisten Menschen den Umgang mit diesem System sehr schnell lernen.

  8. Ich fand das System sehr umständlich zu nutzen.

  9. Ich fühlte mich bei der Benutzung des Systems sehr sicher

  10. Ich musste eine Menge lernen, bevor ich anfangen konnte das System zu verwenden.

Abbildung 2: Deutsche Übersetzung der System Usability Scale (SUS) (vgl. SAP User Experience Community 2015).

Tabelle 7 zeigt die Ergebnisse der Einschätzung.

Tabelle 7

Mittelwert und der SUS-Score je Tool. * zeigt einen signifikanten Unterschied (p < .01) gemäß einer einfaktoriellen Varianzanalyse (ANOVA) (paarweiser Vergleich mittels t-Tests mit Alphafehler Adjustierung gemäß der Holm-Prozedur).

Adblock PlusuBlock OriginGhosteryPrivacy Badger
Mittelwert (Standardabweichung)55,00 (26,52)19,29* (8,00)71,56 (18,66)62,19 (20,46)
Einschätzung gemäß des amerikanischen Bewertungsschemas: A (85-100), B+ (80-84), B (70-79), B- (65-69), C+ (60-64), C (41-59), C- (35-40), D (15-34), F (0-14), (vgl. Sauro & Lewis 2016: Tab.8.7).CDBC+

Der Wertebereich der Skala reicht von 0–100. Die Ergebnisse zeigen hier eine große Spannweite, und es kann von einer sehr niedrigen bis mittleren Usability der Werkzeuge ausgegangen werden. Legt man gemäß Tabelle 7 die amerikanische Notenskala zugrunde, so erreicht einzig Ghostery eine gute Bewertung, Privacy Badger und Adblock Plus bewegen sich in einem befriedigenden Bereich. uBlock Origin ist bestenfalls ausreichend. Zum Vergleich: Google erreicht in Tests einen Wert von über 90, Amazon mehr als 80 und Excel 56,5 (vgl. Sauro & Lewis 2016: Tab. 8.7). Die Varianzanalyse zeigt, dass uBlock Origin signifikant schlechter bewertet wird als die drei anderen Browsererweiterungen. Zwischen Adblock Plus, Ghostery und Privacy Badger gibt es keine statistisch signifikanten Unterschiede.

Weiterhin zeigt sich, dass die Usability-Bewertungen in einem mittleren Ausmaß mit der Erfolgsrate korrelieren (r=0,50, p<0.01, Pearson). Nutzenden zu ermöglichen, ihre Ziele schnell und einfach zu erreichen, sollte demnach eine Kernanforderung an heutige Privacy Tools darstellen.

Analyse der einzelnen Werkzeuge

Die nachfolgende Analyse der einzelnen Werkzeuge stützt sich primär auf die Beobachtungsprotokolle, in denen auch die verbalisierten Gedanken der Probanden festgehalten sind sowie die Ergebnisse aus den selbst entwickelten Fragen, welche die allgemeine Einschätzung der Browsererweiterungen sowie das Verständnis einzelner Toolfunktionen vor und nach Benutzung erfassen.

Adblock Plus

Ein wesentliches Problem stellt bei diesem Tool die Inkonsistenz der Sprache dar. Obwohl Adblock Plus Optionen zur Sprachauswahl beinhaltet, sind die auf externen Seiten befindlichen Hilfe-Bereiche oft nur in englischer Sprache verfügbar (ABP_P2: „Erst auf Deutsch, dann klickt man Hilfe an, dann ist es auf Englisch.“). Zudem wird die Software dem mentalen Modell und Wissen der Probanden oftmals nicht gerecht und setzt beispielsweise die Kenntnis der URL einer Filterliste voraus. (ABP_P3: „Hier ist doch „Filterliste hinzufügen“. Dafür müsste ich aber doch die URL der Filterliste haben.“, ABP_P4: „Woher soll ich jetzt wissen, was man da für eine URL eingibt.“). Eine Übersicht, aus welcher Nutzende eine Liste abonnieren können, ohne die dazugehörige URL zu kennen, ist erst durch Aufruf des Hyperlinks „Erfahre mehr“ in den Filterlisten-Optionen zu erreichen (ABP_P4: „Dieses „Erfahre mehr“. Wieso schreibt man da nicht „Hier Filterlisten hinzufügen“ oder so.“). Die Probanden wünschen sich zudem Feedback oder weitere Erklärungshilfen, beispielsweise bei der Erstellung einer Filterregel (ABP_P5: „Irgendwie hab ich das jetzt hier hinzugefügt, aber der sagt mir nicht, ob das auch funktioniert.“). Im Hinblick auf die Behebung von Funktionsstörungen im Rahmen der dritten Aufgabe kann eine tiefergehende Analyse als obsolet betrachtet werden, da Adblock Plus keine individuelle Verwaltung einzelner Tracker ermöglicht.

uBlock Origin

Den Probanden dieses Tools bereiteten vor allem die komplexen und zum Teil schwer verständlichen Funktionen Probleme (uB_P2: „Das was ich hier sehe, da gibt es jede Menge Punkte, wo ich nicht wüsste, was das sein soll.“). Zudem waren der Supportbereich und die Dokumentation sowie auch einige Funktionen (z. B. Hinzufügen einer Filterliste, erweitertes Kontroll-Panel) für einige Probanden nur schwer auffindbar oder entsprachen nicht ihrem mentalen Modell. Besondere Schwierigkeiten bereitete das ausschließlich in englischer oder chinesischer Sprache verfügbare Wiki. Die Probanden kritisierten auch die Inkonsistenz der Sprache, da die Browsererweiterung an sich in deutscher Sprache, das im Tool verlinkte Forum auf reddit.com oder das Wiki auf github.com hingegen nur in Englisch verfügbar sind (uB_P3: „ok, anscheinend, wenn man sich weiter informieren will, ist alles auf Englisch und dann auch noch so formuliert, dass es für Laien nicht verständlich ist.“). Einige der Probanden (uB_P2, uB_P3, uB_P5) äußerten den Wunsch nach nützlichen Hilfestellungen und Feedbackmechanismen. Den Probanden fiel es beispielsweise schwer, die zu entsperrenden Tracker zu identifizieren, so dass sie dazu neigten, das Tool vollständig zu deaktivieren.

Ghostery

Auch bei Ghostery konnten Usability-Mängel identifiziert werden. Wie bei Adblock Plus stellt die Inkonsistenz der Sprache ein Problem dar. Obwohl Ghostery die Option der Sprachauswahl anbietet, ist beispielsweise der auf einer Unterseite befindliche Hilfe-Bereich nur in englischer Sprache verfügbar. Eine auffällig hohe Anzahl an Abweichungen vom Idealpfad bei der Bearbeitung der dritten Aufgabe lässt sich zudem darauf zurückführen, dass der Großteil der Probanden die Browsererweiterung bei einer Funktionsstörung vollständig deaktiviert. Für sie stellt die vollständige Deaktivierung oft die einfachste und schnellste Möglichkeit der Behebung der Funktionsstörung dar, ohne dass sie durch das Tool über damit verbundene Risiken informiert werden (Gs_P5: „Ich konnte jetzt schnell und einfach den Tracker entblocken.“). Die Möglichkeit der individuellen bzw. kategorienbasierten Entsperrung der Tracker gestaltet sich als Herausforderung (Gs_P2: „Das finde ich jetzt aber schwierig zu bestimmen, warum das jetzt nicht funktioniert hat.“).

Privacy Badger

Bei diesem Werkzeug stechen insbesondere die hohe Fehleranzahl sowie eine schlechtere Auffindbarkeit der Dokumentation hervor. So wird ein Link zu den FAQs auf der Installationsseite vom Großteil der Probanden übersehen. Von der Einführungsseite, auf welche Nutzende direkt nach Installation des Tools weitergeleitet werden, sind der Hilfebereich und auch die Installationsseite hingegen nicht erreichbar. Ein integriertes Hilfe-Symbol suggeriert zudem eine Weiterleitung zum Hilfebereich, führt jedoch zur Einführungsseite. Des Weiteren scheint Privacy Badger nicht dem mentalen Modell und dem oftmals eher geringen Verständnis der Probanden für Tracking-Mechanismen gerecht zu werden. So versuchten beispielsweise nahezu alle Probanden entweder die vorgegebenen zu blockierenden Tracker-URLs im Browser aufzurufen und anschließend über das Tool zu blockieren oder aber die Tracker-URLs den „Deaktivierten Websites“ (Whitelist) im Tool hinzuzufügen. Fehlende Erklärungshilfen sowie Fachjargon führten zudem zu Verständnisproblemen. Im Hinblick auf die Behebung von Funktionsstörungen hatten die Probanden Schwierigkeiten, unter den verschiedenen Tracking-Domains zu unterscheiden und den jeweils zu entsperrenden Tracker zu identifizieren (PB_P2: „Die Domains, die jetzt hier blockiert werden, sagen mir nichts.“, PB_P6: „26 Domains...wäre gut zu wissen, welcher jetzt dafür verantwortlich ist.“).

Beantwortung der Forschungsfragen

Forschungsfrage 1 zielt auf die Frage, wie die Usability von Browsererweiterungen zum Schutz vor Tracking grundsätzlich einzuschätzen. Hier lässt sich ein eher nüchternes Bild konstatieren. Die Usability ist sehr divers und bewegt sich eher in einem niedrigen bis mittleren Bereich. Gerade ein Werkzeug weist eine gute Usability auf. Dennoch ist der Einsatz der Werkzeuge oft effektiv. Das beste Werkzeug, Ghostery, erreicht hier Erfolgsraten von rund 90 Prozent bei den Testaufgaben, das schlechteste, uBlock Origin, eine Quote von rund 60 Prozent. Insgesamt verdeutlichen die Ergebnisse, dass die Werkzeuge immer noch eine Vielzahl an gravierenden Usability-Problemen aufweisen und sich diese größtenteils mit denen von Leon et al. im Jahr 2012 identifizierten Mängeln decken. Kernprobleme stellen auch heute noch die mangelnde Verständlichkeit und fehlende Nutzerführung dar. Zugleich können im Vergleich zur Untersuchung von Leon et al. (2012) Verbesserungen identifiziert werden. Diese zeigen sich vor allem in Form einer kategorienbasierten Darstellung von Trackern (Ghostery) oder einem standardmäßig aktivierten Schutz vor Tracking (uBlock Origin, Ghostery, Privacy Badger).

Forschungsfrage 2 zielt auf sichtbare Optimierungsmöglichkeiten. Hier lassen sich die größten Verbesserungspotentiale in Hinblick auf die Verständlichkeit der Tools identifizieren. Insbesondere eine konsistente Sprachauswahl, ein übersichtliches und verständliches Interface ohne Fachjargon und mit eindeutigen Funktionsbenennungen, eine kompakte Dokumentation sowie Feedbackmechanismen und Erklärungshilfen könnten die Usability der Browsererweiterungen positiv beeinflussen. Diesbezüglich lässt sich der Vergleichssieger Ghostery als derzeitiges Best-Practice-Beispiel einschätzen.

Einordnung und Ausblick

In Bezug auf die Aussagekraft der Untersuchungsergebnisse muss berücksichtigt werden, dass aufgrund der insgesamt eher geringen Anzahl an Probanden und der Rekrutierung im Umfeld des Testleiters, die Belastbarkeit und Repräsentativität der Ergebnisse eher gering ist und diese somit als explorativ einzuschätzen sind.

Die Untersuchungsergebnisse basieren weiterhin auf der einmaligen Verwendung der Browsererweiterungen durch die Probanden. D. h. es wurden initiale Nutzungshürden identifiziert. Die Ergebnisse sagen wenig darüber aus, wie gut nutzbar die Systeme für diejenigen sind, die damit vertraut sind und diese routiniert und dauerhaft verwenden. Dessen ungeachtet kann argumentiert werden, dass die erstmalige Nutzung eines Systems maßgeblichen Einfluss darauf hat, ob dieses auch künftig verwendet wird. Hervorzuheben ist in diesem Zusammenhang auch, dass vier der 32 Probanden vor Durchführung der Studie bereits Erfahrungen mit einem der drei ihnen nicht zugewiesenen Tools sammeln konnten. Wie bereits angeführt, wurden diese nicht ausgeschlossen, da die Wahrscheinlichkeit für Lerneffekte, die sich auf die Erledigung der Testaufgaben auswirken, für gering erachtet wird. Bei der nachlaufenden Analyse der Daten zeigt sich, dass Nutzende, die schon andere derartige Browsererweiterungen verwendet haben, am wenigsten Zeit für die Bewältigung der ersten beiden Aufgaben benötigten. Zugleich sind diese Probanden aber bzgl. der Erfolgsraten bzw. der Fehleranzahl und den Usabilityeinschätzungen unauffällig, also hinsichtlich der Effektivität der Interaktion, nicht systematisch abweichend von den Ergebnissen anderer Teilnehmenden. Deshalb wurde auf eine nachträgliche Eliminierung verzichtet. Will man ein Verzerrungsrisiko grundlegend ausschließen, ist (etwa bei zukünftigen auf dieser Untersuchung aufbauende Studien) dennoch der Ausschluss von Probanden mit entsprechender Tool-Erfahrung in Erwägung zu ziehen.

In inhaltlicher Hinsicht bietet die Studie einen Einblick in die Usability einer Gruppe von Werkzeugen zum Schutz vor Tracking, die vergleichsweise populär sind und tatsächlich von einer breiten Nutzerschaft verwendet werden. Insofern stellen die Ergebnisse der Untersuchung zumindest potentiell einen wertvollen Beitrag zur Frage dar, wie sich Privatheit im Internet schützen lässt.

Zugleich ist der Geltungsbereich wiederum deutlich beschränkt. Denn bei den ausgewählten Browsererweiterungen handelt es sich ausschließlich um Werkzeuge für Desktop-Browser. Der Bereich des Tracking-Schutzes für mobile Endgeräte wird nicht berücksichtigt, obwohl diesem eine zunehmend wichtigere Bedeutung zukommt. Mobile Endgeräte weisen mit Apps eine weitere Quelle für mögliche Informationsverluste auf.

Der aktuelle Stand der Forschung zeigt, dass im Bereich der Effektivität von Werkzeugen zum Schutz vor Webtracking in der Vergangenheit viel Forschung betrieben wurde. Diese Bemühungen sollten aufrecht gehalten und vorangetrieben werden. Gleichzeitig wurde der Usability der Tools vergleichsweise wenig Beachtung geschenkt. Es lässt sich mutmaßen, dass sich das im aktuellen Zustand der Werkzeuge widerspiegelt. Wenngleich die Gestaltung nutzerfreundlicher Tools mit vielen Herausforderungen einhergeht, sollte sich die Forschung und Entwicklung intensiver mit den Nutzerbedürfnissen befassen und sich in Richtung einer noch besseren Umsetzung bereits erzielter Verbesserungen orientieren. Kernfaktoren stellen hier beispielsweise die Transparenz, Verständlichkeit und Automatisierung derartiger Werkzeuge dar.

Über die Autoren

Marvin Hubert

Marvin Hubert absolvierte den Masterstudiengang Internationales Informationsmanagement / Informationswissenschaft der Universität Hildesheim. Derzeit arbeitet er als Online Marketing Manager mit Schwerpunkt Suchmaschinenoptimierung und Conversion Rate Optimierung bei der web-netz GmbH in Lüneburg.

Prof. Dr. Joachim Griesbaum

Prof. Dr. Joachim Griesbaum ist Professor für Informationswissenschaft an der Universität Hildesheim. Forschungsschwerpunkte stellen die Bereiche E-Learning, Informationsverhalten und Online Marketing dar.

Prof. Dr. Christa Womser-Hacker

Prof. Dr. Christa Womser-Hacker ist Professorin für Informationswissenschaft an der Universität Hildesheim. Wissenschaftliche Arbeitsschwerpunkte stellen die Themenfelder Multilingualität und Interkulturalität in Informationssystemen, Evaluierung von Information-Retrieval-Systemen und Usability/User Experience – Mensch-Maschine-Interaktion dar.

Literatur

Adams, A. & Sasse, M. A. (1999): Users are not the enemy. Commun. ACM 42, 12, S. 40–46.10.1145/322796.322806Suche in Google Scholar

Balebako, R., Leon, P.G., Shay, R., Ur, B., Wang, Y. & Cranor, L.F. (2012): Measuring the Effectiveness of Privacy Tools for Limiting Behavioral Advertising. In: Proceedings of the Web 2.0 Workshop on Security and Privacy. S. 1–10.Suche in Google Scholar

Budiu, R. (2017): Quantitative vs. Qualitative Usability Testing. https://www.nngroup.com/articles/quant-vs-qual/ [16.1.2020].Suche in Google Scholar

Computing Research Association (2003): Four Grand Challenges in Trustworthy Computing: Second in a Series of Conferences on Grand Research Challenges in Computer Science and Engineering. http://archive.cra.org/reports/trustworthy.computing.pdf [16.1.2020].Suche in Google Scholar

Cranor, L. F., Guduru, P. & Arjula, M. (2006): User interfaces for privacy agents. ACM Trans. Comput.-Hum. Interact, 13 (2), S. 135–178.10.1145/1165734.1165735Suche in Google Scholar

European Union Agency for Network and Information Security (ENISA) (2015): Online privacy tools for the General Public. Towards a methodology for the evaluation of PETs for internet & mobile users.https://www.enisa.europa.eu/publications/privacy-tools-for-the-general-public [16.1.2020].Suche in Google Scholar

European Union Agency for Network and Information Security (ENISA) (2016): PETs control matrix. A systematic approach for assessing online and mobile privacy tools.https://www.enisa.europa.eu/publications/pets-controls-matrix/pets-controls-matrix-a-systematic-approach-for-assessing-online-and-mobile-privacy-tools [16.1.2020].Suche in Google Scholar

Faulkner, L. (2003): Beyond the five-user assumption. Benefits of increased sample sizes in usability testing. Behavior Research Methods, Instruments, & Computers, 35 (3), S. 379–383.Suche in Google Scholar

Garimella, K., Kostakis, O. & Mathioudakis, M. (2017): Ad-blocking: A Study on Performance, Privacy and Counter-measures. In: Proceedings of the 2017 ACM on Web Science Conference (WebSci ’17). New York: ACM, S. 259–262.10.1145/3091478.3091514Suche in Google Scholar

Google LLC (2018): chrome web store. https://chrome.google.com/webstore/category/extensions [16.1.2020].Suche in Google Scholar

Karat, C.-M., Brodie, C. & Karat, J. (2005): Usability Design and Evaluation for Privacy and Security Solutions. In: Cranor, L.F. & Garfinkel, S. (Eds.): Security and Usability. Designing Secure Systems that People can use. Sebastopol: O’Reilly. S. 47–74.Suche in Google Scholar

Leon, P.G., Ur, B., Shay, R., Wang, Y., Balebako, R. & Cranor, L. F. (2012): Why Johnny can't opt out: a usability evaluation of tools to limit online behavioral advertising. In: Proceedings of the SIGCHI Conference on Human Factors in Computing Systems (CHI '12). New York: ACM, S. 589–598.10.1145/2207676.2207759Suche in Google Scholar

Merzdovnik, G., Huber, M., Buhov, D., Nikiforakis, N., Neuner, S., Schmiedecker, M., Weippl, E. (2017): Block Me If You Can: A Large-Scale Study of Tracker-Blocking Tools. In: 2017 IEEE European Symposium on Security and Privacy, S. 319–333.10.1109/EuroSP.2017.26Suche in Google Scholar

Mozilla Foundation (2018): Firefox Add-ons. https://addons.mozilla.org/de/firefox/ [16.1.2020]Suche in Google Scholar

Norman, D. (2013): The Design of Everyday Things: Revised and Expanded Edition. 2. Aufl. New York: Basic Books.Suche in Google Scholar

Rauterberg, M., Sinas, P., Strohm, O., Ulrich, E. & Waeber, D. (1994): Benutzerorientierte Software-Entwicklung. Konzepte, Methoden und Vorgehen zur Benutzerbeteiligung. Stuttgart: Teubner.Suche in Google Scholar

Ruoti, S., Andersen, J., Zappala, D. & Seamons, K. (2015): Why Johnny Still, Still Can't Encrypt: Evaluating the Usability of a Modern PGP Client. CoRR. S. 1–5.Suche in Google Scholar

Saltzer, J.H. & Schroeder, M.D. (1975): The Protection of Information in Computer Systems. In: Proceedings of the IEEE, 63 (9), S. 1278–1308.10.1109/PROC.1975.9939Suche in Google Scholar

Sarodnick, F. & Brau, H. (2011): Methoden der Usability Evaluation: Wissenschaftliche Grundlagen und praktische Anwendung. 2. Aufl. Bern: Huber.Suche in Google Scholar

SAP User Experience Community (2015): System Usability Scale – jetzt auch auf Deutsch. https://experience.sap.com/skillup/system-usability-scale-jetzt-auch-auf-deutsch/ [16.1.2020].Suche in Google Scholar

Sasse, M. A. & Smith, M. (2016): The Security-Usability Tradeoff Myth. IEEE Security and Privacy Magazine, 14 (5), S. 11–13.10.1109/MSP.2016.102Suche in Google Scholar

Sasse, M. A., Smith, M., Herley, C., Lipford, H. & Vaniea, K. (2016): De-bunking security-usability tradeoff myths. IEEE Security and Privacy Magazine, 14 (5), S. 33–39.10.1109/MSP.2016.110Suche in Google Scholar

Sauro, J. & Lewis, J.R. (2016): Quantifying The User Experience. Practical Statistics for User Research. 2. Aufl. San Francisco: Morgan Kaufmann.10.1016/B978-0-12-802308-2.00002-3Suche in Google Scholar

Schaub, F., Marella, A., Kalvani, P., Ur, B., Pan, C., Forney, E., Cranor, L. F. (2016): Watching Them Watching Me: Browser Extensions‘ Impact on User Privacy Awareness and Concern. In: NDSS Workshop on Usable Security. S. 1–10.10.14722/usec.2016.23017Suche in Google Scholar

Stiftung Warentest (2017): Tracking: Wie unser Surf­verhalten über­wacht wird – und was dagegen hilft. test, 09/2017, S. 38–44.Suche in Google Scholar

Traverso, S., Trevisan, M., Giannantoni, L., Mellia, M. & Metwalley, H. (2017): Benchmark and comparison of tracker-blockers: Should you trust them? 2017 Network Traffic Measurement and Analysis Conference (TMA), Dublin, 2017, S. 1–9.Suche in Google Scholar

Whitten, A. & Tygar, J.D. (1999): Why Johnny can't encrypt: a usability evaluation of PGP 5.0. In: Proceedings of the 8th USENIX Security Symposium, 8 (14), S. 169–184.Suche in Google Scholar

Yu, Z., Macbeth, S., Modi, K. & Pujol, J.M. (2016): Tracking the Trackers. In: Proceedings of the 25th International Conference on World Wide Web (WWW ’16). International World Wide Web Conferences Steering Committee, Republic and Canton of Geneva, Switzerland, S. 121–132.10.1145/2872427.2883028Suche in Google Scholar


Zusatzmaterial

Die Onlineversion dieses Artikels bietet Zusatzmaterial (https://doi.org/10.1515/iwp-2020-2075).


Online erschienen: 2020-04-07
Erschienen im Druck: 2020-04-01

© 2020 Walter de Gruyter GmbH, Berlin/Boston

Heruntergeladen am 21.9.2025 von https://www.degruyterbrill.com/document/doi/10.1515/iwp-2020-2075/html
Button zum nach oben scrollen