Startseite #ichteilewissen – Die Crowdsourcing-Initiative der Österreichischen Nationalbibliothek
Artikel Öffentlich zugänglich

#ichteilewissen – Die Crowdsourcing-Initiative der Österreichischen Nationalbibliothek

  • Paul Sommersguter

    Österreichische Nationalbibliothek, Abteilung für Forschung und Entwicklung, Josefsplatz 1, A-1015 Wien, Österreich

    EMAIL logo
    und Stefan Frühwirth

    Österreichische Nationalbibliothek, Abteilung für Forschung und Entwicklung, Josefsplatz 1, A-1015 Wien, Österreich

Veröffentlicht/Copyright: 9. April 2020

Zusammenfassung

Crowdsourcing an Bibliotheken hat sich zu einem vielversprechenden Konzept entwickelt – das zeigen erfolgreiche internationale Projekte. Auch an der Österreichischen Nationalbibliothek wird seit einigen Jahren intensiv an einer Crowdsourcing-Initiative gearbeitet, die seit Oktober 2018 in Form eines Crowdsourcing-Portals mit eigenen Aufgaben online verfügbar ist. Dabei steht das Erlebnis für Benutzer im Vordergrund: Interessante Bestände sollen in Verbindung mit intuitiven Aufgaben dazu aufmuntern, eigenes Wissen beizutragen. Der Beitrag erläutert, welche Faktoren dabei zu berücksichtigen sind, und welche Entscheidungen getroffen wurden, um diese Vision umzusetzen.

Abstract

Crowdsourcing as a method of involving the general public has made its way into libraries – as multiple initiatives around the world have demonstrated. In October 2018, after a period of intensive research and development, the Austrian National Library introduced a publicly accessible crowdsourcing portal. It features a modern, engaging user interface and invites everybody to contribute knowledge. With this newly acquired metadata, library content will be considerably easier to find. The article illustrates the background of the project and further discusses aspects that need to be considered to set up, design, and implement a crowdsourcing initiative.

1 Einleitung und Allgemeines zu Crowdsourcing

1.1 Hintergrund

Crowdsourcing ist ein an zahlreichen Öffentlichen und Wissenschaftlichen Bibliotheken etabliertes, erfolgreiches Konzept. Die Anzahl und Vielfalt der Projekte ist dabei weiter ansteigend.[1] Auch für die Österreichische Nationalbibliothek hat, nach 18-monatiger Planungs-, Konzeptions-, Design- und Entwicklungsarbeit mit der ersten Crowdsourcing-Kampagne „Österreich aus der Luft“ ein neues Zeitalter der Nutzer-Partizipation begonnen. Die Crowdsourcing-Initiative, die große Brücke über den einzelnen Kampagnen, trägt den Namen #ichteilewissen. Ihr Herzstück, das Crowdsourcing-Portal, in dem sämtliche Crowdsourcing-Aktivitäten der Österreichischen Nationalbibliothek gebündelt sind, steht der interessierten Öffentlichkeit seit Oktober 2018 via crowdsourcing.onb.ac.at[2] offen. Dieser Artikel soll den Kontext der Initiative und die Vorgehensweise des Projektteams besprechen sowie Konzeption, Design, Aufbau und Funktionalität des Portals als Best-Practice-Beispiel präsentieren.

1.2 Crowdsourcing Grundlagen

Der Begriff „Crowdsourcing“,[3] eine Wortkombination aus crowd (englisch für Menschenmenge) und outsourcing (englisch für auslagern), geht auf den amerikanischen Autor Jeff Howe zurück, der diesen Begriff 2006 in einem Wired-Magazine-Artikel geprägt hat. Für seine Wortkreation differenziert Howe dabei weiter zwischen zwei Definitionen für Crowdsourcing,[4] einer – wie er sie nennt –„White Paper Version“ und einer „Soundbyte [sic!] Version“. Erstere besagt:

„Crowdsourcing is the act of taking a job traditionally performed by a designated agent (usually an employee) and outsourcing it to an undefined, generally large group of people in the form of an open call.“

Die Soundbyte-Version bezeichnet: „The application of Open Source principles to fields outside of software.“

In diesem Zusammenhang sei zudem Mia Ridges Diskussion[5] erwähnt, die besagt, dass Crowdsourcing, wie von Howes Soundbyte-Version ausgewiesen, gerade an Kulturerbe-Institutionen eher kollaborativen und weniger kompetitiven Modellen folgt, da die Mitarbeit dem Wohl der Allgemeinheit nützt.

Crowdsourcing kann nicht ohne zwei wesentliche Gruppen stattfinden – man unterscheidet in Crowdsourcing-Projekten daher weiter zwischen Auftraggeber und Auftragnehmer:[6]

„In einem Crowdsourcing-Modell gibt es immer die Rolle des Auftraggebers – der als Crowdsourcer bezeichnet wird – sowie die Rolle der undefinierten Auftragnehmer, also die Crowd oder in Analogie zum erstgenannten Begriff die Crowdsourcees beziehungsweise Crowdworker. Die Durchführung von Crowdsourcing-Initiativen erfolgt indessen über eine Crowdsourcing-Plattform, die intern aufgesetzt werden kann oder von einem Crowdsourcing-Intermediär bereitgestellt wird.“

Obiges Zitat verdeutlicht, dass Crowdsourcing-Initiativen (oft) in einem konkreten Medium stattfinden, auf einer Infrastruktur fußen, über die die Arbeit verteilt, durchgeführt, qualitätsgeprüft und präsentiert wird. Im Falle der Österreichischen Nationalbibliothek ist dieses Medium ein Webportal.

Eine ausführliche Diskussion der Literatur zu Chancen und Risiken von Crowdsourcing in Bibliotheken findet sich in der Arbeit[7] von Michaela Mayr.

1.3 Die Crowd

Der Begriff „Crowd“ an sich ist ein unscharfes Konzept, das in der Literatur, nach Mia Ridge, durchaus nicht einheitlich verwendet wird.[8] Die Autorin beschreibt, dass viele Projekte alternative Begriffe verwenden, um eine partizipative Initiative der jeweiligen Institution zu beschreiben. Hier finden sich beispielsweise Begriffe wie „community-sourcing“, „targeted crowdsourcing“ und „micro-volunteering“: „perhaps also reflecting discomfort with the broadness, anonymity or vagueness of ‘the crowd’.“

Auftragnehmer, die Crowd, in Crowdsourcing-Projekten lassen sich nach Hosseini et. al[9] mittels fünf Hauptcharakteristika und jeweils untergeordneten Kategorien beschreiben: Diversität (in Bezug auf geografische Verteilung, Geschlecht, Alter und Expertise), Anonymität (in Bezug zum Auftraggeber oder in Bezug zu anderen Individuen in der Crowd), Größe, Beliebigkeit und Eignung (Kompetenz eine Aufgabe zu erfüllen, Kollaboration, Freiwilligkeit gewisse Fähigkeiten einzubringen sowie Motivation).

1.4 Crowdsourcing an Bibliotheken

Der Rahmen für Crowdsourcing-Initiativen in Bibliotheken wird durch zwei zentrale Aspekte[10] gebildet:

„Einerseits die Verfügbarkeit des digitalen Materials, das meist im Rahmen umfangreicher Digitalisierungsprojekten [sic!] entstanden ist. Andererseits hat der Wandel der Webkultur bewirkt, dass LeserInnen zunehmend Interaktion und Partizipation von Bibliotheken erwarten.“

Zahlreiche namhafte Institutionen im GLAM[11]-Sektor haben bereits erfolgreiche Referenzprojekte umgesetzt und damit den Nutzen von Crowdsourcing-Initiativen im Kulturerbesektor demonstriert. Das zeigen, unter anderem, folgende prominente internationale Beispiele: Flickr Pilot Project[12] (Library of Congress), Transcribe Bentham[13] (University College London), What’s on the Menu[14] (New York Public Library), Danmark set fra luften[15] (Royal Danish Library), Smapshot[16] (ETH Zürich) oder Libcrowds[17] (British Library). In Österreich wird Crowdsourcing in der Erschließung von Verlustlisten Österreich-Ungarns[18] an der Oberösterreichischen Landesbibliothek eingesetzt.

1.5 Klassifizierung von Projekten

Die Heterogenität solcher Crowdsourcing-Projekte lässt eine generelle, allgemeine Antwort auf die Frage nach der besten Art, Elemente von Crowdsourcing-Plattformen zu gestalten, nicht zu. Sehr wohl lassen sich aber gewisse Kriterien und Mechaniken einzelner Plattformen herausgreifen, diskutieren und mitunter auch vergleichen, so beispielsweise in der Arbeit von Mayr.[19]

Das Einbinden von Benutzern in Prozesse, die vormals exklusiv an Bibliotheken stattgefunden haben, stellt Institutionen vor neue Herausforderungen. Nach Oomen und Aroyo[20] ist die Klassifizierung verschiedener Crowdsourcing-Typen ein zentrales Element dafür. Es lassen sich folgende Typen für Crowdsourcing-Initiativen im GLAM-Sektor listen:

  1. Correction and Transcription Tasks: Damit fassen die Autoren Korrekturen oder Transkriptionen zusammen, die nach der Erstellung eines Digitalisats stattfinden. Beispiele dafür lassen sich laut den Autoren an der Australischen Nationalbibliothek[21] (OCR-Verbesserung durch die Crowd) oder am University College London[22] (Projekt Transcribe Bentham, einer Transkription der Manuskripte von Jeremy Bentham) finden.

  2. Contextualisation: Hier handelt es sich um Crowdsourcing-Aktivitäten mit dem Ziel, die Objekte in Kontext zu setzen, z. B. mittels Storytelling oder durch die Erstellung von Wikis.

  3. Complementing Collection: Hier handelt es sich um Aktivitäten, die dazu führen können, Lücken in Sammlungen zu schließen, also um das Beitragen neuer Objekte zu Bestehendem.

  4. Classification: Diese Aktivitäten bezeichnen das Sammeln von deskriptiven Metadaten. Beispiele dafür sind mannigfaltig zu finden: Eines der laut Autoren wohl bekanntesten Crowdsourcing-Projekte im GLAM-Sektor ist die Sammlung beigetragener Fotos der Library of Congress[23] für Flickr.[24]

  5. Co-curation: Diese Aktivitäten subsumieren die Erbringung von Ideen oder Expertise von nicht-professionellen Kuratoren zur Durchführung von (Web-)Ausstellungen.

  6. Crowdfunding: Diese Aktivitäten bezeichnen die Kooperation von Personen, die Geld oder andere Ressourcen erbringen um von Anderen initiierte Unternehmungen zu unterstützen.

Diverse Klassifizierungsmodelle unterschiedlicher Crowdsourcing-Projekte können am Beginn eines eigenen Crowdsourcing-Projektes wichtige Hilfestellung und Orientierungshilfe sein, anhand derer ein Projekt in der Fülle an Best-Practice-Beispielen verortet werden kann.

2 Praxis an der Österreichischen Nationalbibliothek

Die Crowdsourcing-Initiative ist in der Vision 2025[25] der Österreichischen Nationalbibliothek mit folgendem Versprechen verankert:

„Wir werden Crowdsourcing-Projekte initiieren und mit BenutzerInnen zusammenarbeiten, um unsere Informationen und digitalen Inhalte zugänglicher, exakter und interessanter zu machen.“

Der Prozess, Crowdsourcing an der Institution zu etablieren, führte zu einem bestimmten Verständnis, einem charakteristischen Profil, das zunächst vorgestellt und erläutert werden soll.

2.1 Zentrale Begriffe

An der Österreichischen Nationalbibliothek ist mit dem Begriff „Crowdsourcing“ die Einbindung der allgemeinen Öffentlichkeit in die Erschließung von Beständen gemeint — und dies im Sinne einer gemeinsamen und nachhaltig wertvollen Aufgabe, von der sowohl die Benutzer als auch die Institution gleichermaßen profitieren. Durch die Crowd zu erschließende Artefakte sind derzeit Bilder aus der hauseigenen Sammlung Bildarchiv und Grafiksammlung. Auch an der Österreichischen Nationalbibliothek ist der Begriff Crowd vage definiert: Bewusst eingeladen ist jeder, der daran interessiert ist, sein Wissen zu teilen, mit einer Institution, die diese Beiträge wertschätzt.

Damit die Kommunikation innerhalb und außerhalb der Institution möglichst präzise und effizient ablaufen kann, hat das Projektteam folgende Begriffe etabliert, die ähnliche, aber doch klar getrennte Bereiche des Strategieprojekts Crowdsourcing bezeichnen:

  1. Initiative: Sie bezeichnet alle digitalen Crowdsourcing-Aktivitäten der Österreichischen Nationalbibliothek, die derzeit vorrangig über das Crowdsourcing-Portal ablaufen, aber auch an der Bibliothek stattfindende Veranstaltungen zum Thema Crowdsourcing.

  2. Portal: Dieses bündelt die Crowdsourcing-Aktivitäten auf einem frei zugänglichen Webportal, das gänzlich in-house konzipiert, gestaltet, entwickelt und betreut wird.

  3. Kampagne: thematisch zusammenhängendes (Bild-)material, das für die beschreibende Bearbeitung durch die Crowd online freigegeben wurde. Für jede Crowdsourcing-Kampagne ist es wichtig, ein Narrativ zu haben: So muss für jede ein griffiger Titel und eine schlüssige Hintergrundgeschichte erzählt werden können.

2.2 Zusammensetzung des Projektteams

Im Strategieprojekt Crowdsourcing wurde ein Vollzeitäquivalent für die Entwicklung der Crowdsourcing-Software sowie ein halbes Vollzeitäquivalent für das Projektmanagement und die Konzeption der Initiative vorgesehen. In der Praxis hat sich gezeigt, dass diese klare Aufgabentrennung bei Bedarf immer wieder aufgeweicht werden kann — so zum Beispiel bei der inhaltlichen Grundausrichtung, der Informationsarchitektur, der inhaltlichen Konzeption und der Positionierung des Projekts in der digitalen Landschaft der Österreichischen Nationalbibliothek. Die agile Vorgehensweise im Projekt begünstigt diese themenzentrierte Zusammenarbeit. Außerdem haben im Projektteam Crowdsourcing inhaltliche, gestalterische und technische Fragen immer Einfluss auf die jeweils anderen Bereiche. Die Planung der nächsten Schritte erfolgt stets in Zusammenarbeit des gesamten Teams.

2.3 Ziele der Initiative und strategische Ausrichtung

Die Crowdsourcing-Initiative der Österreichischen Nationalbibliothek verfolgt diese Ziele:

  1. Sammeln und sichern von möglichst standardkonformen und qualitätsgesicherten Metadaten zu Beständen, die zuvor nur basal beschrieben sind

  2. Gemeinsames Erschließen bis dato unveröffentlichter Bestände im Sinne einer Aufgabe, die Benutzern Freude bereitet

  3. Präsentation unveröffentlichter Bestände auf einer modernen, zeitgemäßen Plattform

  4. Fördern der Durchsuchbarkeit und Filterbarkeit von Beständen

  5. Wahrung der Nachvollziehbarkeit der Beiträge von Benutzern

  6. Aufbau einer Crowdsourcing-Community

  7. Aufbau von Know-how zu Crowdsourcing und verwandten Themenfeldern innerhalb der Institution

Die strategische Ausrichtung stützt sich dabei auf folgende Punkte:

  1. Entwicklung mittels offener Standards

  2. Wahrung der Nachnutzbarkeit von durch Crowdsourcing gesammelten Daten

  3. Schaffen von wiederverwendbaren Tools und Abläufen für das Ausrollen und Auswerten von Crowdsourcing-Kampagnen, u. a. durch einen modularen Aufbau der Crowdsourcing-Plattform

  4. Wann immer möglich sollen gesammelte Metadaten kontrollierten Normdatensätzen entspringen

  5. Möglichkeit, die Plattform zu erweitern

  6. Privacy und DSGVO[26]-Compliance

3 Konzept, User Experience Design, Umsetzung

3.1 Das Benutzererlebnis

Auf die Wichtigkeit von gestalteten Benutzererlebnissen, das User Experience Design, muss auch an dieser Stelle hingewiesen werden, denn digitale Produkte und Services brauchen, damit sie von Benutzern als sinnstiftend wahrgenommen werden können, in vielerlei Hinsicht gestaltete Prozesse, u. a. explizit: die Informationsarchitektur, die visuelle Designsprache des Produkts, die Interaktionsgestaltung, die Animationssprache, die Benutzerführung, Leitlinien zur sprachlichen Tonalität für die Kommunikation mit den Benutzern via Plattform, sowie Überlegungen zur Positionierung eines Produkts in der digitalen Landschaft einer Organisation, was auch Branding-Fragen mit einschließt.

Donald Norman[27] hält dazu fest:

„The major cause of complicated, confusing, frustrating systems is not complexity: It is poor design.“

3.2 User Motivation

Crowdsourcing kann nur durch rege Teilnahme der Crowd funktionieren. Es ist daher sinnvoll, sich mit Motivationsanreizen auseinanderzusetzen. Eine relevante Gliederung findet sich in einem Paper der Autoren Quinn und Bederson,[28] die folgende Motivationsfaktoren für Human Computation (einem mit Crowdsourcing stark verwandtem Feld) nennen und diskutieren:

  1. Bezahlung: ein starker Anreiz, um Freiwillige zu gewinnen. Hier existieren unterschiedliche Formen der Kompensation, wie Geld, Gutscheine, oder auch virtuelle Währungen. Mayr[29] ergänzt, dass sich die niedrigeren intrinsischen Motivationsfaktoren negativ auf die Qualität der geleisteten Arbeit niederschlagen können.

  2. Altruismus: ist ein Motivationsfaktor, Zeit und Anstrengungen zu investieren, wenn die Teilnehmer an der Lösung eines Problems mitarbeiten[30] wollen und die Wichtigkeit der Arbeit erkennen. Die Teilnehmer, die auf diesen Anreiz reagieren, möchten vorrangig etwas Sinnvolles tun.

  3. Vergnügen: wenn die Benutzung des Angebots Freude bereitet. Die zu lösende Aufgabe ist laut den Autoren oftmals als Spiel umgesetzt.

  4. Reputation: öffentliche Anerkennung ist ein Faktor, wenn die crowdsourcende Institution selbst als prestigeträchtig gilt.

  5. Implizite Arbeit: dieser Anreiz liegt dann vor, wenn die Arbeit, die einem gewissen Ziel dient, sowieso im Rahmen einer anderen Arbeit erbracht wird. Die Autoren nennen als Beispiel ReCAPTCHA,[31] dessen Lösung zur OCR-Verbesserung eingesetzt wird.

Nach Michaela Mayr[32] gibt es weitere Motivationsmodelle – Ziel für den Erfolg einer Plattform ist es, dass möglichst viele unterschiedliche Faktoren abgedeckt werden und infolgedessen verschiedene Gründe für eine Teilnahme gegeben sind.

3.3 Agile Konzeption und Entwicklung

Für die Durchführung des Crowdsourcing-Strategieprojekts der Österreichischen Nationalbibliothek schien dem Projektteam eine agile Vorgehensweise adäquat. Im agilen Setting besteht der zentrale Vorteil im Vergleich zum klassischen Wasserfallmodell darin, dass auf veränderbare Rahmenbedingungen innerhalb kürzerer Zeitabstände reagiert werden kann – und die Ausgestaltung des fertigen Produkts besser exploriert werden kann. Die Software seitigen Anforderungen der Crowdsourcing-Plattform liegen in einer für das Projektteam bearbeitbarer Form vor („User Stories“), die im Rahmen eines zweiwöchentlich stattfindenden Planungsmeetings („Sprint Planning“) priorisiert und konkreten Projektmitarbeitern zugeteilt werden. User Stories werden einheitlich formuliert und sollten die Motivation für deren Realisierung widerspiegeln.

3.4 Konzeption

Das Projektteam hat für die initiale Konzeptionsarbeit den unscharfen Userbegriff mittels folgender fünf Personas[33] (inkl. Zusammenfassung ihrer jeweils zugeschriebenen Eigenschaften) angenähert.

Lena, 13, Schülerin:

  1. Digital Native, Teilnehmerin in einer Tabletklasse, lernt gerne kollaborativ, kurze Aufmerksamkeitsspanne, Gamification steht im Vordergrund

  2. Agiert in den User Roles: Contributor, Transcriber, Influencer

Elisa, 29, Wissenschaftlerin und Aktivistin:

  1. Aktiv bei Initiativen, die sie überzeugen, versiert in der Programmierung, hoher Energielevel, gesellig, kommunikativ, hilfsbereit, neugierig

  2. Agiert in den User Roles: Viewer, Contributor, Aggregator, Quality Assurer

Alexandra, 41, Journalistin:

  1. Sucht Stories, kritisch, Meinungsmacherin, starke Vernetzung auf Social Media, stellt Zusammenhänge zwischen Einzelereignissen versiert her, kreativ, begeisterungsfähig, hoher Anspruch, wenig Zeit (hat Familie und Karriere erfolgreich vereint)

  2. Agiert in den User Roles: Influencer, Viewer, Aggregator

Wolfgang, 54, Bibliothekar:

  1. Traditionell gesinnt, kritisch, geradlinig, ehrlich, freut sich über Interesse an seiner Arbeit, kennt die Bibliothek und ihre Kernaufgaben, großes Fachwissen, sporadischer PC-User

  2. Agiert in den User Roles: Viewer, Quality Assurer

Helmut, 72, interessierter Pensionist:

  1. Hoher Identifikationslevel mit seiner Heimatregion, andere Anforderungen an Lesbarkeit, braucht genaue Auskünfte, repetitive Tätigkeiten stören ihn nicht

  2. Agiert in den User Roles: Transcriber, Contributor, Viewer

Obige Personas können aufgrund ihrer Historie, ihres Fachwissens, ihrer technischen Versiertheit und persönlichen Eigenschaften in eine oder mehrere bereits angesprochene User Roles schlüpfen. Das Projektteam versteht darunter unterschiedliche Zugänge und Modelle für gewisse Tätigkeiten, die zum Beispiel aufgrund aktueller Gemütslage variabel sind. Das Projektteam hat folgende User Roles identifiziert:

  1. Transcriber (transkribieren)

  2. Contributor (verorten, ordnen zeitlich ein, kategorisieren, identifizieren, tragen Narrative bei)

  3. Aggregator (sammeln, setzen in Kontext, verlinken, kollaborieren)

  4. Quality Assurer (kommentieren, diskutieren, evaluieren, verbessern, moderieren)

  5. Influencer (teilen und verbreiten, bewerben)

  6. Viewer (sehen an, stöbern mittels facettierter Suche, suchen gezielt)

Der nächste Schritt ist, diese unterschiedlichen Rollen mit speziellen Use Cases zu bedienen. Zum Beispiel hilft es in der Rolle der „Viewer“, wenn keine Registrierung durchgeführt werden muss, wenn es das Ziel des Benutzers ist, Bilder nur zu betrachten.

3.5 Designentscheidungen

Bis zum Ziel einer lauffähigen und öffentlich zugänglichen digitalen Plattform ist eine Fülle an Designentscheidungen zu treffen. Dabei kann man nicht von einem singulären Ereignis, sondern eher von einer Summe an Designentscheidungen sprechen, die über den Zeitrahmen der Produktentwicklung von Beginn der Konzeptionsphase bis zum Launch und darüber hinaus getroffen werden. Diese Summe an Designentscheidungen hat enorme Auswirkungen auf das zu gestaltende Produkt und somit auf das Benutzererlebnis und wird daher anhand von gewissen Leitlinien getroffen.

Die im Crowdsourcing-Projektteam zu Beginn der Konzeptionsarbeit festgelegten Designprinzipien lassen sich wie folgt zusammenfassen:

  1. Komplexität verbergen: bezeichnet das Bestreben, Komplexität im Benutzerinterface nach Möglichkeit zu reduzieren, damit Benutzer möglichst einfach ans Ziel gelangen.

  2. Transparenz leben: bezeichnet das Ziel, Ergebnisse offen zu teilen, Transparenz gegenüber den Benutzern zu leben. Das manifestiert sich u. a. in der Anzeige von Fortschrittsbalken.

  3. Don’t make me think: Einem Prinzip des Usability Experten Steve Krug[34] folgend, der „Don’t make me think“ zu seinem Leitsatz auserkoren hat, ist es unerlässlich, den kognitiven Overhead für die Benutzung eines digitalen Service möglichst gering zu halten:

„Die Nutzung einer Site, die uns nicht zum Nachdenken über Unwichtiges zwingt, fühlt sich mühelos an, wogegen das Kopfzerbrechen über Dinge, die uns nichts bedeuten, Energie und Enthusiasmus raubt – und Zeit.“

  1. Auf der Plattform soll beispielsweise der nächste Schritt im Prozess (Bestätigen, nächstes Bild, usw.) immer ohne Aufwand erkennbar und nachvollziehbar sein. Einen ähnlichen Gedanken verfolgt auch Donald Norman mit dem Prinzip „Understand, Don’t Memorize“,[34] einer Strategie, um mit Komplexität in digitalen Systemen umzugehen.

  2. Tonalität: Für die Kommunikation mit den Benutzern auf der Plattform steht eine klare, freundliche, wertschätzende Sprache im Vordergrund.

  3. Bestände in Szene setzen: Die gezeigten Bilder sollen im Zentrum der Plattform stehen. Dafür ist es notwendig, eine zufriedenstellende Logik für die Platzierung von UI-Elementen zu finden, sodass Bestände ablenkungsfrei angesehen werden können. Das Projektteam hat sich aufgrund dieser Leitlinie beispielsweise dazu entschieden, störende Buttons des Image-Viewers auszublenden.

  4. Visual Identity und Branding: Crowdsourcing, als langfristige Initiative gedacht, schließt auch „Fragen des ‚Brandings‘“ mit ein. Gerade bei mehreren Kampagnen, die thematisch voneinander unabhängig sind, braucht es eine gemeinsame visuelle Leitlinie, an der sich die einzelnen Kampagnen orientieren. Daher hat sich das Projektteam entschieden, eine eigene Designsprache für die Crowdsourcing-Initiative aufzubauen. Das Herzstück bildet dabei das Crowdsourcing-Logo, das an das offizielle Logo der Österreichischen Nationalbibliothek angelehnt ist. Die Institution, die hinter der Initiative steht, bleibt so erkennbar, trotzdem rückt, dem Crowdsourcing-Gedanken entsprechend, die allgemeine Öffentlichkeit in den Vordergrund. Es soll Sinnbild für partizipative Initiativen sein, die im besten Fall zu einer Öffnung der Institution führen.

  5. Konsistenz sicherstellen: In einer Kampagne erlernte Interaktionsmechanismen sollten von Benutzern auch weitgehend in anderen Kampagnen angewendet werden können.

Dieser Entscheidungsrahmen hilft, die Auswirkungen von Entscheidungen an das zu erwartende Benutzererlebnis anzunähern.

3.6 Ablauf einer Crowdsourcing-Kampagne

Unter der Voraussetzung, dass das Crowdsourcing-Portal und die Kampagnenlogik bereits in weiten Teilen konzipiert, gestaltet und implementiert wurden, lässt sich folgender wiederkehrender und stark vereinfachter generischer Ablauf von Crowdsourcing-Kampagnen an der Österreichischen Nationalbibliothek ableiten (einzelne Phasen können dabei durchaus ineinandergreifen und laufen nicht strikt sequentiell ab):

  1. Das Projektteam analysiert, gemeinsam mit zugezogenen Experten aus den Sammlungen und Serviceabteilungen der Österreichischen Nationalbibliothek, die Eignung von Beständen für ein Crowdsourcing-Projekt und definiert die Ziele für die Crowdsourcing-Kampagne.

  2. Das Bildmaterial wird gegebenenfalls digitalisiert und in für das Projektteam weiter nutzbarer Form digital abgelegt (sofern es nicht bereits digital vorliegt).

  3. Das Projektteam passt die bereits entwickelten Aufgaben an das gewählte Material an (dafür ist Konzeptions-, Design-, Entwicklungs- und Testarbeit notwendig) oder erstellt – mit höherem Aufwand – neue Aufgaben. Jetzt lässt sich auch ein grober Zeithorizont für den Kampagnenstart festlegen.

  4. Begleitende Features, die die Aufgaben an anderen Stellen des Portals bedingen oder von ihnen beeinflusst werden, müssen angepasst oder neu implementiert werden.

  5. Interne Tests finden im Zuge des agilen Softwareentwicklungszyklus statt.

  6. Die Launch-Phase besteht primär aus der Vorbereitung der Kommunikationsmaßnahmen und schließt mit dem Launch der Kampagne ab. Um den Zeitpunkt des Launches ist, entsprechende Kommunikationsmaßnahmen vorausgesetzt, mit erhöhter Aufmerksamkeit bezüglich des Crowdsourcing-Portals zu rechnen – die technische Infrastruktur muss dafür ausgelegt sein bzw. bei Bedarf verstärkt werden können.

  7. Nun kann die eigentliche Arbeit, die von der Crowd eingebracht wird, beginnen. Dabei wird die Plattform stetig weiterentwickelt und die Software gewartet. Kleinere Anpassungen lassen sich auch im laufenden Betrieb vornehmen, ohne dass Benutzer etwas davon merken. Dabei müssen auch Tasks nicht gleichzeitig freigeschalten werden.

  8. Community Engagement seitens des Projektteams sollte begleitend zur Kampagne stattfinden. Das kann zum Beispiel in Form von Zwischenergebnissen auf einem die Kampagne begleitenden Blog stattfinden.

  9. Der Abschluss der Kampagne muss an die Crowd kommuniziert werden. Die Präsentation der Ergebnisse, Prämierung der Crowd, das Sammeln von Erfahrungswerten und deren Diskussion bilden den offiziellen Abschluss.

  10. Die Nachnutzbarkeit der gesammelten Beiträge kann in vielerlei Form sichergestellt werden: z. B. durch den weiterhin zur Verfügung gestellten Zugang zu Bildmaterial, da das Crowdsourcing-Portal auch die Präsentation von Beständen leistet.

3.7 Wahl des zu bearbeitenden Materials

Langfristig ist zwar denkbar, verschiedene Medientypen mit Crowdsourcing-Aufgaben zu verbinden und so mit Wissen anzureichern. Derzeit wird in der Crowdsourcing-Initiative der Österreichischen Nationalbibliothek jedoch ausschließlich Bildmaterial zugänglich gemacht.

Ob sich Bildmaterial überhaupt für eine Crowdsourcing-Kampagne eignet, ist von einigen Faktoren abhängig. Zentral ist dabei, ob sich eine generelle Erzählung zum Material finden und kommunizieren lässt. Das Projektteam stellt – sich selbst – dafür wiederkehrende Fragen. Diese dienen auch dazu, sich ein generelles Bild über einen infrage kommenden Bestand zu verschaffen, auf Grundlage dessen sich dann weitere Entscheidungen treffen lassen.

Aus Sicht des Crowdsourcing-Projetteams lassen sich für den Bibliotheksbereich folgende Fragen formulieren:

  1. Rechtliche Situation: Dieser Aspekt ist initial zu beleuchten. Darf der Bestand überhaupt für die allgemeine Öffentlichkeit zugänglich gemacht werden? Sind Personen auf dem Material abgebildet? Sind zusätzliche Vermerke auf den Fotografien ersichtlich – wenn ja, was besagen diese?

  2. Budgetäre Deckung: Ist diese für die Digitalisierung gewährleistet?

  3. Zeitlicher Rahmen: Welchen Zeitrahmen bildet das Material ab? Lässt sich dazu eine einheitliche Erzählung aufbauen?

  4. Geografischer Rahmen: Lässt sich aus den Bildern eine gewisse geografische Streuung des Abgebildeten erkennen? Wenn nein, ist das gezeigte Material auch für alle Benutzer der Österreichischen Nationalbibliothek interessant?

  5. Publikumswirksamkeit: Welche Benutzer werden von den gezeigten Inhalten und Themen angesprochen? Zielt das Material eher auf das Engagement von interessiertem Fachpublikum ab oder ist die Themenlage breit genug, um die allgemeine Öffentlichkeit anzusprechen?

  6. Politische und gesellschaftliche Relevanz: Ist das Material dazu geeignet, eine breite gesellschaftliche Diskussion auszulösen? Ist die Themenlage der Bilder aktuell relevant?

  7. Aufwand und Kosten der Digitalisierung: Auf welchem Ausgangsmaterial liegt der Bildbestand vor? Sind zusätzlich benötigte Leistungen oder Aufwände für die Digitalisierung abzusehen?

  8. Bestandsgröße und thematische Homogenität: Wie viele Bilder liegen in diesem Bestand vor? Welche technischen Anforderungen, z. B. bezüglich des Speicherplatzes, der für das Material eingeplant werden muss, sind zu erwarten? Kann der gesamte Bestand als Kampagne ausgerollt werden oder gibt es thematische Subgruppen, die sich besser in unterschiedliche Kampagnen aufteilen lassen?

  9. Hintergrundinformationen zu den Beständen: Welche Hintergrundinformationen, die in weiterer Folge auch mit der Crowd als Kontextinformation geteilt werden können, liegen vor? Wurde der Bestand bereits teilweise erschlossen?

  10. Optische Qualität des Materials: In welcher Qualität liegt das Material vor? Lassen sich die Bilder – hohe Scanauflösung natürlich vorausgesetzt – digital überhaupt so weit vergrößern, dass Benutzer die Bilder beschreiben können und möchten?

  11. Visuelle Qualität: Tragen die Bilder ästhetischen Wert in sich? Ist die Qualität der Fotografien aus fotografischer Sicht gewährleistet?

  12. Geeignete Aufgaben: Lassen sich für das Material nach Maßgabe der Ressourcen geeignete Aufgaben finden, gestalten und programmieren? Lässt sich der Bestand mit den gewählten Aufgaben nach den Qualitätsstandards der Institution zufriedenstellend erschließen? Die Wichtigkeit dieser Frage bleibt bei jedem neuen Bestand erhalten, allerdings verringern bereits implementierte Aufgaben den Aufwand für das Onlinestellen neuer Kampagnen signifikant.

  13. Emotionale Qualität: Spricht das Material Benutzer auf emotionaler Ebene an? Was erzählen Personen über den Bestand, wie beschreiben sie ihn? Wie reagieren sie, wenn sie das Material zum ersten Mal sehen?

Diese Kriterien dienen dem Projektteam als Orientierungshilfe. Die darin enthaltenen Fragen sind auch dazu geeignet, sich dem vorhandenen Bildmaterial aus inhaltlicher Perspektive zu nähern und konkrete nächste Schritte bezüglich der Kommunikationsstrategie für eine Crowdsourcing-Kampagne abzuleiten.

4 Aufbau der Crowdsourcing-Infrastruktur

Ein nicht unwesentlicher Teil der Crowdsourcing-Initiative besteht im Aufbau einer technischen Infrastruktur, die sich zur Erfüllung der aus Rahmenbedingungen und Konzeption hervorgegangenen Anforderungen eignet. Im agilen Setting wird diese geplant und implementiert. Zum gegenwärtigen Zeitpunkt besteht die Infrastruktur aus diesen Komponenten:

  1. Workflows zur Digitalisierung und Aufbereitung von Bildmaterial. Dies umfasst Aspekte der Speicherung und Komprimierung der Scandaten sowie die geeignete Speicherung der bereits vorhandenen Metadaten.

  2. Perfomantes Service für die Bereitstellung hochaufgelöster Bilder. Dies wird an der Österreichischen Nationalbibliothek durch den Einsatz der IIIF[35]-Technologie ermöglicht.

  3. Teilautomatisierte Workflows zum Extrahieren, Aggregieren und Aufbereiten von Normdaten zur Verwendung auf der Plattform. Hier kommen verschiedene Werkzeuge und Technologien zum Einsatz (SPARQL, Docker, GitLab).

  4. Datenbankservice zur Speicherung von Metadaten und Beiträgen der Crowd. Für die Crowdsourcing-Initiative hat sich der Einsatz von flexibler Datenbank-Technologie (Elasticsearch, Redis) bewährt, um Änderungen und Erweiterungen der Plattform besser umsetzen zu können.

  5. Performantes Service für die Suche in Metadaten und kontrolliertem Vokabular. Hier werden Synergien mit dem zur Speicherung der Daten verwendeten System (Elasticsearch) effektiv genutzt.

  6. Service zur Abstraktion, Synthese und Aggregation verschiedenster Datenquellen und alleinige Schnittstelle sowohl zur Plattform als auch zu externen Services. Als Teil der Crowdsourcing-Initiative wurde in-house die Komponente „Crowdsourcing Data Hub“ entwickelt, die auf den Technologien JavaScript, Node.js und GraphQL basiert.

  7. Komponenten für Benutzerinteraktion, Visualisierung und Präsentation im Web. Dafür wurde eine modular organisierte Anwendung auf Basis des zeitgemäßen Frameworks Vue.js erstellt.

  8. Diverse Komponenten, die als Vermittler und Bindeglieder zwischen den erwähnten Teilsystemen fungieren. Dafür kommen Python, Docker und Nginx zum Einsatz.

Eine detaillierte Beschreibung von Entscheidungsgrundlagen und den Teilsystemen selbst würde den Rahmen dieses Artikels sprengen.

5 Qualitätssicherung in Crowdsourcing-Systemen

Zentrales Element für die Gestaltung von Crowdsourcing-Systemen ist die Frage, welcher Schritt zwischen der eigentlichen Crowdwork und der Nachnutzung der Ergebnisse liegen – die Frage der Qualitätssicherung. Der Auftraggeber, im folgenden Zitat[36] der „requester“, muss dabei je nach Art des Tasks entscheiden, welcher Qualitätssicherungsschritt am geeignetsten ist.

„Validating and aggregating the results produced by the crowd is a core component of every crowdsourcing project. First and foremost, the requester cannot assume that contributions will be usable as they arrive.“

Unterschiedliche Qualitätssicherungsstrategien finden sich in einem Aufsatz von Allahbakhsh et al.[37] Für die Crowdsourcing-Initiative der Österreichischen Nationalbibliothek kommt dabei das folgende von den Autoren vorgestellte Konzept zur Anwendung: „Majority consensus“. Es bezeichnet die Mehrheitsmeinung innerhalb der Crowd.

Die Software selbst ist so gestaltet und implementiert, dass sie keine Bewertung einzelner Benutzer vornimmt und die Beiträge aller Benutzer als gleichwertig behandelt werden (das entspricht dem Prinzip „Open to all“ – hier gäbe es, laut Allahbakhsh et al. in der Gestaltungsphase noch zwei weitere Möglichkeiten vorzugehen: „Credential-based“ oder „Reputation-based“). Außerdem entspringt die Gestaltung der Aufgaben dem Prinzip von „Defensive design“ – die richtige Erfüllung der Aufgaben ist nicht schwieriger als deren absichtlich falsche Erfüllung.

6 Aufbau und Funktionsweise der Plattform

6.1 Die Startseite

Das Crowdsourcing-Portal wird nach Aufruf von crowd-sourcing.onb.ac.at angezeigt und verfolgt diese Zwecke:

  1. Benutzern soll eine Möglichkeit zur Navigation zwischen und Einstieg zu Crowdsourcing-Kampagnen geboten werden

  2. Benutzer sollen Zugang zu Funktionen haben, die konzeptionell eine Ebene oberhalb einer Kampagne platziert sind, wie beispielsweise die Registrierung eines Usernamens, das Anmelden und Abmelden, Hintergrundinfos zur Initiative, sowie die Ansicht von FAQs und Zugang zu ergänzenden Kommunikationskanälen (z. B. Crowdsourcing-Blog)

Benutzer sehen beim Wechsel zu einer Kampagne zuerst deren Startseite.[38] Diese orientiert sich für jede neue Kampagne an einem ähnlichen Aufbau und erfüllt unterschiedliche Funktionen:

  1. Initiale Orientierung: Jeweils eine eigene Kampagnenfarbe und ein prominenter Kampagnentitel samt einem repräsentativen, aus dem Material stammenden Bildsujet sollen die initiale Orientierung der Benutzer unterstützen.

  2. Schneller Einstieg: Man kann als Benutzer sofort damit beginnen, den Bildbestand zu filtern, zu durchsuchen oder einzelne Bilder anzusehen. Für diese basalen Use Cases ist noch keine Registrierung notwendig.

  3. Nutzen der Initiative und Erwartungshaltung der Institution: Die zentralen Botschaften der Österreichischen Nationalbibliothek werden Benutzern konzise und ohne die Notwendigkeit zu scrollen („above the fold“) dargestellt. Das schließt auch eine kurze textliche Einleitung zu den Aufgaben mit ein.

  4. Auflistung der Aufgaben: Was Interessierte in welcher Form beitragen können, wird in der Aufgabenliste dargestellt. Hier lassen sich auch Aufgabengruppen rein visuell voneinander trennen (z. B. sind bei „Österreich aus der Luft“ die Aufgabengruppen „Wissen sammeln“ und „Wissen überprüfen“ optisch leicht unterscheidbar). Eine detailliertere Übersicht über die Aufgaben findet sich weiter unten in diesem Artikel.

  5. Kommunikation des Fortschritts: Statistiken, die einen quantitativen Überblick darüber zeigen, wie weit die gemeinsame Arbeit fortgeschritten ist, finden sich oberhalb der Aufgabenliste. Jede Aufgabe zeigt wiederum einen eigenen Fortschrittsbalken, der darüber Auskunft gibt, wieviel Prozentanteile bis zur Erfüllung eines festgelegten Ziels bereits erarbeitet wurden.

  6. Präsentation von Benutzern, die viel leisten: Ein Leaderboard präsentiert die drei meistbeitragenden Crowdworker.

  7. Präsentation der geleisteten Arbeit: Kampagnenspezifische Funktionen, die zur Präsentation der geleisteten Crowdsourcing-Arbeit dienen. Bei „Österreich aus der Luft“ ist dies zum Beispiel die Landkarte, die zu den Bildern beigetragene Verortungen zeigt.

6.2 Aufgaben und Funktionalität

Den Kern einer Kampagne bilden die Aufgaben, die es Benutzern ermöglichen, ihr Wissen beizutragen. Derzeit stehen vier Aufgaben zur Verfügung, die im Folgenden kurz beschrieben werden.

6.2.1 Kategorisieren

Damit Bilder in einem dezidierten Suchbereich gefiltert werden können, müssen sie entsprechend gekennzeichnet, sprich mit Metadaten angereichert werden. Benutzer können vorgegebene, nicht editierbare Stichworte aus einem kontrollierten Vokabular, das für jede Crowdsourcing-Kampagne neu und manuell zusammengestellt wird, wählen. Für die Kampagne Österreich aus der Luft lassen sich folgende Begriffe den Bildern zuordnen:

  1. Thema Landschaft und Geländeform: „gebirgig“, „hügelig“, „eben“,

  2. Thema Bebauung: „Stadt“, „Dorf“, „Einzelobjekt“, „dicht bebaut“, „dünn besiedelt“,

  3. Thema Naturraum: „See“, „Fluss“, „Wald“, „Wiese“,

  4. Thema Fotografie: „Panorama“ und „Detail“.

Mit diesen wenigen Begriffen lassen sich Bilder bereits komfortabel filtern. Pro Bild können immer mehrere Kategorien in beliebiger Kombination vergeben werden.

Die Qualitätssicherung erfolgt für diese Aufgabe implizit, da der Freiheitsgrad für die Wahl bestimmter Begriffe bereits sehr eingeschränkt ist. Aus der Summe der Nennungen unterschiedlicher Benutzer und einem gewählten Relevanzparameter lässt sich so automatisiert ein gewichtetes Bild der passendsten Kategorien ermitteln. Die Qualitätssicherung erfolgt nach dem Prinzip des „Majority consensus“.[39]

6.2.2 Tagging

Am Beginn der Konzeptionsarbeit für die Aufgabe „Tagging“ stand die Überlegung, sowohl Orte (oder genauer u. a. Ortsteile, Ortsnamen, politische Bezirke, Bauten und natürliche Landmarks wie Berggipfel) als auch Stichworte (Beschreibungen, was auf dem jeweiligen Bild zu sehen ist) anzubieten.

Begriffe stammen entweder von Geonames[40] oder der Gemeinsamen Normdatei[41] (GND). Aus der Gemeinsamen Normdatei wurden dabei manuell vom Projektteam einige tausend für den Bestand relevante Begriffe[42] ausgewählt.

Es ist darüber hinaus auch möglich, eigene Begriffe, die nicht aus Geonames oder der GND stammen, zu einem Bild hinzuzufügen. So lassen sich z. B. auch alte Flurnamen von Landschaften beitragen. Diese Begriffe unterliegen jedoch höheren Anforderungen bezüglich der Qualitätssicherung.

6.2.3 Verorten

In der Aufgabe „Verorten“ können Bilder georeferenziert werden. Dies kann dabei auf zwei Arten erfolgen. Einerseits durch die Suche im Textfeld oder mittels manuellem Setzen eines Kartenmarkers auf der gezeigten Landkarte.

6.2.4 Verortung bewerten

Die Sicherstellung der Qualität der Beiträge ist eine zentrale Mechanik von Crowdsourcing-Initiativen. Die Aufgabe Verortung bewerten soll dabei einerseits die Fülle an unterschiedlichen beigetragenen Koordinaten in der Aufgabe Verorten sichtbar machen, andererseits zu einer einzigen (der passendsten) Verortung eines Bildes führen.

Dafür hat das Projektteam folgendes Bewertungsschema entworfen: Jeder Benutzer kann pro Bild Punkte für eine Verortung vergeben. Die Punkte sind dabei jeweils mit einer Aussage verknüpft, die auch im User Interface gezeigt wird:

  1. +1 Punkt: „Ich glaube, der Marker passt.“

  2. +2 Punkte: „Ich bin mir ziemlich sicher, dass der Marker passt.“

  3. +3 Punkte: „Ich verfüge über lokales Wissen zu diesem Bild und bin mir sicher.“

Darüber hinaus gibt es eine weitere Möglichkeit, die jeder Benutzer insgesamt nur drei Mal anwenden kann: Die Vergabe einer höheren Punktzahl (+11) bei Bildern, die für den Benutzer eine persönliche emotionale Bedeutung haben. Es stellt eines der ersten Features der Plattform dar, die zu einer emotionalen Aufwertung der Plattform führen.

6.3 Weitere Bereiche des Crowdsourcing-Portals

6.3.1 Blog

Der Crowdsourcing-Blog thematisiert zahlreiche Aspekte der Crowdsourcing-Initiative: neue Funktionalitäten und Aufgaben auf der Crowdsourcing-Plattform, den aktuellen Status der gemeinsamen Crowdsourcing-Arbeit, Wissenswertes, Obskures und Interessantes zu Kampagnen und Bildbeständen sowie Leitlinien, Überlegungen und Herangehensweise des Projektteams. Mayr[43] nennt in diesem Zusammenhang, dass „[d]ie inhaltliche Begleitung und Dokumentation des Projekts [...] nach innen und außen [wirkt]“ und vor allem für die bestehenden und neuen Benutzer motivationsfördernd sind.

6.3.2 Suche

Die Suchfunktion ist ein wichtiges Element des Crowdsourcing-Portals. Hier können Benutzer nach den in der Aufgabe „Kategorisieren“ gesammelten Kriterien filtern oder gezielt nach Orten oder Tags suchen.

6.3.3 Bildjournal

Für jedes Bild ist die Anzahl der Beiträge, die dazu vorliegen, im sogenannten „Bildjournal“ ersichtlich. Außerdem finden sich dort die jeweilige Lizenzinformation und die Möglichkeit, das Bild herunterzuladen. Langfristig ließen sich an dieser Stelle des Portals auch einzelne Änderungen von Benutzern anzeigen.

7 Ausblick

Für die Crowdsourcing-Initiative der Österreichischen Nationalbibliothek sind einige neue Entwicklungen geplant bzw. angedacht:

  1. Eine neue Aufgabe („Tags bewerten“) soll die Qualität von beigetragenen Tags sicherstellen. Benutzer können hier Tags verifizieren oder falsifizieren. Erst durch diese neue Aufgabe bewertete Tags können in interne Datenbanken zur bibliothekarischen Verwendung aufgenommen werden.

  2. Die Veröffentlichung von neuen Kampagnen ist geplant. Dafür müssen einzelne Module der Software an die Charakteristika von neuem Bildmaterial angepasst werden. Das Portal muss auch um Funktionalität zum Wechseln von Kampagnen erweitert werden (analog zur Möglichkeit, Aufgaben zu wechseln).

Langfristig können Beiträge der Crowd auch für andere Zwecke eingesetzt werden. Das Prinzip des „Emotionalen Taggings“ könnte die Crowdsourcing-Plattform um interessante Elemente außerhalb des Bibliothekskontexts erweitern. Konkret umgelegt auf die Kampagne „Österreich aus der Luft“ ließen sich so auch ästhetische Gesichtspunkte eines Luftbildes untersuchen und durch die Crowd bewerten. Speziell große Sammlungen ließen sich so mittels einer Fülle an durch Crowdsourcing gewonnenen Informationen anreichern.

Über die Autoren

Paul Sommersguter

Österreichische Nationalbibliothek, Abteilung für Forschung und Entwicklung, Josefsplatz 1, A-1015 Wien, Österreich

Stefan Frühwirth

Österreichische Nationalbibliothek, Abteilung für Forschung und Entwicklung, Josefsplatz 1, A-1015 Wien, Österreich

Literaturverzeichnis

Allahbakhsh, Mohammad; Benatallah, Boualem; Ignjatovic, Aleksandar; Motahari-Nezhad, Hamid Reza; Bertino, Elisa; Dustdar, Schahram (2013): Quality Control in Crowdsourcing Systems: Issues and Directions. In: IEEE Internet Computing, 17 (2), 76–81.10.1109/MIC.2013.20Suche in Google Scholar

Hosseini, Mahmood; Phalp, Keith; Taylor, Jacqui; Ali, Raian (2019): On the Configuration of Crowdsourcing Projects. In: Crowdsourcing: Concepts, Methodologies, Tools, and Applications, hg. v. Information Resources Management Association, 33–52. IGI Global.10.4018/978-1-5225-8362-2.ch003Suche in Google Scholar

Howe, Jeff (2006a): Crowdsourcing: A Definition. Verfügbar unter https://crowdsourcing.typepad.com/cs/2006/06/crowdsourcing_a.html.Suche in Google Scholar

Howe, Jeff (2006b): The Rise of Crowdsourcing. Verfügbar unter https://www.wired.com/2006/06/crowds/.Suche in Google Scholar

Krug, Steve (2006): Don't make me think!: Web usability – das intuitive Web. 2. Aufl. Heidelberg: mitp.Suche in Google Scholar

Leimeister, Jan Marco; Zogaj, Shkodran; Blohm, Ivo (2015): Crowdwork – digitale Wertschöpfung in der Wolke. In: Crowdwork – zurück in die Zukunft?: Perspektiven digitaler Arbeit, hg. v. Christiane Benner, 9–41. Wien: ÖGB-Verl.Suche in Google Scholar

Mayr, Michaela (2018): Crowdsourcing für Bibliotheken – Best Practices und Handlungsempfehlungen. Master Thesis, Universität Wien.Suche in Google Scholar

Norman, Donald A. (2011): Living with complexity. Cambridge, MA: MIT Press.Suche in Google Scholar

Oomen, Johan; Aroyo, Lora (2011): Crowdsourcing in the Cultural Heritage Domain: Opportunities and Challenges. In: Proceedings of the 5th International Conference on Communities and Technologies, 138–49.10.1145/2103354.2103373Suche in Google Scholar

Quinn, Alexander J.; Bederson, Benjamin B. (2011): Human Computation: A Survey and Taxonomy of a Growing Field. In: Proceedings of the SIGCHI conference on human factors in computing systems, 1403–12.Suche in Google Scholar

Rachinger, Johanna (Hrsg.) (2012): Vision 2025: Wissen für die Welt von morgen. Österreichische Nationalbibliothek. Verfügbar unter https://www.onb.ac.at/fileadmin/user_upload/1_Sitemap/Ueber_Uns/OENB_Vision2025_20121016.pdf.Suche in Google Scholar

Ridge, Mia (2014): Crowdsourcing Our Cultural Heritage: Introduction. In: Crowdsourcing our cultural heritage, hg. v. Mia Ridge, 1–13. Burlington, VT: Ashgate.Suche in Google Scholar

Simperl, Elena (2015): How to use crowdsourcing effectively: Guidelines and examples. In: Liber Quarterly, 25 (1), 18–39.10.18352/lq.9948Suche in Google Scholar

Online erschienen: 2020-04-09
Erschienen im Druck: 2020-04-03

© 2020 Walter de Gruyter GmbH, Berlin/Boston

Artikel in diesem Heft

  1. Frontmatter
  2. Frontmatter
  3. Inhaltsfahne
  4. Design Thinking
  5. Design Thinking as a Framework for Innovation in Libraries
  6. „Form follows Function“ – Bibliotheksräume sind gebaute Visitenkarten der Bibliothek im 21. Jahrhundert
  7. Transformation
  8. Preistransparenz und -struktur von Artikelbearbeitungsgebühren
  9. Learning Circles: Learning Online Together at the Cologne Public Library
  10. Information Integrity in the Era of Fake News
  11. #ichteilewissen – Die Crowdsourcing-Initiative der Österreichischen Nationalbibliothek
  12. Library Education
  13. Library Education – Bracing for the Future?
  14. The Initial Training of Librarians and Curators in France: A National Mission
  15. Bibliotheken und Demokratie
  16. Die zentrale Rolle der Bibliotheken für den Fortschritt und die Demokratie
  17. Berichte
  18. Austrian Books Online – Acht Jahre Digitalisierung des historischen Buchbestandes der Österreichischen Nationalbibliothek mit Google
  19. Work in progress: Die langen Schatten der NS-Vergangenheit
  20. Rezensionen
  21. Hauke, Petra; Charney, Madeleine; Sahavirta, Harri (Hrsg.) (2018): Going Green: Implementing sustainable Strategies in Libraries around the World. Buildings, Management, Programmes and Services. IFLA Publications 177; X, 234 S., 1 Abb. (sw), 60 Abb. (Farbe), 14 Tab. (s/w). Gebunden: € 99,95, ISBN 978-3-11-060584-6, eBook: € 99,95, PDF ISBN 978-3-11-060887-8, EPUB ISBN 978-3-11-060599-0
  22. Michael Bender: Forschungsumgebungen in den Digital Humanities: Nutzerbedarf – Wissenstransfer – Textualität. Berlin/Boston: De Gruyter 2016. XIII, 341 Seiten. 6 Abb. (Sprache und Wissen, Band 22), € 99,95. ISBN 978-3-11-045969-2
  23. Sühl-Strohmenger, Wilfried; Tschander, Ladina (Hrsg.): Praxishandbuch Schreiben in der Hochschulbibliothek: De Gruyter Saur, 2019. ISBN 978-3-11-059116-3. EUR 79,95
  24. Musser, Ricarda; Naoka Werr (Hrsg.): Das Bibliothekswesen in der Romania. Berlin: De Gruyter Saur 2019. XV, 403 Seiten, s/w Illustrationen; 23 cm x 15,5 cm, ISBN 978-3-11-052713-1 Gebunden: € 99,95. Weitere Ausgaben: 978-3-11-052721-6 (EPUB), 978-3-11-052979-1 (PDF)
  25. Christian Keitel: Zwölf Wege ins Archiv. Umrisse einer offenen und praktischen Archivwissenschaft. Stuttgart: Franz-Steiner-Verlag, 2018. 285 Seiten, 29,90 €, ISBN 978-3-515-12156-9.
Heruntergeladen am 28.9.2025 von https://www.degruyterbrill.com/document/doi/10.1515/bfp-2020-0007/html
Button zum nach oben scrollen