Zusammenfassung
Das Thema Informationsmarketing nahm Ende der 1990er- und Anfang der 2000er-Jahre an Fahrt auf, nachdem sich das Dienstleistungsmarketing als Spezialform des Marketings in vielen Bereichen und Branchen bereits etabliert hatte. Durch ChatGPT und andere KI-Tools hat das Thema noch einmal eine deutliche Wendung erfahren. Der Beitrag gibt einen Überblick über die Entwicklung der letzten 25 Jahre; zudem wird ein Ausblick auf mögliche Entwicklungen gewagt.
Abstract
Information marketing gained momentum in the late 1990s and early 2000s, when service marketing had established itself as a special form of marketing in many sectors and industries. ChatGPT and other AI tools have added a further significant twist to the topic. This article gives an overview of developments over the last 25 years, and looks ahead to potential developments in the future.
1 Einleitung
Aus einem Wort lässt sich ableiten, dass es sich um keinen aktuellen Titel handelt: aus dem Wort „elektronisch“.[1] Heute würde anstelle des Wortes „elektronisch“ „digital“ stehen. Trotzdem ist das Thema aktueller denn je, denn im Rahmen der digitalen Informationsdienstleistungen sind im Laufe der Zeit zahlreiche Herausforderungen hinzugekommen, die es vor 25 Jahren so nicht gab, insbesondere durch die generativen Sprachmodelle, die seit Ende 2022 für alle verfügbar sind, und zwar rund um den Globus.
Der Beitrag liefert einen Rückblick, betrachtet die Gegenwart und gibt einen Ausblick auf das Thema des Marketings von elektronischen/digitalen Informationsdienstleistungen.[2]
2 Charakterisierung von Dienstleistungen
Eine gängige Definition von Dienstleistungen, die immer noch Gültigkeit hat, lautet: Es handelt sich um selbstständige, marktfähige Leistungen, die im Gegensatz zu Gütern weitgehend immateriell sind.[3] Sie lassen sich weitestgehend nur in der Interaktion mit dem Kunden/der Kundin erbringen, weshalb ihnen eine input-, eine prozess- und eine outputorientierte Komponente zugeschrieben wird.[4] Dabei bezieht sich die inputorientierte Komponente auf die Ressourcen, die in den Dienstleistungsprozess einfließen, also vor allem die Kompetenzen und das Wissen der Dienstleister*innen, aber bei Informationsdienstleistungen selbstverständlich auch und vor allem die Informationen, die zur Erbringung der Dienstleistung benötigt werden. Die prozessorientierte Komponente umfasst den eigentlichen Ablauf der Dienstleistungserbringung, bei denen die Kund*innen aktiv eingebunden werden (müssen). Die outputorientierte Komponente stellt das Ergebnis der Dienstleistung dar, wobei entscheidend ist, dass der Output auch einen Mehrwert für die Auftraggeber*innen darstellt.
Im Rahmen dessen wiesen Informationsdienstleistungen früher noch einige Besonderheiten auf:
Es war nicht vorhersagbar, ob die gewünschte Information verfügbar ist,
es war nicht sicher, ob die Information beschaffbar ist und
Information konnte unauffindbar sein, obwohl verfügbar.[5]
Das gilt heute so kaum mehr: Man erhält zu allen Themen Informationen. Ein Ergebnis mit NULL Treffern zu einer Anfrage, wie es damals durchaus regelmäßig vorkam, gibt es seit Google & Co. nicht mehr. Google hat zu allen Themen und Anfragen mindestens eine Antwort parat. Wie gut diese sind, soll hier nicht Gegenstand des Beitrags sein. Zumindest aber wird einem stets das Gefühl vermittelt, dass einem geholfen wird, da man mindestens eine Antwort erhält. Durch die Suchmaschinen ist auch die Beschaffung der (Volltext-)Informationen in den Hintergrund gerückt, denn sie ist in den meisten, zumindest aber sehr vielen Fällen über den jeweiligen Link abrufbar, wenn auch häufig hinter einer Paywall.
Was aber immer noch gilt, ist, dass Information unauffindbar ist, obwohl verfügbar. Hierfür gibt es verschiedene Gründe: mangelnde Informationskompetenz, fehlende Sprachkenntnisse etc. Doch in der Wahrnehmung spielt der Aspekt nur noch eine untergeordnete Rolle, da man immer Informationen erhält. Zudem wird kaum noch nach der Pareto-Regel recherchiert, die besagt, dass man mit ca. 20 Prozent des Aufwands in etwa 80 Prozent der Informationen erhält. Um sich aber der Vollständigkeit zu nähern, ist ein hoher Aufwand notwendig, der nur noch selten betrieben wird, z. B. bei Patentrecherchen, insbesondere für Einsprüche oder Freedom-to-Operate-Recherchen[6].
Weiterhin gilt zudem: Die Information selbst erzeugt keinen oder nur geringen Nutzen, solange sie nicht als Wiedereinsatzfaktor in Prozesse eingeht, d. h. zu einer Basis z. B. von Unternehmensentscheidungen wie Forschungs- und Entwicklungs-Aktivitäten (F&E), Investitionen und Verkaufskonzepten wird. Der Nutzen der Information wird erst nach Integration in Geschäftsabläufe oder Prozesse quantifizierbar, das heißt aber auch, dass der Nutzen der Information für den Informationsanbieter und -vermittler (Rechercheur*in) kaum abschätzbar war, da er/sie an den Folgeprozessen nach Lieferung der Information selten beteiligt war und ist. Gleichzeitig muss die Information, die geliefert wird, vom Empfänger auch konsumiert und vor allem richtig verstanden werden. Das mag trivial klingen, ist es aber durchaus nicht. Wenn z. B. komplexe Chemieinformationen mit Strukturformeln an Nicht-Chemiker*innen geliefert werden, dann werden sie keinen Nutzen bringen. Es erfordert entweder eine „Übersetzung“ in allgemeinverständlicher Weise durch die Informationsdienstleister*innen oder durch entsprechende Personen innerhalb des Unternehmens des/der Auftraggeber*in. Daran hat sich bis heute nichts geändert.
3 Ein kurzer historischer Abriss
Erst vor rund 30 Jahren gab das Conseil Européen pour la Recherche Nucléaire (CERN) das World Wide Web für alle frei.[7] Damit veränderten sich die Verfügbarkeit und auch die Zielgruppen von Information wesentlich, auch wenn der Zugang immer noch gekoppelt war an entsprechende Zugänge. Schnelle Internetleitungen waren teuer und für Endverbraucher*innen kaum realisierbar. Der Datentransfer funktionierte überwiegend über Datex-P-Leitungen und entsprechende Modems bzw. – damals sehr komfortabel und zukunftsweisend – X.25-PADs[8] mit einer Übertragungsrate bis zu 9.600 Baud[9].
Erst mit dem WLAN wurde eine neue Stufe der Verfügbarkeit von Informationen Richtung Endverbraucher*innen erreicht, da es Orte (Hotspots) z. B. in Bibliotheken oder auch bei Starbucks gab, wo es kostenfreies Internet gab. WLAN erlangte – obwohl schon deutlich früher verfügbar – erst Anfang/Mitte der 2000er Jahre große Bedeutung. Bis dahin wurde die Qualität von Information überwiegend von Datenbankherstellern, Datenbankanbietern/Hosts und Informationsvermittlungsstellen geprüft, wobei „Qualität […] die Gesamtheit von Eigenschaften und Merkmalen eines Produktes oder einer Tätigkeit [bezeichnet], die sich auf deren Eignung zur Erfüllung gegebener Erfordernisse bezieht“[10]. Und genau darum geht es bei Information. Sie soll dazu dienen, bestimmte Erfordernisse zu erfüllen, sprich bei Entscheidungen eine solide Basis zu bieten. Das World Wide Web und nicht zuletzt die Sozialen Medien machten und machen es zunehmend schwer, gute/richtige Informationen von schlechten/falschen Informationen zu unterscheiden. Auf die Unterscheidung von Primär-, Sekundär- und Tertiärquellen wird vielfach keinen Wert mehr gelegt.
Der 30. November 2022 hat durch die Freigabe von ChatGPT[11] das Informationsverhalten noch einmal drastisch verändert und das in einer bis dahin nie dagewesenen Geschwindigkeit. Disruptive Innovationen wie das Internet, der PC, das World Wide Web, das Smartphone in Form des iPhones waren bis dahin stets gekoppelt an höhere bzw. teils hohe Investitionen, z. B. in technische Geräte, Datenleitungen etc., sodass die Marktdurchdringung alleine schon aus diesem Grund einige Zeit – bis zu mehreren Jahren – in Anspruch nahm. Zudem erforderte die Benutzung bis dahin teilweise auch Kompetenzen, die erst erworben werden mussten, z. B. der Umgang mit Betriebssystemen oder die Programmierung von Software. Mit den generativen Sprachmodellen – speziell ChatGPT – hat sich etwas drastisch verändert. Von einer Minute auf die andere hatte praktisch die gesamte Welt Zugriff auf das System – ohne weitere Investition, denn weltweit verfügen die Menschen über mobile Endgeräte, über WLAN etc. Zudem war und ist der Zugriff kostenlos.[12]
Als die Pressemitteilung die Autorin erreichte, war sofort klar: das KI-Tool stellt alles bisher Dagewesene in den Schatten. Viele saßen die ganze Nacht am Rechner und haben ChatGPT ausprobiert, und die Faszination war für die meisten groß. Gleichzeitig wurde einem aber auch bewusst, dass sich mit ChatGPT das gesamte Informationsverhalten ändern würde, und damit natürlich auch das Marketing für Informationsdienstleistungen.
4 Der Gartner Hype Cycle
Wenn wir von neuen, aufkommenden Technologien sprechen, dann lassen sich diese hinsichtlich ihres Status vielfach gut über den Gartner Hype Cycle abbilden. Es gibt zunächst einen technologischen Trigger, der vielfach verbunden ist mit ersten F&E-Aktivitäten und Schutzrechtsanmeldungen, der dann zum Gipfel der überzogenen Erwartungen führt. Es folgt das Tal der Enttäuschungen/Tränen, bevor über den Pfad der Erleuchtung das Plateau der Produktivität erreicht wird.
Doch genau diese Zuordnung funktioniert bei der KI offensichtlich nicht. Es gibt immer neue Triggerpunkte, es gibt ständig neue Modelle, die sich auf dem Gipfel der überzogenen Erwartungen befinden, andere Modelle durchlaufen gerade das Tal der Tränen bzw. sind schon im Bereich der Produktivität angelangt oder verschwinden wieder sehr schnell vom Markt. Auch das ist etwas Neues. Die Dynamik ist immens. Inzwischen sinkt der Zeitraum drastisch, bis ein KI-basiertes Modell in einen Geschäftsablauf integriert werden kann, um entsprechenden Mehrwert zu generieren.
Ein Ende der Entwicklungen scheint nicht absehbar – im Gegenteil, offensichtlich befindet man sich hinsichtlich möglicher Entwicklungen erst am Anfang, was auch aus der Zahl der erteilten Patente im Bereich KI von 2010 bis 2022 deutlich wird. Da es um erteilte Patente und nicht „nur“ um Patentanmeldungen geht, kann diesen Patenten auch eine entsprechende Bedeutung zugeordnet werden.
![Abb. 1: Gartner Hype Cycle Künstliche Intelligenz 2023Perri, Lori: Neues aus dem Gartner Hype Cycle 2023 zum Thema KI. Gartner 18.08.2023, https://www.gartner.de/de/artikel/neues-aus-dem-gartner-hype-cycle-2023-zum-thema-ki [Zugriff: 07.10.2024]..](/document/doi/10.1515/bd-2024-0108/asset/graphic/j_bd-2024-0108_fig_001.jpg)
Gartner Hype Cycle Künstliche Intelligenz 2023[13].
Eine Sättigung hinsichtlich der Patentanmeldungen bzw. -erteilungen scheint nicht in Sicht. Wahrscheinlich wird man sich in den nächsten Jahren auf eine Dynamik hinsichtlich KI – in den verschiedensten Ausprägungen – einstellen müssen, die aktuell kaum vorstellbar ist. Aus der Grafik kann aber auch abgelesen werden, dass im Bereich KI massive Innovationen bevorstanden, da Patentanmeldungen und insbesondere Patenterteilungen der Markteinführung einige Zeit voraus sind.
![Abb. 2: Anzahl der erteilten Patente im Bereich KI weltweit in den Jahren 2010 bis 2022Stanford University; Center for Security and Emerging Technology: Anzahl der erteilten Patente im Bereich KI weltweit in den Jahren 2010 bis 2022. Statista 2024, https://de.statista.com/statistik/daten/studie/1321367/umfrage/anzahl-der-ki-patentanmeldungen-weltweit#:~:text=Im%20Jahr%202022%20wurden%20weltweit,Künstliche%20Intelligenz%20(KI)%20angemeldet. [Zugriff: 07.10.2024]..](/document/doi/10.1515/bd-2024-0108/asset/graphic/j_bd-2024-0108_fig_002.jpg)
Anzahl der erteilten Patente im Bereich KI weltweit in den Jahren 2010 bis 2022[14].
5 Mögliche Manipulationen durch KI
Nach rund zwei Jahren ChatGPT und Co. macht es den Eindruck, dass versucht wird, alles mit und durch KI zu machen, sprich, die gesamte Welt soll in und durch Daten reflektiert werden. Doch darin liegt genau die Gefahr. Nur selten ist erkennbar, warum das jeweilige System bestimmte Entscheidungen trifft. Im Folgenden wird das Thema „Bewerbungen“ bzw. „Human Resource-Management“ (HRM) gewählt. Dabei ist die Frage zu beantworten: Wer wird eingestellt, wenn der Bewerbungsprozess maßgeblich durch eine KI geprägt ist?[15] Der Input für die KI-Systeme sind insbesondere Anschreiben, Zeugnisse, Lebensläufe sowie Protokolle von Bewerbungsgesprächen; der Output ist die Bewertung durch das Unternehmen; sprich, die Entscheidung, wer am besten in das Unternehmen passt. Selbst wenn beim Input aus Lebenslauf etc. Namen, Fotos und andere Hinweise auf das Geschlecht entfernt werden, erkennt das System an Formulierungen etc. z. B. das Geschlecht. Bei KI-gestützten Bewerbungsverfahren – große Unternehmen wenden diese bereits im großen Stil an – kann es sein, dass letztendlich weiterhin der gleiche Typ von Mensch mit ähnlichen Kompetenzen eingestellt wird: Diversität, Gendergerechtigkeit, Möglichkeiten des Quereinstiegs etc. finden möglicherweise wenig Beachtung; das Ganze lässt sich selbstverständlich auch auf Kompetenzen übertragen. Wenn Entscheidungen als gut eingestuft wurden, dann werden im Bereich HRM z. B. Quereinsteiger*innen etc. nur geringe Chancen haben, eingestellt zu werden; das heißt, dass sich an der Struktur der Belegschaft nur wenig ändern wird. Es muss einem stets bewusst sein, dass eine KI immer nur die Vergangenheit – wenn auch immer näher an die Gegenwart – reproduziert. Genau aus diesem Grund werden von KI-Systemen vielfach auch Klischees bedient: Arbeitet man mit Bildgeneratoren, dann werden in einer Unternehmensberatung überwiegend Männer abgebildet, in einer Bibliothek oder einer Küche überwiegend Frauen.[16]
Zudem stellt sich die Frage, ob durch die Prompts exakt die Realität abgebildet wird. So gibt es durchaus ein „Prompt-Engineering“ des Anbieters hinter einem Prompt. Sprich: Man formuliert einen Prompt, und der Anbieter „trifft für einen eine Entscheidung“ und verändert diesen Prompt im Hintergrund, z. B. hinsichtlich Diversity. Dann sieht man auf dem Bild 50 Prozent Männer, die in der Bibliothek arbeiten oder in der Küche stehen, obwohl es nicht der Realität entspricht. Manches Mal interessiert einen das Thema aber auch gar nicht, z. B. wenn es um das beste Rezept für ein Essen geht. Dann ist es egal, ob es von einer Frau oder einem Mann stammt. Das Prompt-Engineering könnte in dem Falle ja dann sogar dazu führen, dass das Diversity-Prompting im Hintergrund die Zahl der Rezepte beschränkt, und man gar nicht das beste Rezept angezeigt bekommt.
Aufgrund der großen Datenmengen – dem Internet – ist es natürlich gar nicht möglich, die Trainingsdaten händisch – sprich durch Menschen – zu kontrollieren. Dies muss automatisiert geschehen. Und da auch diese Algorithmen von Menschen stammen, sind sie bei der Kontrolle nur bedingt hilfreich. Die Kontrolle kann somit nicht besser sein, als das, was der Mensch als richtig oder falsch einstuft. Niki Kilbertus fordert daher: „Wenn Maschinen unsere eigenen Wertvorstellungen übernehmen sollen, dann darf man Daten nicht einfach blind weiter verwerten. Wir müssen uns fragen: wie kamen sie zustande?“[17]
6 KI und digitale Informationsdienstleistungen
Wenn es um KI und die daraus resultierenden digitalen Informationsdienstleistungen geht, dann gilt es viele verschiedene Aspekte zu berücksichtigen, von denen im Folgenden die wichtigsten kurz dargestellt werden.
6.1 Funktionsweise generativer Sprachmodelle
Vermittelt werden muss, dass ChatGPT und Co. Modelle für maschinelles Lernen nutzen, um Muster und Beziehungen in einem Datenset aus von Menschen erstellten Inhalten zu ermitteln. Wichtig ist vor allem, dass verstanden wird, dass genau und nur auf der Basis der erlernten Muster neue Inhalte generiert werden.
Insbesondere bei der KI greifen aber Black-Box-Modelle: Viele der Modelle sind sehr komplex und teils schwer zu verstehen, was die Transparenz und Nachvollziehbarkeit ihrer „Entscheidungen“ drastisch einschränkt. Es muss aber zwingend gegeben sein, dass insbesondere Nutzer*innen in die Lage versetzt werden, die Funktionsweise von KI-Systemen zu verstehen. Nur so kann ein souveräner Umgang mit KI-Systemen möglich werden.
6.2 Qualität und Zuverlässigkeit von Informationen
Wie bereits oben ausgeführt, ist Qualität die Gesamtheit von Eigenschaften und Merkmalen eines Produktes oder einer Tätigkeit, die sich auf deren Eignung zur Erfüllung gegebener Erfordernisse bezieht.[18] Die empfundene Qualität muss aber nicht zwangsläufig übereinstimmen mit der tatsächlichen Qualität – insbesondere bei Dienstleistungen, wo Qualität anhand von selbst gesetzten Standards des Unternehmens festgelegt wird. Für die Kund*innenzufriedenheit entscheidend ist jedoch vielfach die subjektive Qualität, und diese definiert der Kunde ganz alleine. Damit wird Qualität zum anwenderbezogenen Ansatz, nämlich dass Qualität das ist, was Kund*innen dafür halten.[19] Oder anders ausgedrückt: Sie ist die Differenz zwischen den Erwartungen der Kund*innen an eine Dienstleistung und deren Wahrnehmung. Kund*innenzufriedenheit ist somit der Grad der Erfüllung von Kund*innenanforderungen bezogen auf die wahrgenommenen Merkmale einer Dienstleistung. Somit kann die Qualität eines Produktes/einer Dienstleistung objektiv der Norm entsprechen und damit die ISO-Normen erfüllen, subjektiv kann sie jedoch als schlecht eingestuft werden, da Kund*innen andere Erwartungen an die Dienstleistung haben. Dienstleistungsqualität wird deshalb definiert als „die Fähigkeit eines Anbieters, Leistungen mit bestimmten Eigenschaften und Merkmalen aufgrund von Kundenerwartungen auf einem bestimmten Anspruchsniveau zu erstellen“. Und hier sieht man bereits das Dilemma. Die KI bezieht sich auf von Menschen erstellte Inhalte. Hierbei handelt es sich jedoch um eine amorphe Masse, so dass nicht mehr nachprüfbar ist, wer wann welche Informationen ins Netz gestellt hat. Damit kann die KI maßgeblich auch zur Verbreitung von Fehlinformationen beitragen, indem sie gefälschte Inhalte nutzt und damit auch falsche Informationen erstellt, die schwer, kaum oder gar nicht von echten und wahren zu unterscheiden sind.
6.3 Personalisierung von Informationen
Unter Personalisierung soll hier die nominelle Zuordnung von Merkmalen zu einer Person und die Anpassung von Programmen, Diensten oder Informationen an die persönlichen Vorlieben, Bedürfnisse und Fähigkeiten von Benutzer*innen verstanden werden.[20] Aber hier greift bei der KI häufig das Problem der Filterblasen und Echokammern: Algorithmen sind darauf ausgelegt, Kund*innen durch personalisierte Inhalte zu binden, was dazu führen kann, dass man nur solche Informationen zu sehen bekommt bzw. erhält, die die eigenen bestehenden Ansichten und Wünsche bestätigen. Und das Problem kennen alle: Man hat etwas im Internet bestellt, und bekommt anschließend wochenlang das gleiche Produkt wieder und wieder angezeigt. Was für ein Unsinn, denn man kauft nicht jeden Tag den gleichen Sessel, das gleiche Regal etc. Stattdessen würde man sich wünschen, dass die Systeme „weiterdenken“. Man hat sich z. B. ein Regal im Internet konfiguriert sowie gekauft und anschließend hätte man gerne Angebote zu Kissen, Decken, zur Pflege des Bezugs etc.
6.4 Kulturelle und soziale Auswirkungen
Die Automatisierung durch KI wird zu erheblichen Veränderungen auf dem Arbeitsmarkt führen, einschließlich des Verlustes von Arbeitsplätzen in bestimmten Sektoren. Daher besteht ein großer Bedarf an Aus- und Weiterbildung, um sicherzustellen, dass Personen in die Lage versetzt werden, souverän mit KI-Systemen zu arbeiten. Denn auf der einen Seite werden Stellen wegfallen, es werden aber auch neue Stellen geschaffen werden, die gänzlich andere Kompetenzen erfordern. Früher konnte man sich noch längere Zeit „wehren“, mit neuen Technologien, z. B. dem PC, zu arbeiten. Teilweise sind Personen sogar unter dem Druck, den Umgang mit neuen Technologien zu lernen, vorzeitig in den Ruhestand gegangen. Das kann es bei der aktuellen Geschwindigkeit der Entwicklungen nicht mehr geben. Aber die Frage „Wie lange kann ich dem technologischen Fortschritt noch folgen?“ wird unter älteren Beschäftigten durchaus auch Ängste und Sorgen auslösen.
Wie selbstbewusst die Generation Z mit neuen Entwicklungen umgeht, zeigt folgender Sachverhalt. Auf die Frage an Studierende im Sommersemester 2024, wie viele von ihnen bereits KI-generierten Influencern folgen, antworteten in zwei Studierendenkohorten rund 50 Prozent mit JA. Das Ergebnis ist alles andere als repräsentativ, aber trotzdem darf über mögliche Konsequenzen spekuliert werden: Was bedeutet dies z. B. für Schönheitsideale, Modetrends etc., die von jetzt auf gleich verändert werden können? Und wer steckt hinter diesen KI-Influencern? Ist das transparent? Es gibt eine Vielzahl weiterer Fragen und über weitere Konsequenzen darf spekuliert werden. Wird dies durch die jüngeren Generationen entsprechend reflektiert, kritisch diskutiert?
6.5 Ethik und Fairness
Das Ziel guter KI muss/sollte eine Bias-Freiheit sein, das heißt die Vermeidung von Vorurteilen und diskriminierenden Aussagen in den generierten Texten. In gleicher Weise verhält es sich mit ethischen Richtlinien, sprich, dass ethische Standards eingehalten werden, dass Hassreden oder toxische Inhalte gar nicht ausgegeben werden. Es gibt aber durchaus Systeme, die man explizit auffordern kann, entsprechend toxische Inhalte und Posts zu generieren. Forscher des MIT haben jetzt eine KI darauf trainiert, sich möglichst viele toxische Fragen und die möglichen Antworten auszudenken, damit Sprachmodelle wie ChatGPT von Gefahr verbreitenden Antworten abgehalten werden.[21]
Es könnten zahlreiche weitere Aspekte aufgeführt werden, wie z. B. Rechtssicherheit, Copyright und Datenschutz. Das würde aber den Rahmen dieses Beitrags sprengen.
7 Informationsmarketing
Alleine diese wenigen Herausforderungen haben erhebliche Implikationen für das Marketing von digitalen Informationsdienstleistungen, die künftig kaum mehr ohne KI-Komponenten verfügbar sein werden, sei es bei der Generierung, der Verarbeitung bzw. dem Konsum.
Ging es früher vor allem darum, Informationen elektronisch/digital verfügbar und auffindbar zu machen, müssen Unternehmen heute insbesondere Strategien entwickeln, die die genannten Herausforderungen berücksichtigen und vor allem Vertrauen und Glaubwürdigkeit bei den Nutzer*innen aufbauen. Letztendlich besteht die Herausforderung sogar darin, das Marketing an allen Menschen auszurichten, da sich heute Informationsdienstleistungen auch an alle richten, auch wenn es vielen gar nicht so bewusst ist. Damit müssen Marketingstrategien auf Transparenz setzen. Dies bedeutet, offen über die Verwendung von KI-Technologien und Algorithmen zu kommunizieren.
Gleichzeitig muss das Marketing so ausgerichtet werden, dass Verständnis und auch die Akzeptanz von anderen KI-gestützten Diensten – also außerhalb der generativen Sprachmodelle – erhöht werden, denn sie werden sich maßgeblich gegenseitig beeinflussen und verstärkt unseren Alltag mitbestimmen.
Im Sinne des Qualitätsmanagements muss sichergestellt werden, dass die angebotenen Informationen verlässlich und von hoher Qualität sind. Hier wird zu überlegen sein, welche Qualitätssicherungsinstrumente, Qualitätstechniken und Qualitätskontrollsysteme einzusetzen sind. Vor allem wird es notwendig sein, sicherzustellen, dass KI-Systeme auf vertrauensvolle Quellen zurückgreifen. Im Sinne der Qualität wird es auf Genauigkeit und Präzision ankommen. Doch es gibt zur bisherigen Informationssuche einen großen Unterschied. Erhält man über die klassischen Datenbanken und auch über Suchmaschinen eine Vielzahl von Treffern, so liefern die Sprachmodelle üblicherweise EINE Antwort, was bedeutet, dass man keine „klassische“ Precision-Recall-Kurve[22] durch Erweiterung bzw. Einengung einer Fragestellung mehr erhält. Dabei liegt es an den Nutzer*innen, ob sie einen höheren Recall möchten/benötigen – neben relevanten Dokumenten ggf. weitere interessante oder/und nur teilweise relevante Dokumente – oder eine höhere Precision bevorzugen – nur 100prozentig relevante Dokumente, auch auf die Gefahr hin, dass wichtige relevante Dokumente nicht gefunden werden. Zwar können KI-Systeme dazu „aufgefordert“ werden, mehrere Antworten zu liefern, doch sind diese weit entfernt von Precision und Recall.
Das Tool Elicit soll ein sehr nützliches Tool für die akademische Recherche sein.[23] Mit Elicit soll man schnell die relevanten wissenschaftlichen Veröffentlichungen finden können. Zudem sollen die Ergebnisse mit Hilfe von KI-Tools strukturiert und analysiert werden. So sollen z. B. schnell übereinstimmende, oder auch abweichende Informationen zu einem Thema gefunden werden. Übrigens sieht das Marketing auf der Hauptseite wie folgt aus: „Trusted by Researchers at Google, Standford, AstraZeneca, The World Bank, McKinsey, NASA“ etc. Das Marketing impliziert alleine durch die renommierten Namen, dass das Tool gut ist.
Trotz solcher Tools werden im Marketing andere Faktoren greifen müssen, nämlich z. B. wie gut die generierten Texte/Informationen die gestellten Fragen/Prompts beantworten und wie relevant diese Informationen sind. Damit muss die Faktenkorrektheit wieder stärker in den Mittelpunkt rücken: Wie gut ist die Übereinstimmung zwischen generierten Informationen und nachprüfbaren Fakten? Und damit erlangen die klassischen Beurteilungsmethoden der Qualität von Information wieder Bedeutung. Hatte früher jemand Bedarf an Fachinformationen zu einem Thema, das er/sie nicht beherrschte, wurden diese Informationen von Fachleuten geliefert, die genau die Beurteilung der Qualität der Informationen bereits vorgenommen haben. Im Idealfall gab es einen individuellen Austausch zwischen Kund*in und Informationsprofi. Doch genau diese Schnittstelle existiert bei KI-Systemen nicht. Jeder Mensch kann die Systeme und die erhaltenen Informationen nutzen. Konkret bedeutet dies, dass es für das Marketing entscheidend ist, dass es Akteur*innen und auch Kriterien gibt, die die objektive Qualität festlegen bzw. beurteilen. Das können z. B. Forschungs- und Wissenschaftsgemeinschaften sein. Helmholtz ist in Deutschland diesbezüglich ein Vorreiter; mit KI-Grundlagenmodellen gehen sie eine Reihe von großen Herausforderungen in der Wissenschaft an.[24] Die Ergebnisse stellen sie als Open Source der Gesellschaft zur Verfügung: vom Code über die Trainingsdaten bis zu den trainierten Modellen.[25]
Gleichermaßen wichtig sind Peer-Review-Studien, in denen die Methoden und Ergebnisse zur Bewertung der Sprachmodelle diskutiert und evaluiert werden. Und last but not least geht es um standardisierte Tests, die zur objektiven Bewertung der Modelle verwendet werden können. Zwei davon sind GLUE (General Language Understanding Evaluation)[26] oder SQuAD (Stanford Question Answering Dataset).[27]
Aber in gleichem Maße sind die großen Player wie OpenAI, Google, Microsoft, Apple etc. gefordert, indem sie eigene Benchmark-Kriterien entwickeln und diese auch öffentlich machen. Hilfreich dürfte es sein, Standards zusammen mit Branchen und Industrien zu entwickeln, sodass die Ergebnisse von Sprachmodellen transparent und nachvollziehbar dargestellt sowie vermittelt werden können.
Zudem ist es wichtig, dass die EU, Regierungsinstitutionen etc. entsprechende Richtlinien und Vorschriften für die Entwicklung und Nutzung von KI-Technologien entwickeln und verabschieden. So beruht der Ansatz der EU für künstliche Intelligenz auf Exzellenz und Vertrauen und zielt darauf ab, Forschungs- und Industriekapazitäten zu stärken und gleichzeitig Sicherheit und Grundrechte zu gewährleisten.[28] Das KI-Gesetz der EU[29] ist der allererste Rechtsrahmen für KI, der die Risiken von KI anspricht und Europa in die Lage versetzen soll, weltweit eine führende Rolle zu spielen. Dieses KI-Gesetz zielt darauf ab, KI-Entwicklern und -Deployern klare Anforderungen und Pflichten in Bezug auf die spezifische Nutzung von KI zu bieten.
Eine besondere Bedeutung kommt somit der externen Kommunikation zu: Es wird notwendig sein, dass in Marketingbotschaften die verantwortungsvolle Nutzung von KI hervorgehoben wird und vor allem KI erklärt wird: Z. B. wie kann KI dazu beitragen, Informationsdienstleistungen zu verbessern? Dies muss für alle potenzielle Zielgruppen geschehen, was die Kommunikation sehr anspruchsvoll werden lässt. Sprachmodelle werden heute von Grundschüler*innen in gleicher Weise genutzt wie von Spezialist*innen eines Faches, Laien etc., was auch bedeutet, dass die Zielgruppen künftig nicht mehr eindeutig abgrenzbar sind; vielmehr überschneiden sie sich – ebenso wie die Zielsetzungen.
Für das Marketing gilt es daher, mindestens folgende Aspekte hervorzuheben:
Einfache Bedienbarkeit: Digitale Informationsdienstleistungen inklusive KI müssen intuitiv und leicht zu bedienen sein. Dies kann durch benutzerfreundliche Schnittstellen, klare Anweisungen und ein ansprechendes Design erreicht werden.
Relevanz der Inhalte: Die Inhalte müssen auf die Bedürfnisse der Nutzer*innen zugeschnitten sein. Hier greift ebenfalls wieder die Personalisierung durch KI, denn sie kann helfen, indem sie Inhalte liefert, die zu den Interessen und dem Verhalten der Nutzer*innen passen.
Lösungen für Nutzer*innenprobleme: Das Marketing muss darauf abzielen, darzustellen, wie Informationsdienstleistungen konkrete Probleme der Nutzer*innen lösen.
Interoperabilität: Die Kommunikation der Kompatibilität und Integration mit anderen Systemen und Plattformen kann ein wichtiger Wettbewerbsvorteil sein. Wichtig ist die plattformübergreifende Nutzung: Dienste müssen auf verschiedenen Geräten und Plattformen gut funktionieren.
Kollaborative Funktionen: Immer mehr Informationen und Informationsdienste werden im Team genutzt. Funktionen, die die Zusammenarbeit erleichtern – wie gemeinsame Arbeitsbereiche, Echtzeit-Bearbeitung und Kommentarfunktionen – sind im Marketing hervorzuheben.
Aber es gilt einen weiteren Aspekt zu beachten: Die Leistungsfähigkeit des Dienstleistungsanbieters war traditionell der zentrale Faktor für die Qualitätssicherung und Zuverlässigkeit von Dienstleistungen. Mit dem Einsatz von KI verändert sich dieser Faktor, da die Leistungsfähigkeit zunehmend von der Technologie und den zugrundeliegenden Algorithmen abhängt. Die Konsequenzen dieses Sachverhalts und ihre Auswirkungen auf das Informationsmarketing sind u. a.:
Die Verlagerung des Schwerpunkts auf technologische Infrastruktur
Die Qualität der Dienstleistung hängt künftig möglicherweise stärker von der Leistungsfähigkeit und Zuverlässigkeit der KI-Systeme und der IT-Infrastruktur ab, d. h., dass die Genauigkeit, Effizienz und Fairness der KI-Algorithmen zu zentralen Faktoren werden dürften.
Die Reduktion der Abhängigkeit von menschlicher Expertise
Viele Aufgaben, die bisher menschliche Expertise erforderten, können bereits jetzt und zukünftig automatisiert werden. Dies führt zu massiven Kosteneinsparungen und erhöhter Skalierbarkeit. Gleichzeitig können die KI-Systeme kontinuierlich aus neuen Daten lernen und sich so verbessern, wodurch die Qualität der Dienstleistungen im Laufe der Zeit steigen wird. Dies ist im Sinne des Informationsmarketings erklärungsbedürftig und bedarf entsprechend guter Kommunikationsstrategien.
Neue Anforderungen an Transparenz und Erklärbarkeit
Kund*innen werden zunehmend Transparenz darüber erwarten, wie Entscheidungen durch KI-Systeme getroffen werden. Darin wird aber eine große Herausforderung liegen, da der Aufbau von Vertrauen in Technologie zum entscheidenden Faktor wird, wenn menschliche Komponenten nur noch eine untergeordnete Rolle spielen.
8 Fazit und Ausblick
Der Wegfall der traditionellen Leistungsfähigkeit des Dienstleistungsanbieters zugunsten von KI-basierten Systemen führt zu einer Verlagerung des Schwerpunkts im Informationsmarketing. Technologische Kompetenz, Transparenz, Personalisierung, Datenqualität und die kontinuierliche Verbesserung der Dienstleistungen werden zentrale Marketingbotschaften sein müssen. Nur durch eine klare und schlüssige Kommunikation dieser Aspekte können Unternehmen das Vertrauen und die Zufriedenheit der Kund*innen stärken und sich als führende Anbieter in diesem zunehmend technologiegetriebenen Markt positionieren.
Aber eines wird sich vor allem ändern: Die Kriterien für die objektive Qualität werden nicht mehr durch ein Unternehmen definiert und festgelegt, sondern möglicherweise und wahrscheinlich durch eine Kombination aus wissenschaftlicher Forschung, Industrie- und KI-Standards, regulatorischen Vorgaben und die aktive Einbindung der Nutzer*innen.
Bezüglich der Informationsdienstleistungen, die durch KI-Systeme erbracht werden, steht man vor großen Herausforderungen, doch diese wiederholen sich in regelmäßigen Abständen. Man darf also optimistisch bleiben, dass die Vorteile der KI überwiegen werden, wenn die Unternehmen mit klaren Botschaften über die Möglichkeiten, Vorteile und Gefahren aufklären.
© 2024 bei den Autoren, publiziert von Walter de Gruyter GmbH, Berlin/Boston
Dieses Werk ist lizensiert unter einer Creative Commons Namensnennung 4.0 International Lizenz.
Articles in the same Issue
- Frontmatter
- Editorial
- Aus den Verbänden
- Finanzkrise der kommunalen Haushalte schlägt sich auch auf Bibliotheken durch
- Leseförderung ist Kernaufgabe der Öffentlichen Bibliotheken
- Erfolgreiche 25. DINI-Jahrestagung
- OCLC veröffentlicht Positionspapier zu Linked Data
- Rezension
- Rezension des „Farbenbuches“ – herausgegeben von Stefan Muntwyler, Juraj Lipscher und Hanspeter Schneider
- Tagungsbericht
- Tagungsbericht zum Sächsischen Werkstatttag für Bestandserhaltung
- Themen
- Marketing von elektronischen Informationsdienstleistungen
- #networkframework – Next Generation Informationskompetenz für Forschende
- Historische Obstsorten neu entdeckt: Citizen Science an der Universitätsbibliothek Kiel
- Notizen und Kurzbeiträge
- Notizen und Kurzbeiträge
Articles in the same Issue
- Frontmatter
- Editorial
- Aus den Verbänden
- Finanzkrise der kommunalen Haushalte schlägt sich auch auf Bibliotheken durch
- Leseförderung ist Kernaufgabe der Öffentlichen Bibliotheken
- Erfolgreiche 25. DINI-Jahrestagung
- OCLC veröffentlicht Positionspapier zu Linked Data
- Rezension
- Rezension des „Farbenbuches“ – herausgegeben von Stefan Muntwyler, Juraj Lipscher und Hanspeter Schneider
- Tagungsbericht
- Tagungsbericht zum Sächsischen Werkstatttag für Bestandserhaltung
- Themen
- Marketing von elektronischen Informationsdienstleistungen
- #networkframework – Next Generation Informationskompetenz für Forschende
- Historische Obstsorten neu entdeckt: Citizen Science an der Universitätsbibliothek Kiel
- Notizen und Kurzbeiträge
- Notizen und Kurzbeiträge