Künstliche Intelligenz (KI) ist das Thema der Stunde. Mit dem Release von ChatGPT am 30. November 2022 wurde für alle Welt sichtbar, was sich über Jahrzehnte ganz ohne öffentliches Scheinwerferlicht entwickelt hat: Neue, leistungsstarke KI-Technologien die vieles können, was bisher als dem Menschen vorbehalten galt. Durch den virtuosen Umgang mit menschlicher Sprache hat ChatGPT uns Menschen in besonderer Weise aufgerüttelt und KI blitzartig in das Bewusstsein der breiten Öffentlichkeit gerückt. Tätigkeiten wie das Verfassen von Sachtexten, Geschichten und Gedichten in beliebigen Stilen sowie das damit verbundene gekonnte Formulieren, Argumentieren, Erklären und Beraten wurden bisher als kreative Leistungen wahrgenommen. Kreativität galt als etwas rein Menschliches, das sich nicht berechnen lässt. KI-Sprachmodelle haben uns nun etwas Besseres gelehrt. Sie errechnen auf Basis riesiger Mengen an textuellen Trainingsdaten wahrscheinlichkeitsbasiert neue, gut formulierte und argumentativ ausgewogene Texte von zum Teil hoher Qualität. Damit stellen sie eine „narzisstische Kränkung des Menschen“ dar, wie Prof. Dr. Doris Weßels es im Rahmen ihres Vortrags in der DGI-Reihe „Künstliche Intelligenz – Vom Wunderkind zum Allrounder“ ausgedrückt hat.
KI wird zu Recht heiß diskutiert. Die neuen Technologien bergen große Chancen und zugleich enorme Risiken. Vieles ist unklar und selbst Kenner der KI-Szene machen keine Aussagen, wie sich der Einsatz von KI auf das individuelle Leben von uns Menschen, die Arbeitswelt oder Gesellschaftsordnungen tatsächlich auswirken wird. Sicher ist aber: KI wirkt disruptiv. Bestehende Prozesse und Gewohnheiten werden fundamental neu geordnet. Wie hoch die Wahrscheinlichkeit für sehr große Umwälzungen eingeschätzt wird, zeigt der offene Brief des Future of Life Instituts (Future of Life, 2023). In ihm fordern namhafte Persönlichkeiten aus verschiedenen Bereichen eine sofortige sechsmonatige Pause bei der Weiterentwicklung von KI-Technologien. Die Zeit müsse zur Beratung über die Folgen der sich rasch ausbreitenden und immer mächtiger werdenden KI-Anwendungen genutzt werden, um fatale Fehlentwicklungen zu verhindern.
KI-Pause hin oder her: wir haben es nicht mit einem kurzlebigen Trend zu tun, der wieder vorüber geht. KI wird bleiben. Vor diesem Hintergrund erscheint es sinnvoll, den Blick auf den eigenen Wirkungsbereich zu lenken und KI im Zusammenspiel mit Informationsinfrastrukturen zu betrachten. Schnell wird klar, dass man ein sehr komplexes Thema vor sich hat. KI hat viele Talente. Doch wo kreiert sie Werte für das Informationswesen? Wo kann sie disruptiv wirken und Bestehendes grundlegend verändern? Man kann sich diesen Fragen über die Wertschöpfungskette von KI bzw. KI-Sprachmodellen (AI Stack) nähern, die durch fünf sequentiell ablaufende Schritte beschrieben werden kann. Zunächst müssen Daten kreiert bzw. gesammelt werden. Hierauf folgt der Prozess der Datenkuratierung zur Bereitstellung einer konsistenten Datenbasis durch Konvertierung und Bereinigung von gesammelten Rohdaten. Die nächsten Schritte dienen dem allgemeinen Training und dem Feintuning der gewählten KI-Technologie. Das Feintuning hat zum Ziel, ein mit eher allgemeinen Daten trainiertes Modell für einen gewinnbringenden Einsatz in einer fachlichen Domäne zu spezialisieren. Schritt fünf beschäftigt sich schließlich mit der Entwicklung von konkreten Anwendungen für Nutzende in einem Fachgebiet (Höppner & Streatfeild, 2023; sowie für eine ausführliche Behandlung von Wertschöpfung und KI, Wodecki, 2018). Aus informationswissenschaftlicher Sicht ergibt sich wie so häufig zunächst ein Terminologieproblem mit Blick auf den Begriff Daten. Denn legt man die Wissenstreppe nach North (North, 2016) zugrunde, wird man sich auf dem Weg durch den skizzierten AI Stack häufig auf einer höheren Stufe wiederfinden und es mit in Dokumenten gebundenem Wissen zu tun haben. KI selbst sind diese Begriffe und Abgrenzungen völlig fremd. Abgesehen davon wird deutlich, dass sich Informationsarbeit nicht einfach einer Stufe der Wertschöpfungskette zuordnen lässt. Eine Konzentration auf eine oder wenige dieser Tätigkeitsbereiche fällt schwer. Die Aufgabe, KI im Bereich von Informationsinfrastrukturen sinnvoll einzusetzen ist also per se sehr umfangreich. Auch eine Antwort auf die Frage, wo Mehrwerte durch KI entstehen, ist vielschichtig. KI kann informationswissenschaftliche Arbeit unterstützen, wie dies z. B. bei der Deutschen Nationalbibliothek der Fall ist. Hier werden automatische Indexierungsverfahren zur Inhaltserschließung bereits seit längerer Zeit erfolgreich eingesetzt und es wird an neuen KI-basierten Verfahren geforscht (DNB, o. J.). Wie die Diskussion um das mögliche Ende der Trefferlisten zeigt, sind aber noch viel weitreichendere, disruptiv wirkende Anwendungsszenarien von KI denkbar (Bager, 2023; Vatter, 2023; Kullmann a, 2023). Auch die in den Markt drängenden AI Research Assistants lassen dies erahnen (Kullmann b, 2023). Zu diesen gleich noch ein paar der Worte mehr.
Spannend ist zunächst ein Blick auf die Produkte, die ChatGPT & Co. für uns erstellen. KI-Sprachmodelle können auf Eingabe einer mehr oder weniger detaillierten Benutzeranfrage, dem sogenannten Prompt, einen Antworttext generieren. Die Basis bildet eine sehr große Zahl an verschiedenen Texten, mit denen das KI-Sprachmodell trainiert wurde. Der genaue Umfang und Inhalt der Trainingsbasis bleibt zumindest für den Nutzenden zumeist eine Black Box. Wie die generierten Antworttexte einzustufen sind, ist nicht nur aus informationswissenschaftlicher Sicht eine sehr interessante Frage. Diese Perspektive behandelt aber etwas sehr Grundlegendes: Mit was hat man es hier eigentlich zu tun? Der automatisch generierte Antworttext ist auf einen individuellen Prompt hin errechnet worden, kann vom Bildschirm abgelesen werden, ist aber im Grunde flüchtig. Aufgrund der Funktionsweise von KI-Sprachmodellen lassen sich Texte auch bei gleichem Prompt nicht exakt reproduzieren. Natürlich kann der generierte Antworttext kopiert und durch das Abspeichern z. B. im PDF-Format zu einem Objekt mit festen Grenzen werden. Liegt aber dann ein echtes Dokument vor? Der Dokumentbegriff ist nicht eindeutig definiert (vgl. Bertram, 2005; Buckland, 2013). Seine Anwendbarkeit ist hier aber zu hinterfragen. Für ein klassisches, zitierfähiges Dokument fehlen jedenfalls zentrale Merkmale. Ein sehr wichtiges ist eine eindeutig identifizierbare Autorenschaft. Auch inhaltlich ist der Antworttext unter Umständen eine „Wundertüte“, denn die KI rechnet zwar immer richtig, kann aber faktisch vollständig daneben liegen und Unwahres halluzinieren, wie es Experten ausdrücken. Noch komplizierter wird es, wenn neue Sprachmodelle wie GPT-4 multimodal arbeiten und verschiedene Medienformen miteinander verbinden.
Doch bleiben wir bei automatisch generierten Texten. Zur Zitierung machen die in den Markt drängenden AI Research Assistants erste Lösungsvorschläge. Sie versprechen, Forschende bei der Literatursuche, -auswahl und -bearbeitung systematisch zu unterstützen und die Erhebung eines verlässlichen Forschungsstands erheblich zu beschleunigen. Zum Leistungsumfang gehören auch automatisch generierte Texte, die als relevant eingestufte Forschungsliteratur in Beziehung zueinander und zum geprompteten Forschungskontext setzen. Ought, eine Non-Profit Organisation, die hinter der KI-basierten Forschungsassistenz Elicit[1] steht, empfiehlt die Angabe der Nutzung über eine klassisch anmutende Zitierung in folgendem Format:
Ought; Elicit: The AI Research Assistant; https://elicit.org; accessed xxxx/xx/xx
Damit wird der Einsatz einer KI-Assistenz in einem Arbeitskontext dokumentiert, die Darstellung greift aber zu kurz. Von entscheidender Bedeutung ist der nicht reproduzierbare Text, der nach Eingabe einer Fragestellung automatisch generiert wurde. Wie ist hier zu verfahren? Eine Möglichkeit ist die Übernahme in unveränderter oder überarbeiteter Form in eigene Texte ohne eine genaue Kennzeichnung der entsprechenden Textpassagen. Dabei entstehen im Sinne guter wissenschaftlicher Praxis jedoch umgehend Bauchschmerzen. Stellt ein gut formulierter Prompt eine geistige Schöpfung dar und kann durch ihn automatisch generierter Text in der Folge als Eigenleistung deklariert werden? Schwierig. Eine andere Möglichkeit wäre, die KI-Assistenz als Autor anzuerkennen. Damit müssten die flexibel generierten Informationsprodukte „aus dieser Feder“ wie bereits beschrieben persistent gemacht und überprüfbar bereitstellt werden, wenn sie in andere neu erstellte Texte einfließen sollen und dementsprechend zitiert werden müssen. So sehr dies wünschenswert wäre, realistisch ist es nicht. Von KI generierte Texte lassen sich nicht zuverlässig von durch Menschen erstellte schriftlichen Ausarbeitungen unterscheiden (Spiegel Online, 2023). Zudem: Kann KI eine Autorenschaft zugestanden werden? Sind automatisch generierte Text- oder Informationsprodukte überhaupt zitierfähig? Und wie soll vor dem Hintergrund mangelnder Kontrollmöglichkeiten festgestellt werden, ob eine solche Regelung befolgt wird? Überlegungen zur Autorenschaft von durch Mensch und KI gemeinsam erstellten Texten gibt es bereits (Bajohr, 2022). Allgemein anerkannte Praktiken fehlen aber bislang und müssen dringend entwickelt werden. Forschende und Lehrende diskutieren dies aktuell sehr intensiv. Auswirkungen auf die Regeln guter wissenschaftlicher Praxis sind zu erwarten.
Nach einem Blick auf Zitier- und Verhaltensfragen wechseln wir in eine andere Flughöhe und wenden uns noch einmal Informationsinfrastrukturen als Ganzes zu. Auch hier ist ein Blick auf AI Research Assistants interessant. Denn was zunächst nach einem einfachen Tool zur Rechercheunterstützung aussieht, wird bei genauerem Hinsehen schnell sehr groß. Hinter den schlank wirkenden, webbasierten Benutzerschnittstellen von Elicit, SciSpace Copilot, Iris.ai & Co. stehen sehr umfangreiche Informationsinfrastrukturen und viel KI. SciSpace Copilot gibt beispielsweise an, über den Zugriff auf Metadaten von mehr als 200 Millionen wissenschaftlichen Aufsätzen und über 50 Millionen Volltexten aus Open Access-Publikationen verschiedener Fachgebiete zu verfügen (Typeset, o. J.). Das ist beeindruckend und lässt aufhorchen. Technisch verbinden KI-Assistenten verschiedene Konzepte miteinander und nutzen z. B. semantische Technologien in Form von Knowlegde oder Citation Graphen in Kombination mit KI-Sprachmodellen, wie bei Elicit (Ought, o. J.) nachzulesen ist. Informationsinfrastrukturen, die sich seit jeher an das veränderte Nutzungsverhalten ihrer Kunden anpassen und neue technische Möglichkeiten für ihre Zwecke nutzen, steht mit Sicherheit ein Innovationsschub bevor. Welchen Einfluss KI-Sprachmodelle auf die Relevanz klassischer, informationswissenschaftlicher Erschließungswerkzeuge wie Klassifikationen oder Thesauri haben werden, bleibt abzuwarten.
Abschließend sei noch ein Blick auf zwei weitere klassische Forschungs- und Arbeitsbereiche der Informationswissenschaft gelegt. KI-Sprachmodelle schicken sich an, das Informationsverhalten bei der Suche nach geeigneten Informationen zu verändern. Sollten sich im Moment der Anfrage (des Promptens) entstehende, individuelle Informationsprodukte durchsetzen und die klassischen Suchergebnislisten einer AI Chatbox weichen, wird dies weitreichende Auswirkungen haben auf die Art und Weise wie wir nach Informationen suchen. Zugleich wird Informationskompetenz neu definiert werden müssen. Der bisherige Suchprozess würde in diesem Fall stark verkürzt. Er bestünde dann nur noch aus dem Verfassen einer perfekt formulierten Suchanfrage in Form eines schlüssigen Prompts und – im Idealfall – dem kritischen Bewerten des gelieferten Informationsprodukts, dem Antworttext.
Zusammenfassend kann man sagen: Die Zukunft hat begonnen. Das haben die großen Informationsinfrastruktur-Betreiber erkannt. Viele interessante Projekte, darunter die Forschungen zu Information Profiling and Retrieval an der ZBW, die Arbeit an einem ScienceGRAPH an der Technischen Informationsbibliothek (TIB) und an einem Wissensgraph am Informationszentrum Bildung des Leibniz-Instituts für Bildungsforschung und Bildungsinformation sowie die Entwicklung des KI-Frameworks Annif belegen dies.
Referenzen
Bager, Jo. (2023). Das Ende der Trefferlisten? Suchmaschinen beantworten Fragen mithilfe von KI. https://www.heise.de/select/ct/2023/4/2300610555933424240. 01.04.2023.Search in Google Scholar
Bajohr, Hannes. (2022). Schreibenlassen: Texte zur Literatur im Digitalen (Erste Auflage). August Verlag.Search in Google Scholar
Bertram, Jutta. (2005). Einführung in die inhaltliche Erschließung. Content and communication: terminology, language resources and semantic interoperability, International Network for Terminology (Hrsg.). Ergon Verlag, Würzburg.Search in Google Scholar
Buckland, Michael. (2013). Preprint of: Document Theory: An Introduction, pp 223–237 in: Records, Archives and Memory: Selected Papers from the Conference and School on Records, Archives and Memory Studies, University of Zadar, Croatia, May 2013. Ed. by Mirna Willer, Anne J. Gilliland and Marijana Tomić. Zadar: University of Zadar, 2015. ISBN 978-953-331-080-0.Search in Google Scholar
DNB. (o. J.). Automatisches Erschließungssystem: Projekt Inhaltliche Erschließung mit KI. https://www.dnb.de/DE/Professionell/ProjekteKooperationen/Projekte/KI/KI.html. 31.03.2023.Search in Google Scholar
Höppner, Thomas und Luke Steatfeild. (2023). ChatGPT, Bard & Co.: An Introduction to AI for Competition and Regulatory Lawyers. https://papers.ssrn.com/sol3/papers.cfm?abstract_id=4371681. 02.04.2023.10.2139/ssrn.4371681Search in Google Scholar
Kullmann, Sylvia (a). (2023). Das Ende der Trefferlisten: Informationsinfrastrukturen und KI. https://dgi-info.de/das-ende-der-trefferlisten-informationsinfrastrukturen-und-ki/. 01.04.2023.Search in Google Scholar
Kullmann, Sylvia (b). (2023). AI Research Assistants und ihre Bedeutung für Informationsinfrastrukturen. https://dgi-info.de/artificial-intelligence-ai-research-assistants-und-ihre-bedeutung-fuer-informationsinfrastrukturen/. 01.04.2023.Search in Google Scholar
Future of Life. (2023). Pause Giant AI Experiments: An Open Letter – Future of Life Institute. https://futureoflife.org/open-letter/pause-giant-ai-experiments/. 03.04.2023.Search in Google Scholar
North, Klaus. (2016). Die Wissenstreppe. In: Wissensorientierte Unternehmensführung. Springer Gabler, Wiesbaden.10.1007/978-3-658-11643-9Search in Google Scholar
Ought; Elicit: The AI Research Assistant; https://elicit.org/faq. 03.04.2023.Search in Google Scholar
Spiegel Online. (2023). Kostenloses Tool soll KI-generierte Texte erkennen helfen. https://www.spiegel.de/netzwelt/apps/chatgpt-kostenloses-tool-soll-ki-generierte-texte-erkennen-helfen-a-b8a8e596-9adf-44de-bfb0-e736a1416b6e. 01.04.2023.Search in Google Scholar
Typeset; Scispace: About Scispace. https://typeset.io/t/about/. 03.04.2023.Search in Google Scholar
Vatter, André. (2023). ChatGPT & Co.: When the Search Slot turns into an AI Chatbox. https://www.zbw-mediatalk.eu/2023/03/chatgpt-co-when-the-search-slot-turns-into-an-ai-chatbox/. 01.04.2023.Search in Google Scholar
Wodecki, Andrzej. (2018). Artificial Intelligence in Value Creation. Springer Gabler, Wiesbaden.10.1007/978-3-319-91596-8Search in Google Scholar
© 2023 Walter de Gruyter GmbH, Berlin/Boston
Articles in the same Issue
- Frontmatter
- Inhaltliche Erschließung
- Bibliothekarische Fachsystematiken am Deutschen Archäologischen Institut: 180 Jahre Wissensordnung
- Pressedokumentation
- Die Digitalisierung der Pressedokumentation beim Deutschen Bundestag – Ein problemorientierter Rückblick (Teil 2)
- Corrigendum
- Corrigendum zu: Desiderate zum Forschungsdatenmanagement 2013 und 2022
- Wissensmanagement
- Erfolgsdeterminanten agnotologischer Strategien im Wissensmanagement
- Informationsgesellschaft
- Vom Audience Development zum Community Building – Öffentliche Bibliotheken im Spannungsfeld zwischen Tradition und Co-Kreation
- Glosse
- Künstliche Intelligenz in der Informationswissenschaft
- Tagungsbericht
- Intercultural Perspectives on Information Literacy and Metaliteracy
- Informationen
- Informationen
- Buchbesprechung
- Paradoxes of Media and Information Literacy: The Crisis of Information. Jutta Haider und Olof Sundin. – London; New York: Taylor & Francis Routledge, 2022. 174 S. – ISBN 9780367756215 (hardback) 130,– GBP | ISBN 9780367756192 (paperback) 35,99 GBP | ISBN 9781003163237 (ebook) OA. DOI: 10.4324/9781003163237
- Nachrichten
- Nachrichten
- Aus der DGI
- Aus der DGI
- Terminkalender
- Terminkalender
Articles in the same Issue
- Frontmatter
- Inhaltliche Erschließung
- Bibliothekarische Fachsystematiken am Deutschen Archäologischen Institut: 180 Jahre Wissensordnung
- Pressedokumentation
- Die Digitalisierung der Pressedokumentation beim Deutschen Bundestag – Ein problemorientierter Rückblick (Teil 2)
- Corrigendum
- Corrigendum zu: Desiderate zum Forschungsdatenmanagement 2013 und 2022
- Wissensmanagement
- Erfolgsdeterminanten agnotologischer Strategien im Wissensmanagement
- Informationsgesellschaft
- Vom Audience Development zum Community Building – Öffentliche Bibliotheken im Spannungsfeld zwischen Tradition und Co-Kreation
- Glosse
- Künstliche Intelligenz in der Informationswissenschaft
- Tagungsbericht
- Intercultural Perspectives on Information Literacy and Metaliteracy
- Informationen
- Informationen
- Buchbesprechung
- Paradoxes of Media and Information Literacy: The Crisis of Information. Jutta Haider und Olof Sundin. – London; New York: Taylor & Francis Routledge, 2022. 174 S. – ISBN 9780367756215 (hardback) 130,– GBP | ISBN 9780367756192 (paperback) 35,99 GBP | ISBN 9781003163237 (ebook) OA. DOI: 10.4324/9781003163237
- Nachrichten
- Nachrichten
- Aus der DGI
- Aus der DGI
- Terminkalender
- Terminkalender