Home Library & Information Science, Book Studies Wie speichert man Wissen? Von Büchern zu Wissensgraphen und Sprachmodellen
Article
Licensed
Unlicensed Requires Authentication

Wie speichert man Wissen? Von Büchern zu Wissensgraphen und Sprachmodellen

Zusammenfassung eines Online-Vortrags am 22. April 2024 im Rahmen der DGI-Vortragsreihe „Künstliche Intelligenz – Vom Wunderkind zum Allrounder“
  • Ralf Krestel

    Prof. Dr. Ralf Krestel

    ORCID logo
Published/Copyright: January 15, 2025

Zusammenfassung

Heutige Computeranwendungen sind in der Lage, große Mengen an Wissen zu speichern. Neben großen Sprachmodellen (LLMs), wie ChatGPT, finden auch Wissensgraphen, welche Fakten in Form von Tripeln speichern, Anwendung in modernen Informations- und Wissenssystemen. Diese Zusammenfassung eines Vortrags liefert eine Einführung in diese Technologien und zeigt anhand von Beispielen, wie diese funktionieren und was ihre Stärken und Schwächen sind.

Abstract

Today’s computer applications are able to store large amounts of knowledge. In addition to large language models (LLMs), such as ChatGPT, knowledge graphs, which store facts in the form of triples, are also used in modern information and knowledge systems. This summary of a lecture provides an introduction to these technologies and uses examples to show how they work and what their strengths and weaknesses are.

Résumé

Les applications informatiques actuelles sont capables de stocker de grandes quantités de connaissances. Outre les grands modèles de langage (LLM), tels que ChatGPT, les graphes de connaissances, qui stockent les faits sous forme de triplets, sont également utilisés dans les systèmes d’information et de connaissances modernes. Ce résumé d’une conférence fournit une introduction à ces technologies et montre, à l’aide d’exemples, comment elles fonctionnent et quels sont leurs points forts et leurs points faibles.

Über den Autor / die Autorin

Ralf Krestel

Prof. Dr. Ralf Krestel

Literatur

Bolukbasi, Tolga u. a. „Man is to computer programmer as woman is to homemaker? debiasing word embeddings“. In: Advances in neural information processing systems 29 (2016).Search in Google Scholar

Dagdelen, John u. a. „Structured information extraction from scientific text with large language models“. In: Nature Communications 15.1418 (2024).10.1038/s41467-024-45563-xSearch in Google Scholar

Firth, JR. „A synopsis of linguistic theory 1930–1955“. In: Studies in Linguistic Analysis (1957), S. 1–31.Search in Google Scholar

Guidotti, Riccardo u. a. „A survey of methods for explaining black box models“. In: ACM computing surveys (CSUR) 51.5 (2018), S. 1–42.10.1145/3236009Search in Google Scholar

Hogan, Aidan u. a. „Knowledge graphs“. In: ACM Computing Surveys (Csur) 54.4 (2021), S. 1–37.Search in Google Scholar

Huang, Lei u. a. „A survey on hallucination in large language models: Principles, taxonomy, challenges, and open questions“. In: arXiv preprint arXiv:2311.05232 (2023).10.1145/3703155Search in Google Scholar

Lenat, Douglas B. „CYC: A large-scale investment in knowledge infrastructure“. In: Communications of the ACM 38.11 (1995), S. 33–38.10.1145/219717.219745Search in Google Scholar

Mikolov, Tomas u. a. „Distributed representations of words and phrases and their compositionality“. In: Advances in neural information processing systems 26 (2013).Search in Google Scholar

Mikolov, Tomás u. a. „Efficient Estimation of Word Representations in Vector Space“. In: International Conference on Learning Representations (ICLR), Workshops. 2013.Search in Google Scholar

Petroni, Fabio u. a. „Language Models as Knowledge Bases?“ In: Proceedings of the 2019 Conference on Empirical Methods in Natural Language Processing and the 9th International Joint Conference on Natural Language Processing (EMNLP-IJCNLP). ACL, 2019, S. 2463–2473.10.18653/v1/D19-1250Search in Google Scholar

Wei, Xiaokai u. a. „Knowledge enhanced pretrained language models: A compreshensive survey“. In: arXiv preprint arXiv:2110.08455 (2021).Search in Google Scholar

Zhao, Wayne Xin u. a. „A survey of large language models“. In: arXiv preprint arXiv:2303.18223 (2023).Search in Google Scholar

Online erschienen: 2025-01-15
Erschienen im Druck: 2025-01-14

© 2024 Walter de Gruyter GmbH, Berlin/Boston

Downloaded on 4.2.2026 from https://www.degruyterbrill.com/document/doi/10.1515/iwp-2024-2049/html
Scroll to top button