Startseite Bibliotheks- & Informationswissenschaft, Buchwissenschaft Wie speichert man Wissen? Von Büchern zu Wissensgraphen und Sprachmodellen
Artikel
Lizenziert
Nicht lizenziert Erfordert eine Authentifizierung

Wie speichert man Wissen? Von Büchern zu Wissensgraphen und Sprachmodellen

Zusammenfassung eines Online-Vortrags am 22. April 2024 im Rahmen der DGI-Vortragsreihe „Künstliche Intelligenz – Vom Wunderkind zum Allrounder“
  • Ralf Krestel

    Prof. Dr. Ralf Krestel

    ORCID logo
Veröffentlicht/Copyright: 15. Januar 2025
Veröffentlichen auch Sie bei De Gruyter Brill

Zusammenfassung

Heutige Computeranwendungen sind in der Lage, große Mengen an Wissen zu speichern. Neben großen Sprachmodellen (LLMs), wie ChatGPT, finden auch Wissensgraphen, welche Fakten in Form von Tripeln speichern, Anwendung in modernen Informations- und Wissenssystemen. Diese Zusammenfassung eines Vortrags liefert eine Einführung in diese Technologien und zeigt anhand von Beispielen, wie diese funktionieren und was ihre Stärken und Schwächen sind.

Abstract

Today’s computer applications are able to store large amounts of knowledge. In addition to large language models (LLMs), such as ChatGPT, knowledge graphs, which store facts in the form of triples, are also used in modern information and knowledge systems. This summary of a lecture provides an introduction to these technologies and uses examples to show how they work and what their strengths and weaknesses are.

Résumé

Les applications informatiques actuelles sont capables de stocker de grandes quantités de connaissances. Outre les grands modèles de langage (LLM), tels que ChatGPT, les graphes de connaissances, qui stockent les faits sous forme de triplets, sont également utilisés dans les systèmes d’information et de connaissances modernes. Ce résumé d’une conférence fournit une introduction à ces technologies et montre, à l’aide d’exemples, comment elles fonctionnent et quels sont leurs points forts et leurs points faibles.

Über den Autor / die Autorin

Ralf Krestel

Prof. Dr. Ralf Krestel

Literatur

Bolukbasi, Tolga u. a. „Man is to computer programmer as woman is to homemaker? debiasing word embeddings“. In: Advances in neural information processing systems 29 (2016).Suche in Google Scholar

Dagdelen, John u. a. „Structured information extraction from scientific text with large language models“. In: Nature Communications 15.1418 (2024).10.1038/s41467-024-45563-xSuche in Google Scholar

Firth, JR. „A synopsis of linguistic theory 1930–1955“. In: Studies in Linguistic Analysis (1957), S. 1–31.Suche in Google Scholar

Guidotti, Riccardo u. a. „A survey of methods for explaining black box models“. In: ACM computing surveys (CSUR) 51.5 (2018), S. 1–42.10.1145/3236009Suche in Google Scholar

Hogan, Aidan u. a. „Knowledge graphs“. In: ACM Computing Surveys (Csur) 54.4 (2021), S. 1–37.Suche in Google Scholar

Huang, Lei u. a. „A survey on hallucination in large language models: Principles, taxonomy, challenges, and open questions“. In: arXiv preprint arXiv:2311.05232 (2023).10.1145/3703155Suche in Google Scholar

Lenat, Douglas B. „CYC: A large-scale investment in knowledge infrastructure“. In: Communications of the ACM 38.11 (1995), S. 33–38.10.1145/219717.219745Suche in Google Scholar

Mikolov, Tomas u. a. „Distributed representations of words and phrases and their compositionality“. In: Advances in neural information processing systems 26 (2013).Suche in Google Scholar

Mikolov, Tomás u. a. „Efficient Estimation of Word Representations in Vector Space“. In: International Conference on Learning Representations (ICLR), Workshops. 2013.Suche in Google Scholar

Petroni, Fabio u. a. „Language Models as Knowledge Bases?“ In: Proceedings of the 2019 Conference on Empirical Methods in Natural Language Processing and the 9th International Joint Conference on Natural Language Processing (EMNLP-IJCNLP). ACL, 2019, S. 2463–2473.10.18653/v1/D19-1250Suche in Google Scholar

Wei, Xiaokai u. a. „Knowledge enhanced pretrained language models: A compreshensive survey“. In: arXiv preprint arXiv:2110.08455 (2021).Suche in Google Scholar

Zhao, Wayne Xin u. a. „A survey of large language models“. In: arXiv preprint arXiv:2303.18223 (2023).Suche in Google Scholar

Online erschienen: 2025-01-15
Erschienen im Druck: 2025-01-14

© 2024 Walter de Gruyter GmbH, Berlin/Boston

Heruntergeladen am 4.2.2026 von https://www.degruyterbrill.com/document/doi/10.1515/iwp-2024-2049/pdf
Button zum nach oben scrollen