Home Sprachliche Studierfähigkeit im Spiegel produktiver und rezeptiver Wortschatzkompetenz
Article Publicly Available

Sprachliche Studierfähigkeit im Spiegel produktiver und rezeptiver Wortschatzkompetenz

  • Jupp Möhring

    studierte Deutsch als Fremdsprache, Soziologie und Journalistik an der Universität Leipzig. Derzeit ist er an der Technischen Universität Dresden und dem Institut für Testforschung und Testentwicklung e.V. tätig. Seine Arbeits- und Forschungsschwerpunkte sind die studienvorbe-reitende und -begleitende Förderung von Deutschkompetenzen internationaler Studierender, korpuslinguistische Fragestellungen und das zuverlässige Testen von Sprachkompetenzen. Das hier vorgestellte Projekt SpraStu koordinierte er 2017–2020 unter Leitung von Prof. Dr. Katrin Wisniewski an der Universität Leipzig.

    EMAIL logo
Published/Copyright: July 7, 2022

Zusammenfassung

Der Beitrag untersucht rezeptive und produktive Wortschatzkompetenzen von N = 340 internationalen Studierenden an deutschen Hochschulen mittels frequenzbasierter Wortschatztests. Es wird untersucht, inwiefern Wortschatzkompetenz und Studienerfolg zusammenhängen und ob die Absolvent:innen verschiedener Sprachtests zum Nachweis sprachlicher Studierfähigkeit (z. B. DSH, TestDaF) vergleichbare Wortschatzkompetenzen aufweisen.

Abstract

The article examines the receptive and productive vocabulary competences of N = 340 international students at German universities using frequency-based vocabulary tests. It is investigated to what extent vocabulary competence and academic success are connected and whether the graduates of different university admission language tests (e. g. DSH, TestDaF) show comparable vocabulary competences.

1 Einleitung

Die Zahl internationaler Studierender (~Bildungsausländer:innen) an deutschen Hochschulen erreichte im Wintersemester 2019/2020 mit knapp 320 000 einen neuen Höchststand (DAAD/DZHW 2021: 2) und folgt damit dem insgesamt anhaltenden Trend der zunehmenden gesellschaftlichen Akademisierung in Deutschland sowie weltweit (Neugebauer/Daniel/Wolter 2021: 2). Der Anteil internationaler Studierender an den Universitäten beträgt 12,7 %, während er an den Fachhochschulen mit 8,4 % etwas geringer ausfällt. Die überwiegende Mehrheit der internationalen Studierenden strebt einen Abschluss an einer deutschen Hochschule an (Bachelor: 38 %, Master: 39 %), lediglich ca. 8 % entfallen auf Programm- und Gaststudierende ohne Abschlussabsicht (DAAD/DZHW 2021: 2).

Die Studienabbruchquoten internationaler Studierender liegen mit 49 % im Bachelorstudium (deutsche Studierende: 27 %) und 26 % im Masterstudium (deutsche Studierende: 17 %) sehr hoch, wobei insbesondere bei den internationalen Bachelorstudierenden in den vergangenen Jahren ein negativer Trend zu beobachten ist (DAAD/DZHW 2020: 55). Warum Studienbiografien internationaler Studierender erfolgreich oder eben weniger erfolgreich verlaufen, ist weitgehend unerforscht. (Bildungs-)Sprachliche Schwierigkeiten scheinen auf den ersten Blick als erfolgshinderlicher Faktor auszuscheiden, da internationale Studierende ihre sprachliche Studierfähigkeit (Wollert/Zschill 2017) in der Regel durch einen in der Rahmenordnung über Deutsche Sprachprüfungen für das Studium an deutschen Hochschulen (RO-DT) (HRK/KMK 2019) vorgesehenen Sprachtest (HZST), die Deutsche Sprachprüfung für den Hochschulzugang – DSH, den Test Deutsch als Fremdsprache – TestDaF, den Prüfungsteil Deutsch der Feststellungsprüfung (FSP) an Studienkollegs oder das Deutsche Sprachdiplom der Kultusministerkonferenz, Zweite Stufe – DSD II, nachweisen müssen. Weiterhin gelten einige Prüfungen für erfolgreiche Absolvent:innen als befreiend vom Nachweis der sprachlichen Studierfähigkeit, zum Beispiel das Goethe Zertifikat C2: Großes Deutsches Sprachdiplom – GDS, das Österreichische Sprachdiplom C2 – ÖSD C2 oder telc C1 Hochschule (HRK/KMK 2019: 5). Obgleich das Konstrukt sprachliche Studierfähigkeit weder in der RO-DT noch im Europäischen Referenzrahmen für Sprachen (GER) (Europarat 2001) oder im 2018 bzw. 2020 erschienenen Companion volume/Begleitband (CoE 2018; Europarat et al. 2020) präzise beschrieben ist, erfolgt im Hochschulalltag häufig die Zuweisung des Sprachniveaus C1 für die oben genannten Sprachtests (Althaus 2018). An der Vergleichbarkeit (Koreik 2005), Durchlässigkeit und prognostischen Validität der verschiedenen sprachlichen Zulassungsverfahren bestehen indes berechtigte Zweifel (Wisniewski/Möhring 2021).

Abbildung 1 
					Niveaustufen der HZST, nach Althaus 2017, in fett die üblicherweise zur Zulassung für ein Studium notwendigen Niveaustufen (Wisniewski/Möhring 2021: 200)
Abbildung 1

Niveaustufen der HZST, nach Althaus 2017, in fett die üblicherweise zur Zulassung für ein Studium notwendigen Niveaustufen (Wisniewski/Möhring 2021: 200)

Trotz der im europäischen Vergleich für die Zulassung zum Studium mutmaßlich relativ hohen Zugangsvoraussetzungen (Deygers et al. 2018) werden sprachliche Hürden sowohl von Dozierenden als auch internationalen Studierenden an deutschen Hochschulen vermehrt als relevanter Faktor für mangelnden Studienerfolg benannt, aber bislang kaum empirisch erforscht (Wisniewski/Lenhard 2021: 205).

Der beschriebenen Forschungslücke näherte sich das 2017–2020 vom BMBF geförderte Projekt „Sprache und Studienerfolg bei Bildungsausländer:innen“ (SpraStu) mittels einer empirischen Längsschnittstudie, in welcher internationale Studierende an den Universitäten Leipzig und Würzburg hinsichtlich ihres Studienerfolgs in Abhängigkeit ihrer tatsächlichen Deutschkenntnisse zu Beginn (und im Verlauf) ihres Studiums, ihrer im Vorfeld erbrachten HZST sowie weiterer Faktoren wie Motivation, Sprachlernbiografie, akademische und soziale Integration und vieles andere mehr untersucht wurden (Seeger/Lenhard/Wisniewski 2021; Wisniewski 2018; Wisniewski/Lenhard 2021; Wisniewski et al. 2022; Wisniewski/Möhring 2021).

Aus den umfangreichen Projektergebnissen sollen im vorliegenden Beitrag empirische Befunde zur rezeptiven und produktiven Wortschatzkompetenz internationaler Studierender zu Beginn und im Verlauf ihres Studiums im Spiegel der erbrachten Nachweise zur sprachlichen Studierfähigkeit betrachtet werden. Weiterhin werden die gemessenen Wortschatzkompetenzen hinsichtlich ihrer prognostischen Validität für den Studienerfolg betrachtet. Konkret unternimmt der vorliegende Beitrag den Versuch, folgende Forschungsfragen zu beantworten:

  1. Welche Wortschatzkompetenzen weisen internationale Studierende zu Beginn ihres Studiums und im Verlauf der ersten Semester an einer deutschen Hochschule auf?

  2. Wie gut eignen sich frequenzbasierte Wortschatztests zur Erfassung produktiver und rezeptiver Wortschatzkompetenzen internationaler Studierender?

  3. Unterscheiden sich die Wortschatzkompetenzen internationaler Studierender in Abhängigkeit vom abgelegten Sprachtest zum Nachweis sprachlicher Studierfähigkeit?

  4. Gibt es einen Zusammenhang von Wortschatzkompetenz und Studienerfolg?

2 Hintergrund und Forschungsstand

2.1 Wortschatzkompetenz

Wortschatzkompetenz stellt ein wichtiges, wenn nicht das wichtigste Element beim Erlernen und Anwenden einer fremden (oder zweiten) Sprache und die Grundlage für die Entwicklung aller Fertigkeiten dar (Targońska/Stork 2013: 71). Die Beschreibung möglicher Dimensionen lexikalischer Kompetenz erfolgte in zahlreichen Modellen aus unterschiedlichen Fachperspektiven. Ein Wort zu kennen umfasst etwa nach Hallet und Königs (2010) 21 Subkompetenzen: ästhetische, didaktische, fachbezogene, fremdsprachliche, grammatische, interkulturelle, kommunikative, kulturelle, lernersprachliche, linguistische, literarische, metakognitive, methodisch-didaktische, pragmatische, professionelle, rezeptive, soziale, soziokulturelle, sprachliche, strategische und textgenerische Kompetenz (Hallet/Königs 2010: 390). In 18 Kategorien modelliert Nation (2013) lexikalisches Wissen – ausgehend von Form, Bedeutung und Gebrauch unterscheidet er unter anderem konsequent in produktive und rezeptive Wortschatzkompetenz (Nation 2013: 49).

Eine gängige Beschreibungsdichotomie unterscheidet bei der Beschreibung von Wortschatzkompetenz Wortschatztiefe (Depth) und Wortschatzbreite (Breadth), wobei Breite die Anzahl der Wörter beschreibt, die Lernende potenziell kennen (Bargmann 2011: 67), ohne dabei die Tiefe des Wissens zu berücksichtigen, welches es Lernenden ermöglicht, lexikalische Einheiten, sowohl mündlich als auch schriftlich, auf Satz- und Textebene zu verstehen und produktiv zu zusammenhängenden Äußerungen zu verwenden (Tschirner 2019: 104). Für die Messung der rezeptiven und produktiven Wortschatzbreite wird in der Regel Worthäufigkeit, basierend auf korpusbasierten Wortfrequenzlisten, in fertigkeitenbezogenen Wortschatztests operationalisiert (Stæhr 2009: 578–580). Der frequenzbezogene Wortschatzumfang ist dabei rezeptiv größer als produktiv (Webb 2008: 80). Zahlreiche Textdeckungsstudien haben gezeigt, dass 95–98 % der Wörter im Sinne von Wortfamilien eines Texts bekannt sein müssen, um diesen relativ mühelos verstehen und neue Wörter aus dem Kontext erschließen zu können (Laufer 2020). Für das Deutsche erreicht man eine entsprechende Textdeckung von ca. 95 % für Gespräche und Literatur (Bestseller) knapp mit den 5000 häufigsten Wörtern, für Zeitungs- und Fachtexte deckt dieser Wortschatzumfang im Durchschnitt deutlich unter 90 % der enthaltenen Lexik ab (Tschirner 2019: 99–100). Für in der Studieneingangsphase relevante Lehrbuchtexte erreicht man mit 5000 Wortfamilien eine Textdeckung von durchschnittlich ca. 86 %, wobei die Komplexität der Lexik zwischen Fachbereichen variiert (Möhring/Bärenfänger 2018: 556–562).

Die Beschreibung von lexikalischer Kompetenz im GER wird als Teil linguistischer Kompetenz zwar vorgenommen, ist jedoch nicht empirisch unterlegt und weist zahlreiche Unschärfen auf (Bargmann 2011: 62–66; Targońska/Stork 2013: 79–82). Die etwa in Profile Deutsch (Glaboniat et al. 2017) operationalisierte Umsetzung des GER in konkrete Wortlisten folgt überwiegend kommunikativ-pragmatischen Auswahlkriterien, welche einem Abgleich mit empirisch/korpuslinguistisch ermittelten Wortschatzinventaren nur bedingt standhalten (Tschirner 2019; Wallner/Möhring 2013). Eine exakte Zuordnung von Wortschatzkompetenz im Sinne frequenzbasierter Wortschatzbreite zu den Niveaustufen des GER steht bislang aus und kann wegen sprachspezifischer Eigenschaften, etwa hinsichtlich der Wortbildung, nicht pauschal und sprachübergreifend festgelegt werden (Milton 2010: 226–228). Studien für das Englische als Fremdsprache sehen Entsprechungen für das Niveau B1 etwa bei den 3000 und für C1 bei den ca. 4000 häufigsten Wörtern (Milton/Alexiou 2009). Für das Deutsche liegen erste Untersuchungen vor, wonach das Niveau B1 ebenfalls 3000, B2 jedoch 4000 und C1 mindestens 5000 Wörter umfasst (Tschirner 2019).

Zuverlässig gemessene rezeptive und produktive Wortschatzkompetenzen korrelieren stark mit allen vier Sprachfertigkeiten (Clenton/Booth 2021), wobei rezeptive Kompetenz naturgemäß eher einen Anhaltspunkt für Lesen und Hören, produktive für Schreiben und Sprechen bietet (Webb 2008: 79–80).

2.2 Wortschatzkompetenz und Studienerfolg

Der Zusammenhang von Wortschatzkompetenz und Studienerfolg wurde bislang vornehmlich im englischsprachigen Raum untersucht, wobei Studienerfolg meist mittels des Grade Point Average (GPA) erfasst wird. Masrai und Milton (2018) messen allgemeine und akademische rezeptive Wortschatzkompetenz sowie Studienerfolg bei 232 Studierenden (davon N = 16 L1 Englisch als Kontrollgruppe), wobei die Zielitems für die Messung der allgemeinen Wortschatzkompetenz (mittels XK-Lex Test of General Vocabulary Size) häufigkeitsbasiert die 10 000 häufigsten Wörter des Englischen abbilden; die Zielwörter für den akademischen Wortschatz basieren auf der akademischen Wortliste von Coxhead (2000). Neben einer ausführlichen Diskussion zum Einfluss von Worthäufigkeit auf die Schwierigkeit auch akademisch gebrauchter Wörter stellen sie fest, dass sowohl das akademische Wortwissen als auch, und ganz besonders, der Gesamtumfang des allgemeinen Wortschatzes wesentlich zur Erklärung der Varianz in den GPA-Werten beitragen (Masrai/Milton 2018: 53–55), rezeptive Wortschatzkompetenz also einen wesentlichen Faktor zur Erklärung des Studienerfolgs darstellt. Zu einem vergleichbaren Ergebnis kommen auch Masrai und Milton (2021), die zusammenfassend feststellen: „Having the right vocabulary knowledge is clearly crucial to academic success“ (Masrai/Milton 2021: 291). Für 74 internationale Studierende in UK finden auch Daller und Phelan (2013) mittels einer Auswahl wortschatzbezogener Testinstrumente einen signifikanten Zusammenhang von Sprachkompetenz und Studienerfolg.

Gleichwohl wird die Relevanz von Wortschatzkompetenz für Studienerfolg nicht in allen Studien bestätigt. Für 108 iranische Studierende in einem englischsprachigen Studiengang finden etwa Bahramlou und Yazdani (2013) keine signifikante Korrelation zum GPA und auch Wang-Taylor und Milton (2019) konnten für 60 internationale Studierende an britischen Hochschulen einen Vorteil für Studierende mit einer besonders ausgeprägten Wortschatzkompetenz nicht nachweisen.

Dessen ungeachtet lässt sich die Vorhersagekraft von Studienerfolg internationaler Studierender mittels valide gemessener Wortschatzkompetenz in der Mehrheit entsprechender Studien nachweisen (zusammenfassend dazu z. B. Daller/Phelan 2013: 174–179; Daller/Wang 2017: 358–360; Wang-Taylor/Milton 2019: 84–86) und für die dort aufgeführten Studien zusammenfassen: „Vocabulary knowledge is crucial at all educational levels“ (Daller/Phelan 2013: 179).

3 Studie und Methoden

3.1 Projekt

Die hier vorgestellten Daten basieren auf einigen wenigen Teilergebnissen aus dem Projekt SpraStu. In diesem wurden drei Kohorten internationaler Studierender (N = 340) an den Universitäten Leipzig und Würzburg bis zu drei Jahre begleitet und hinsichtlich zahlreicher möglicher Faktoren für (mangelnden) Studienerfolg untersucht.

Abbildung 2 
						Kohortendesign mit Haupterhebungzeiträumen (nach Wisniewski/Lenhard 2021: 209)
Abbildung 2

Kohortendesign mit Haupterhebungzeiträumen (nach Wisniewski/Lenhard 2021: 209)

Ein wesentlicher Schwerpunkt der Untersuchung bestand in der zuverlässigen Beschreibung von Sprachkompetenzen internationaler Studierender zu Beginn (T1) und im Verlauf ihres Studiums (T2, T3). Insgesamt wurden dazu unter anderem sechs standardisierte Sprachtests eingesetzt: der onSET zur Erfassung allgemeiner Sprachkompetenz, eine TestDaF-Schreibaufgabe, der ACTFL-Hör- und Lesetest sowie ein rezeptiver und ein produktiver Wortschatztest. Der vorliegende Beitrag konzentriert sich auf die Darstellung der Wortschatztests.[1] Weiterhin wurden soziodemografische und bildungsbiografische Vorbedingungen ermittelt, Lern- und Studierstrategien erfasst (Wisniewski et al. 2019) und besonders relevante schriftliche Sprachhandlungen erforscht, etwa das Schreiben von Klausuren und das Mitschreiben in Vorlesungen, welches im multimodalen wissenschaftssprachlichen Korpus MiKo (Mitschreiben in Vorlesungen: ein multimodales, methodentrianguliertes Lehr-Lern-Korpus) dokumentiert wurde. Ein weiteres Korpus wurde auf Grundlage schriftlicher Produktionen, vornehmlich der TestDaF-Schreibaufgabe, entwickelt: DISKO (Deutsch im Studium: Lernerkorpus) (Wisniewski/Lenhard 2021: 210).

3.2 Teilnehmende

Insgesamt nahmen N = 340 internationale Studierende an den Universitäten Leipzig (N = 267) und Würzburg (N = 73) freiwillig teil. Zur Teilnahme zugelassen wurden ausschließlich neu immatrikulierte Bachelor- und Staatsexamensstudierende; Studierende im Masterstudium nahmen nicht teil. Die Proband:innen (Pb) verteilen sich auf drei Kohorten: Kohorte 1 mit N = 129 Pb wurde von Beginn des Wintersemesters 2017/18 an begleitet, Kohorte 2 (N = 84) startete im WiSe 2018/19 und Kohorte 3 (N = 127) mit Beginn des WiSe 2019/20. Die häufigsten Herkunftsregionen waren Zentral- und Osteuropa (31 %), arabische Staaten (19 %), Ostasien und Pazifik (13 %), Lateinamerika/Karibik (9 %) und Nordamerika/Westeuropa (8 %) (ebd.: 211–213).

29,4 % der Stichprobe studieren geisteswissenschaftliche Fächer, 19 % Rechts-, Wirtschafts- und Sozialwissenschaften, 16 % entfallen auf Mathematik/Naturwissenschaften, 13 % studieren Medizin/Gesundheitswesen und lediglich 12 % Ingenieurwissenschaften, Letztere im Rahmen des Projekts ausschließlich durch das Fach Informatik vertreten.

Die Zusammensetzung der internationalen Studierenden in der beschriebenen Stichprobe weicht hinsichtlich Herkunftsregion und studierter Fächergruppen mithin etwas vom bundesdeutschen Durchschnitt (DAAD/DZHW 2021) ab, kann jedoch dessen ungeachtet als repräsentativ angesehen werden.

Zudem durchlief eine Kontrollgruppe deutsch-muttersprachlicher Studierender (N = 187) ausgewählte Erhebungen (Wisniewski/Lenhard 2021: 209).

3.3 Instrumente

Für die Bestimmung der rezeptiven und produktiven Wortschatzkompetenzen wurden häufigkeitsbasierte Wortschatztests vom Institut für Testforschung und Testentwicklung e. V. (ITT) bereitgestellt, dessen Internetauftritt auch illustrative Beispiele für die genutzten Tests umfasst (https://itt-leipzig.de/wortschatztests/; letzter Abruf 31.03.2022). Alle im Projekt SpraStu eingesetzten Sprachtests wurden unter kontrollierten Bedingungen und unter Aufsicht in geeigneten und mit der entsprechenden Technik ausgestatteten Räumlichkeiten der Universitäten Leipzig und Würzburg durchgeführt. Mit Ausnahme der TestDaF-Schreibaufgabe wurden die Tests internetbasiert am Computer absolviert und automatisch bewertet. Im Folgenden werden neben den Wortschatztests auch die Operationalisierung des objektiven Studienerfolgs und die Erfassung des abgelegten Sprachtests zum Nachweis sprachlicher Studierfähigkeit (HZST) beschrieben.

3.3.1 Wortschatztest: rezeptiv

Der rezeptive Wortschatztest Deutsch des ITT wurde nach dem Modell des Vocabulary Level Test (VLT) nach Paul Nation entwickelt (Nation 1983, 1990). Der VLT ist ein umfassend validiertes und in zahlreichen Studien eingesetztes Instrument zum Messen von rezeptiver Wortschatzkompetenz (Schmitt/Schmitt/Clapham 2001; Webb/Sasao/Ballance 2017). Er erfasst in der hier genutzten Version, wie viele der 5000 häufigsten Wörter des Deutschen den Testteilnehmenden rezeptiv bekannt sind; die Auswahl der frequenzbasierten Zielitems basiert auf Jones und Tschirner (2006), Tschirner (2008) sowie Tschirner und Möhring (2019). Der rezeptive Wortschatztest besteht aus fünf Niveaustufen bzw. Häufigkeitsbändern: den häufigsten 1000, 1001–2000, 2001–3000, 3001–4000 und 4001–5000 Wörtern. Der Test besteht aus zehn Clustern mit je sechs Wörtern für jeden der fünf oben beschriebenen Häufigkeitsbereiche. Jeder Bereich wird somit durch 60 Wörter repräsentiert. Diese Wörter umfassen 30 Substantive, 18 Verben und zwölf Adjektive und werden nach dem Zufallsprinzip aus den 1000 Wörtern eines Bandes ausgewählt. Jedes Cluster konzentriert sich auf eine Wortart, zum Beispiel Substantive (Tschirner 2021: 14), und enthält sechs Wörter und drei Definitionen (Synonyme, Paraphrasen oder Lückensätze). Drei der sechs Wörter sind Schlüsselwörter, das heißt, sie entsprechen den drei Definitionen, während drei Wörter zusätzliche Distraktoren darstellen. Für jedes Ziel eines Clusters werden dieselben sechs Wörter als Multiple-Choice- bzw. Matching-Auswahl-Optionen präsentiert, von denen eine für jedes Ziel ausgewählt werden soll. Jedes Band umfasst demnach 30 Aufgaben. Die maximale Punktzahl pro Band ist 30, also drei Punkte pro Cluster. Die maximale Gesamtpunktzahl für alle fünf Frequenzniveaus ist somit 150 (Tschirner 2021: 14). Ein Niveau gilt ab einem Cut Score von 24 von 30 (80 %) als bestanden, wobei im Fachdiskurs auch andere Werte Anwendung finden (Hacking/Rubio/Tschirner 2019: 32). Die Bearbeitungszeit betrug maximal 25 Minuten.

3.3.2 Wortschatztest: produktiv

Der produktive Wortschatztest Deutsch des ITT wurde nach dem Modell des Levels Test of Productive Vocabulary (Laufer/Nation 1999) entwickelt und stellt gleichfalls ein in zahlreichen Studien erprobtes und validiertes Instrument zur Bestimmung produktiver Wortschatzkompetenz dar (Webb 2008). Auch dieser Test überprüft die oben beschriebenen Häufigkeitsstufen der 1000 bis 5000 häufigsten Wörter des Deutschen und kann als Weiterentwicklung des oben beschriebenen VLT für produktive Wortschatzkompetenz bezeichnet werden (Laufer/Nation 1999: 37). Der Test misst den Umfang des produktiven Wortschatzes einer Person, das heißt die Wörter, die man sagen oder schreiben kann, um eine bestimmte Bedeutung auszudrücken. Der produktive Test besteht aus 18 Sätzen – einen für jedes Zielwort, das teilweise getilgt ist. Jedes Frequenzband wird somit durch 18 Wörter repräsentiert. Diese Wörter bestehen aus neun Substantiven, sechs Verben und drei Adjektiven, die zufällig aus den 1000 Wörtern eines Bandes ausgewählt werden. Die teilweise getilgten Zielwörter erscheinen in der Regel am Ende des Satzes, um ihre Bedeutung ermitteln zu können. Die ersten Buchstaben werden angegeben, um das Wort von anderen möglichen Wörtern abzugrenzen. Es werden so viele Buchstaben angegeben, wie zur Disambiguierung eines bestimmten Wortes erforderlich sind (ebd.) – bis zu 50 % der Buchstaben eines Wortes. Das heißt, wenn ein Wort aus einer ungeraden Anzahl von Buchstaben besteht, wird maximal die Hälfte der Buchstaben abzüglich eines Buchstabens angegeben. Alle Wörter eines bestimmten Satzes sind Teil desselben Häufigkeitsbandes oder eines häufigeren Bandes. In den Bereichen der 1000 und 2000 häufigsten Wörter sind die teilweise fehlenden Wörter unflektiert. In den höheren Niveaustufen können Flexionen notwendig sein, die Wörter also auch die Anwendung grammatischer Kenntnisse erfordern. Wörter werden nur dann als richtig bewertet, wenn sie zu 100 % richtig sind, einschließlich orthografischer und grammatikalischer Korrektheit. Die maximale Punktzahl pro Band ist 18, die maximale Gesamtpunktzahl für alle fünf Bereiche somit 90 (Tschirner 2021: 14–15). Ein Niveau gilt ab einem Cut Score von 14 von 18 (etwa 80 %) als bestanden. Die Bearbeitungszeit betrug maximal 25 Minuten.[2]

3.3.3 Studienerfolg

Der objektive Studienerfolg wurde in Form der erbrachten Studienleistungen pro Semester erfasst. Die Studienleistungen (erreichte Leistungspunkte, bestandene Module, Studierstatus) konnten für die internationalen Studierenden sowie die Kontrollgruppe an der Universität Leipzig zentral in Zusammenarbeit mit dem Studiendatenmonitoring (Frühwarnsystem) des Projekts „Plan A – Dein Plan. Dein Weg. Deine Wahl.“ ermittelt werden, für die Pb aus Würzburg basieren die Angaben auf von den Studierenden zur Verfügung gestellten Transcript of Records. Um die, insbesondere zwischen den Bachelor- und Staatsexamensstudiengängen, variierenden Systeme der Leistungsmessung zu einem fächerübergreifend vergleichbaren Erfolgsindikator zusammenzufassen, wurden die Leistungen entsprechend den semesterweise in den Prüfungsordnungen der einzelnen Fächer vorgesehenen Zielvorgaben in Prozent skaliert, wobei in BA-Studiengängen üblicherweise 30 ECTS-Punkte pro Semester der Bezugsnorm entsprechen, in Staatsexamensstudiengängen, etwa Medizin, die Anzahl der pro Semester zu bestehenden Module (Wisniewski 2022). Neben den objektiven Studienleistungen wurden Indikatoren des subjektiven Studienerfolgs (Zufriedenheit, Zielbindung, Abbruchneigung, Belastungsempfinden etc.) in Befragungen erfasst (Wisniewski et al. 2020: 281, 302).

3.3.4 Sprachliche Studierfähigkeit/HZST

Neben zahlreichen weiteren, potenziell studienerfolgsrelevanten Faktoren gaben die Pb die Art, den Zeitpunkt und das Ergebnis des abgelegten HZST in einem Fragebogen zu Studienvorbedingungen an. Für einen Teil der Angaben (betrifft TestDaF und DSH) erfolgte mit entsprechendem Einverständnis der Pb die Verifizierung der Angaben durch die betreffenden Testinstitutionen. Für die Analysen wurden, soweit verfügbar, die überprüften Angaben, ansonsten die Selbstauskünfte genutzt (Wisniewski/Möhring 2021: 201).

4 Analysen und Ergebnisse

4.1 Ergebnisse und Eigenschaften der Wortschatztests

Die Teilnehmenden durchliefen die oben beschriebenen Erhebungsinstrumente jeweils zum Beginn ihres Studiums am jeweiligen Anfang des Wintersemesters an beiden Universitäten (T1); für Kohorte eins und zwei wurden die Sprachtestverfahren und Fragebögen nach einem Jahr wiederholt (T2), für Kohorte eins auch ein drittes Mal nach zwei Jahren (T3) (vgl. Abbildung 2). Kohorte drei durchlief nur die Eingangstestung (T1) im Wintersemester 2019/20. Abbildung 3 illustriert die Ergebnisse der Wortschatztests nach Erhebungszeitpunkt in bestandenen Niveaustufen gemäß den oben angegebenen Cut Scores. Es wird deutlich, dass im rezeptiven Wortschatztest deutlich bessere Ergebnisse erzielt wurden als im produktiven Test. Für die Häufigkeitsbänder 1000 und 2000, für T3 auch 3000, liegt die Bestehensrate rezeptiv bei über 90 % – die Items auf den betreffenden Stufen waren also sehr leicht für die teilnehmenden Pb und es kommt zu Deckeneffekten im Bereich des hochfrequenten Wortschatzes. Deutlich differenzierter fallen die Ergebnisse des produktiven Wortschatztests aus, bei dem etwa zu T1 nur 38,7 % der Pb das Niveau 1000 bestehen und die niedrigfrequenteren Bereiche 4000 und 5000 von weniger als einem Viertel der Pb erfolgreich absolviert werden.

Abbildung 3 
						Ergebnisse der rezeptiven und produktiven Wortschatztests
Abbildung 3

Ergebnisse der rezeptiven und produktiven Wortschatztests

Neben der deskriptiven Beschreibung der erreichten Punkte wurde für beide Tests eine Rasch-Analyse (Runnels 2012) mittels Winsteps 5.1.1 (Linacre 2021) für alle Testdurchläufe (T1, T2 und T3) durchgeführt. Die Schwierigkeit der Items und die Fähigkeit der Personen wurden errechnet und in Logits angegeben. Tabelle 1 zeigt die deskriptive und summarische (Rasch-)Statistik für beide Tests.

Die Separationswerte geben die Anzahl statistisch reliabel unterscheidbarer Klassen von Items bzw. Pb an; die Reliabilitätswerte entsprechen Cronbachs Alpha und liegen für die Testitems mit .95 und .99 auf einem sehr hohen Niveau (Eckes 2010: 156, 159).

Tabelle 1

Summarische statistische Kennwerte für die Wortschatztests

Wortschatztest rezeptiv Wortschatztest produktiv
Anzahl der Items 150 90
Items/Häufigkeitslevel 30 18
Cut Score/Level (80 %) 24 14
N ~ T1 / T2 / T3 510 506
Mittelwert Erreichte Punkte | SD 126.8 | SD 23.1 47.4 | SD 16.4
Min. / Max. Punkte 10/150 11/86
Durchschn. Itemschwierigkeit (Logit) -.1 .00
Durchschn. Personenfähigkeit (Logit) 3.32 .67
Person Separation 2.74 3.39
Person Reliability .88 .92
Item Separation 4.34 11.58
Item Reliability .95 .99
Item Infit MNSQ .99 .99
Item Infit ZSTD .1 -.1
Item Outfit MNSQ .93 1.02
Item Outfit ZSTD -.3 .0
Item Infit 0.50 ≤ Fit ≤ 1.50 150 (100 %) 90 (100 %)
Item Outfit 0.50 ≤ Fit ≤ 1.50 106 (70,7 %) 86 (95,6 %)
Trennschärfe (point biserial) < .3 64 (42,7 %) 19 (21,1 %)

Auch die Infit- und Outfit-Statistiken (MNSQ) liegen nahe dem Erwartungswert von 1, was dafür spricht, dass die Daten in hohem Maße den Erwartungen des Messmodells entsprechen. Die größte Abweichung weist das Item Outfit MNSQ für den rezeptiven Wortschatztest mit .93 auf, was für ein hohes Maß an Vorhersagbarkeit bzw. Redundanz und eine geringere Variation spricht, alle Werte liegen aber für die Tests insgesamt im messmethodisch akzeptablen Bereich (Eckes 2010: 159–161). Auf der Ebene der Einzelitems liegen alle Infit-Werte, sowohl rezeptiv als auch produktiv, im Normbereich. Für die Outfit-Werte gilt dies nur für 106 der 150 Items, wohingegen die produktiven Items zu 95,6 % als akzeptabel eingestuft werden können. Die Trennschärfe liegt für 64 der rezeptiven und 19 der produktiven Items unter dem empfohlenen Wert von .30 (Council of Europe/Language Policy Division 2011: 77).

Tabelle 2 und Abbildung 4 zeigen die mittels Rasch-Analyse ermittelten mittleren Itemschwierigkeiten: gemessen in Logits (Mean), differenziert nach Häufigkeitsstufe. Es wird deutlich, dass die Itemschwierigkeit von den hochfrequenten zu den weniger häufigen Wörtern deutlich zunimmt.

Tabelle 2

Itemschwierigkeiten beider Wortschatztests/Häufigkeitsniveau

Wortschatztest rezeptiv
95 % KI
Level N Items Mean SD Min Max Lower Upper
1000 30 -1.28 1.83 -5.07 2.19 -1.87 -0.69
2000 30 -0.68 1.57 -5.08 1.72 -1.27 -0.10
3000 30 -0.03 1.77 -5.12 2.97 -0.62 0.56
4000 30 0.58 1.45 -3.14 3.47 -0.01 1.17
5000 30 0.91 1.51 -2.07 3.27 0.32 1.50
Wortschatztest produktiv
95 % KI
Level N Items Mean SD Min Max Lower Upper
1000 18 -1.24 1.74 -3.81 1.65 -2.01 -0.47
2000 18 -0.83 1.61 -3.66 2.41 -1.60 -0.06
3000 18 0.32 1.94 -3.24 4.80 -0.45 1.09
4000 18 0.91 1.21 -0.99 3.04 0.13 1.68
5000 18 0.85 1.65 -1.61 3.22 0.08 1.62

Die mittleren Itemschwierigkeiten pro Häufigkeitsband unterscheiden sich signifikant, wie Varianzanalysen (ANOVAs) für den rezeptiven Test mit F(4, 145) = 9.12, p < .001 sowie F(4, 85) = 6.46, p < .001 für den produktiven Test zeigen. Tukey-Tests[3] zeigen allerdings weder für den rezeptiven (p = .615) noch für den produktiven (p = .944) Test einen signifikanten Unterschied zwischen dem Niveau 1000 und 2000. Die Unterschiede der Mittelwerte sind ebenfalls nicht signifikant für produktiv 2000 vs. 3000 (p = .227), 3000 vs. 4000 (p = .826), 3000 vs. 5000 (p = .873) und 4000 vs. 5000 (p = 1) und rezeptiv 2000 vs. 3000 (p = .533), 3000 vs. 4000 (p = .592), 3000 vs. 5000 (p = .172) und 4000 vs. 5000 (p = .936). Alle anderen Paarungen waren signifikant (p < .05). Die nicht signifikanten Unterschiede werden auch durch die Überschneidungen in Abbildung 4 illustriert.

Abbildung 4 
						Mittlere Itemschwierigkeit/Häufigkeitsniveau
Abbildung 4

Mittlere Itemschwierigkeit/Häufigkeitsniveau

Abbildung 5 zeigt eine Person-Item-Map, eine grafische Darstellung der Fähigkeiten der Pb und der Itemschwierigkeiten. Da das Rasch-Modell die rohen Itemschwierigkeiten und Personenrohwerte in gleiche Intervallmaße (Logits) transformiert, ist es möglich, diese Ergebnisse linear abzubilden. Die Streuung der Items, die Streuung der Fähigkeiten, Lücken oder Überschneidungen in den Itemschwierigkeiten oder Personenfähigkeiten werden deutlich.

Deutlich erkennbar ist für den Wortschatztest rezeptiv (links) eine relativ große Menge an Items im unteren Bereich, deren Schwierigkeit deutlich unter der Fähigkeit der Pb liegt, wohingegen Itemschwierigkeit und Personenfähigkeit beim Wortschatztest produktiv gleichmäßiger verteilt sind.

Die Personenfähigkeit der Pb wurde mittels mehrerer ANOVAs auf Gruppenunterschiede zwischen den Kohorten untersucht, also zum Beispiel die Ersterhebung (T1) von Kohorte 1 im WiSe 2017/18 im Vergleich mit T1 von Kohorte 2 im WiSe 2018/19. Gruppenunterschiede konnten für keinen der Vergleiche, weder für den rezeptiven noch den produktiven Wortschatz, festgestellt werden, was zusätzlich für die Reliabilität beider Tests spricht.

Die mittels einer Varianzanalyse überprüfte Entwicklung der Wortschatzkompetenz nach einem Jahr bzw. zwei Semestern, vom Studienbeginn T1 zu T2, ergab sowohl gemessen in Rohwerten als auch in Personenfähigkeit (Logits) für den rezeptiven und den produktiven Wortschatztest einen signifikanten Zuwachs mit großen Effektstärken (η2).

Abbildung 5 
						Person-Item-Map für Wortschatztest rezeptiv (links) und produktiv (rechts)
Abbildung 5

Person-Item-Map für Wortschatztest rezeptiv (links) und produktiv (rechts)

Tabelle 3

Entwicklung der Wortschatzkompetenzen nach einem Jahr

N M T1 (SD) M T2 (SD) F-Wert p-Wert η2
rezeptiv
Punkte 93 125.11 (20.63) 134.06 (16.76) F(1, 92) = 32.78 p < .001 .263
Logits 93 3.01 (1.14) 3.63 (1.26) F(1, 92) = 102.05 p < .001 .529
produktiv
Punkte 93 45.11 (14.00) 51.07 (15.49) F(1, 92) = 79.66 p < .001 .461
Logits 93 .52 (.99) .90 (1.06) F(1, 92) = 67,51 p < .001 .423

Vergleicht man die mittleren Itemschwierigkeiten (Tabelle 2) mit der durchschnittlichen Personenfähigkeit (Tabelle 3), liegt Letztere für den rezeptiven Test sowohl zu T1 als auch zu T2 oberhalb des Niveaus 5000, wobei dessen ungeachtet viele Pb eine deutlich geringere Fähigkeit nachweisen konnten. Für den produktiven Test entspricht die mittlere Personenfähigkeit zu T1 in etwa dem Niveau 3000, ein Jahr später zur Messwiederholung T2 in etwa dem Niveau 4000.

4.2 HZST und Wortschatzkompetenz

Abbildung 6 zeigt die häufigsten der von den Pb abgelegten HZST. Mehrheitlich (72,1 %) wurden diese maximal ein Jahr vor Beginn der Studie, sprich der erstmaligen Durchführung der Sprachtests und Fragebögen, im Projekt abgelegt. Am häufigsten absolvierten die Pb die Feststellungsprüfung am Studienkolleg (FSP), die DSH, den TestDaF und auf Rang vier das DSD II. Die DSH und die FSP wurden nicht nur in Leipzig oder Würzburg, sondern an 15 (DSH) bzw. 13 (FSP) Standorten mit je unterschiedlichen Testversionen abgelegt.

Abbildung 6 
						Abgelegte HZST der Pb (N = 340) in % (nach Wisniewski/Möhring 2021: 201)
Abbildung 6

Abgelegte HZST der Pb (N = 340) in % (nach Wisniewski/Möhring 2021: 201)

Im Wesentlichen entspricht die Verteilung abgelegter HZST einer bundesweiten, repräsentativen Studie mit N = 2183 Pb (Bischof et al. 2016), wobei im hier vorgestellten Projekt ein deutlich höherer Anteil (25,3 % vs. 10 %) die FSP abgelegt hat. Die Gruppenzusammensetzung der verschiedenen HZST variierte etwa in Hinblick auf die Herkunftsregion erheblich, was den nachfolgenden Ausführungen einschränkend vorangestellt sei (Wisniewski/Möhring 2021).

Tabelle 4 zeigt die durchschnittlichen rezeptiven und produktiven Wortschatzkompetenzen, gemessen in Personenfähigkeit (Logits) zu T1 für die in der Stichprobe vier häufigsten HZST (da die Gruppengrößen der selten abgelegten HZST den Anforderungen einer statistischen Analyse nicht entsprechen). Die höchsten Wortschatzkompetenzen weisen die Absolvent:innen des TestDaF (rezeptiv: 3.32 vs. produktiv: .59), die niedrigsten jene der DSH (rezeptiv: 2.38 vs. produktiv: -.10) auf.

Tabelle 4

Durchschnittliche Wortschatzkompetenz zu Studienbeginn (T1) im Vergleich der vier häufigsten HZST

rezeptiv produktiv
N M (Logits) SD N M (Logits) SD
DSH 66 2.38 1.38 65 -.10 1.20
DSD II 34 3.04 1.13 35 .58 .89
FSP 78 2.94 1.02 80 .39 .94
TestDaF 61 3.32 1.09 60 .59 .90
Total 239 2.90 1.21 240 .33 1.03

Die Unterschiede in der rezeptiven und produktiven Wortschatzkompetenz in Abhängigkeit der vier häufigsten HZST wurden je mittels einer einfaktoriellen ANOVA untersucht. Varianzhomogenität war in beiden Fällen gemäß LeveneTest gegeben (p > .05). Die Wortschatzkompetenz unterscheidet sich in Abhängigkeit der HZST signifikant: sowohl für den rezeptiven Wortschatztest mit F(3, 235) = 7.15, p < .001, η2 = .08 als auch für den produktiven Wortschatztest mit F(3, 236) = 6.20, p < .001, η2 = .07. Ein Tukey-Test ergab, dass sich die Absolvent:innen der DSH signifikant von den anderen drei HZST unterscheiden (p < .05). Zwischen den Pb mit abgelegtem DSD II, einer FSP und TestDaF traten keine signifikanten Unterschiede auf.

4.3 Wortschatzkompetenz und Studienerfolg

Sowohl die rezeptive als auch die produktive Wortschatzkompetenz korrelieren signifikant mit dem objektiven Studienerfolg, gemessen in Prozent anteilig für die bis zu einem bestimmten Zeitpunkt im Studium vorgesehenen Leistungen in den ersten drei Semestern.

Tabelle 5

Pearson-Korrelation von Wortschatzkompetenz und objektivem Studienerfolg

Studienerfolg (%)
Wortschatzkompetenz T1 (Logits) nach 1. Semester nach 2. Semester nach 3. Semester
rezeptiv r .299** .297** .252*
p-Wert < .001 = .003 = .011
N 190 100 101
produktiv r .283** .294** .292**
p-Wert < .001 = .003 = .003
N 190 100 102
** Die Korrelation ist auf dem Niveau .01 signifikant.

* Die Korrelation ist auf dem Niveau .05 signifikant.

Die internationalen Studierenden wurden für eine weitere Untersuchung in drei etwa gleich große Gruppen entsprechend ihrer rezeptiven bzw. produktiven Wortschatzkompetenz (hoch, mittel, niedrig) gebündelt. Tabelle 6 zeigt den kumulierten Studienerfolg in Prozent im Vergleich der drei Kompetenzgruppen nach einem, zwei und drei Semester(n) und präsentiert für die gleichen Zeiträume die Studienergebnisse der deutsch-muttersprachlichen Kontrollgruppe (L1).

Tabelle 6

Wortschatzkompetenz (T1) und Studienerfolg von internationalen und L1-Studierenden

rezeptiv produktiv
Studienerfolg in % Wortschatz-

kompetenz
N Mean SD SE N Mean SD SE
nach 1 Semester niedrig 78 44.50 36.00 4.08 76 44.00 34.00 3.90
mittel 74 58.50 35.00 4.07 75 58.70 35.10 4.05
hoch 82 72.30 39.20 4.33 81 72.20 41.40 4.60
L1 81 73.50 34.70 3.85 111 73.40 34.40 3.27
nach 2 Semestern niedrig 45 53.20 35.50 5.30 40 51.50 34.20 5.40
mittel 42 68.80 26.20 4.04 43 65.10 27.70 4.22
hoch 41 75.80 35.20 5.50 42 79.10 35.40 5.46
L1 79 72.50 30.20 3.39 102 74.80 29.50 2.93
nach 3 Semestern niedrig 45 56.10 33.90 5.05 39 55.30 32.90 5.27
mittel 45 67.40 27.70 4.13 45 65.50 30.40 4.53
hoch 39 79.20 29.10 4.66 43 80.30 27.90 4.25
L1 80 79.70 22.20 2.48 109 79.00 23.90 2.29

Eine Varianzanalyse zeigt signifikante Unterschiede des gemessenen Studienerfolgs zwischen den Gruppen für alle drei Messzeitpunkte: rezeptiv nach 1 Sem. mit F(3, 311) = 11.15; p < .001, nach 2 Sem. mit F(3, 203) = 4.62; p < .01 und nach 3 Sem. mit F(3, 205) = 8.38; p < .001) bzw. produktiv nach 1 Sem. mit F(3, 339) = 12.06; p < .001, nach 2 Sem. mit F(3, 223) = 7.00; p < .001 und nach 3 Sem. mit F(3, 232) = 9.16; p < .001.

Tukey-Tests zeigen für keinen der drei Zeitpunkte Unterschiede des durchschnittlichen Studienerfolgs zwischen der niedrigen und der mittleren oder der mittleren und der hohen Kompetenzgruppe, ebenso wenig für die L1-Studierenden im Vergleich zur hohen Kompetenzgruppe (p > .05). Die L1-Studierenden und die hohe Kompetenzgruppe unterscheiden sich aber zu jedem Zeitpunkt signifikant von der niedrigen Kompetenzgruppe. Exemplarisch für die verschiedenen Messzeitpunkte illustriert Abbildung 7 die erreichten Studienleistungen nach zwei Semestern in Abhängigkeit des zu Studienbeginn (T1) gemessenen Wortschatzes. Es ist deutlich zu erkennen, dass die internationalen Studierenden mit besonders hoher lexikalischer Kompetenz vergleichbare, mithin höhere Studienleistungen erbringen als ihre muttersprachlichen Kommiliton:innen; die Studienleistungen der internationalen Studierenden mit geringen Wortschatzkompetenzen liegen je um ca. 20 % niedriger.

Abbildung 7 
						Wortschatzkompetenz und Studienerfolg nach zwei Semestern
Abbildung 7

Wortschatzkompetenz und Studienerfolg nach zwei Semestern

5 Diskussion der Ergebnisse

Insgesamt haben sich die genutzten Wortschatztests als zuverlässige Instrumente zur Messung der rezeptiven und produktiven Wortschatzkompetenz erwiesen. Insbesondere für die Items zur Messung der häufigsten 1000 und 2000 Wörter des Deutschen im rezeptiven Test ist allerdings ein Deckeneffekt zu beobachten, der sich teststatistisch etwa in geringer Trennschärfe einiger Items widerspiegelt. Besonders deutlich wird dies in der Person-Item-Map (Abbildung 5), wo zahlreiche rezeptive Items eine deutlich geringere Schwierigkeit aufweisen, als die schwächsten Pb entsprechend ihrer Personenfähigkeit zu lösen imstande sind. Bodeneffekte können hingegen auf den Stufen 4000 und 5000 des produktiven Wortschatztests beobachtet werden. Teststatistische Schwierigkeiten der Passung insbesondere des rezeptiven Tests sind der insgesamt vergleichsweise hohen Personenfähigkeit geschuldet und mit der dadurch nicht gewährleisteten Normalverteilung über das geprüfte Leistungsspektrum zu begründen und damit kein Desiderat des Tests an sich, welcher nicht für die hier getestete Zielgruppe konzipiert wurde. Um den rezeptiven Test mit vergleichbaren Zielgruppen für Screening-Zwecke in zukünftigen Studien und/oder im Bereich der studienvorbereitenden und -begleitenden Sprachförderung passgenauer zu gestalten, könnte die Anzahl besonders hochfrequenter Zielwörter deutlich reduziert werden. Eine Erweiterung um weitere Häufigkeitsbänder bis 10 000 (Kremmel 2016) oder ein empirisch basiertes, bildungssprachliches Lexikinventar (Masrai/Milton 2018; Schmitt/Schmitt/Clapham 2001) versprächen hingegen einen deutlichen Informationsgewinn. Eine für solche Zwecke geeignete akademische Wortliste für das Deutsche, vergleichbar etwa der gleichwohl viel diskutierten, so doch weithin akzeptierten Academic Word List (Coxhead 2000), liegt bislang nicht vor, vielversprechende Befunde liefern jedoch etwa für die Geisteswissenschaften Meißner und Wallner (2019), zur gesprochenen Wissenschaftssprache Meißner, Slavcheva und Fandrych (2014), für die Sprache der Ingenieurwissenschaften Heine (2020) oder für die Fächer Medizin, Chemie und Wirtschaftswissenschaften Möhring und Bärenfänger (2018).

Die Ergebnisse bestätigen für die untersuchte Stichprobe deutlich stärkere rezeptive Kompetenzen im Vergleich zu den produktiven (Abbildung 3), wobei die Testformate und Bewertungskritierien (Matching vs. grammatisch/orthografisch korrekte Ergänzung) eine vorsichtige Interpretation dieser Unterschiede verlangen (Webb 2008).

Zugleich zeigen die Ergebnisse für einen nicht unerheblichen Teil der internationalen Studierenden eklatante Wortschatzdefizite. Nur knapp die Hälfte der Pb beherrscht rezeptiv die 5000 häufigsten Wörter des Deutschen zu T1, womit bestenfalls eine stabile lexikalische Grundlage für ein Lese- und Hörverständnis im Studium gewährleistet wäre.

Im Verlauf der ersten beiden Studienjahre konnte ein kontinuierlicher Ausbau rezeptiver und produktiver Wortschatzkompetenz festgestellt werden (vgl. Abbildung 3), wobei auch nach zwei Jahren Studium in Deutschland (T3) das Niveau 5000 rezeptiv von nur 83,6 % der internationalen Studierenden gemeistert wird; produktiv liegt das Ergebnis mit 14,8 % deutlich niedriger.

Für die Absolvent:innen der vier überprüften HZST konnten mehrheitlich keine Unterschiede der Wortschatzkompetenzen festgestellt werden, wobei ein erfolgreich abgelegter TestDaF sowohl rezeptiv als auch produktiv mit den stärksten Personenfähigkeiten einhergeht. Einzig die Pb, welche ihre sprachliche Studierfähigkeit mit einer DSH nachgewiesen haben, weisen signifikant niedrigere Wortschatzkompetenzen auf. Zieht man die eingangs diskutierten Ansätze zur Kalibrierung von HZST, GER und Wortfrequenz in Betracht, erscheinen diese Befunde in hohem Maße bedenklich – insbesondere, da nachgewiesen werden konnte, dass Wortschatzkompetenz ein zuverlässiger Prädiktor für Studienerfolg darstellt. Internationale Studierende mit sehr ausgeprägten Wortschatzkompetenzen unterschieden sich hinsichtlich des objektiven Studienerfolgs nicht von den deutschsprachigen, wobei für beide Gruppen der gemessene Studienerfolg in den ersten drei Semestern < 80 % liegt. Niedrige Wortschatzkompetenz ging mit deutlich geringerem Studienerfolg einher.

6 Fazit

Insgesamt konnte der Beitrag nachweisen, dass Sprache, hier exemplarisch am Beispiel von Wortschatzkompetenzen nachgezeichnet, und Studienerfolg internationaler Studierender in engem Zusammenhang stehen. Bedenklich erscheint das große Spektrum in den Wortschatzkompetenzen, die zumindest für einen Teil der Pb deutlich unter dem Niveau sprachlicher Studierfähigkeit liegen, obgleich diese von allen Pb mit einem akkreditierten Sprachtest nachgewiesen wurde.

Die offenkundig unterschiedliche Durchlässigkeit der HZST hinsichtlich nachzuweisender Wortschatzkompetenzen (zu weiteren Fertigkeiten vgl. Wisniewski/Möhring 2021) spricht für eine notwendige Vertiefung der Validierung und Standardisierung zumindest derjenigen HZST, bei denen diese noch nicht intensiv und transparent vollzogen wird. Eine präzise Beschreibung des Konstrukts sprachliche Studierfähigkeit und eine testwissenschaftlich solide Operationalisierung desselben für alle zugelassenen HZST erscheint umso unerlässlicher, zieht man die enormen persönlichen und gesellschaftlichen Kosten in Betracht, die ein mangelnder Studienerfolg oder gar ein Studienabbruch (infolge nicht ausreichender Sprachkompetenzen) nach sich ziehen.

Als zentrale Komponente des Spracherwerbs sollte dem Auf- und Ausbau von Wortschatz in der sprachlichen Studienvorbereitung und -begleitung sowie idealerweise auch studienintegriert ein hoher Stellenwert eingeräumt werden, was selbstverständlich auch die Förderung von Wortschatzlernstrategien und -techniken miteinschließt. Die enge Anbindung der Wortschatzarbeit an empirische Forschungsergebnisse zu Worthäufigkeit, Fachsprache(n) und die alltägliche Wissenschaftssprache ist hierbei unerlässlich für die effektive und ökonomische Vorbereitung auf ein Studium.

About the author

Jupp Möhring

studierte Deutsch als Fremdsprache, Soziologie und Journalistik an der Universität Leipzig. Derzeit ist er an der Technischen Universität Dresden und dem Institut für Testforschung und Testentwicklung e.V. tätig. Seine Arbeits- und Forschungsschwerpunkte sind die studienvorbe-reitende und -begleitende Förderung von Deutschkompetenzen internationaler Studierender, korpuslinguistische Fragestellungen und das zuverlässige Testen von Sprachkompetenzen. Das hier vorgestellte Projekt SpraStu koordinierte er 2017–2020 unter Leitung von Prof. Dr. Katrin Wisniewski an der Universität Leipzig.

Literaturverzeichnis

Althaus, Hans-Joachim (2018): „Warum C1 keine Lösung ist: Der Nachweis von Deutschkenntnissen für den Hochschulzugang, der GER und warum sie nicht zusammenpassen“. In: Brandt, Anikó; Buschmann-Göbels, Astrid; Harsch, Claudia (Hrsg.): Der Gemeinsame Europäische Referenzrahmen für Sprachen und seine Adaption im Hochschulkontext. Bochum: AKS-Verlag (Fremdsprachen in Lehre und Forschung 51).Search in Google Scholar

Bahramlou, Khosro; Yazdani, Hooshang (2013): „Using Vocabulary Profiles to Predict Academic Achievement“. In: The Iranian EFL Journal 9 (5), 265–281.Search in Google Scholar

Bargmann, Tobias (2011): „Was bedeutet eigentlich ,Vokabeln beherrschen‘“? – Eine Einführung in das Problemfeld ,Wortschatzkompetenz‘“. In: Hahn, Natalia; Roelcke, Thorsten (Hrsg.): Grenzen überwinden mit Deutsch: 37. Jahrestagung des Fachverbandes Deutsch als Fremdsprache an der pädagogischen Hochschule Freiburg/Br. 2010. Göttingen: University Press, 59–75 (Materialien Deutsch als Fremdsprache Band 85).Search in Google Scholar

Bischof, Lukas; Vötter, Sebastian; Klingemann, Julia; Rapp, Arthur; Gehlke, Anna; Bloch, Jelena; Engel, Marie; Tumova, Pavla; Goethe-Institut; CHE-Consult (2016): Pilotstudie „Sprachbiographien von Bildungsausländer(inne)n im Vollstudium an deutschen Hochschulen“.Search in Google Scholar

Clenton, Jon; Booth, Paul (Hrsg.) (2021): Vocabulary and the four skills: Pedagogy, Practice, and Implications for Teaching Vocabulary. New York: Routledge (Routledge Studies in Applied Linguistics).10.4324/9780429285400Search in Google Scholar

CoE – Council of Europe (2018): Common European Framework of Reference for Languages: Learning, Teaching, Assessment. Companion Volume with New Descriptors. Strasbourg: Council of Europe.Search in Google Scholar

Council of Europe/Language Policy Division (2011): Manual for Language Test Development and Examining – for Use with the CEFR. Strasbourg: Council of Europe.Search in Google Scholar

Coxhead, Averil (2000): „A New Academic Word List“. In: TESOL Quarterly 34 (2), 213–238.10.2307/3587951Search in Google Scholar

DAAD/DZHW – Deutscher Akademischer Austauschdienst und Deutsches Zentrum für Hochschul- und Wissenschaftsforschung (Hrsg.) (2020): Wissenschaft weltoffen 2020: Daten und Fakten zur Internationalität von Studium und Forschung in Deutschland und weltweit. Bielefeld: wbv Media.Search in Google Scholar

DAAD/DZHW – Deutscher Akademischer Austauschdienst und Deutsches Zentrum für Hochschul- und Wissenschaftsforschung (Hrsg.) (2021): Wissenschaft weltoffen kompakt 2021: Daten und Fakten zur Internationalität von Studium und Forschung in Deutschland und weltweit. Bielefeld: wbv Media.Search in Google Scholar

Daller, Michael H.; Phelan, David (2013): „Predicting international student study success“. In: Applied Linguistics Review 4 (1), 173–193.10.1515/applirev-2013-0008Search in Google Scholar

Daller, Michael; Wang, Yixin (2017): „Predicting study success of international students“. In: Applied Linguistics Review 8 (4), 355–374.10.1515/applirev-2016-2013Search in Google Scholar

Deygers, Bart; Zeidler, Beate; Vilcu, Dina; Carlsen, Cecilie Hamnes (2018): „One Framework to Unite Them All? Use of the CEFR in European University Entrance Policies“. In: Language Assessment Quarterly 15 (1), 3–15.10.1080/15434303.2016.1261350Search in Google Scholar

Eckes, Thomas (2010): „Der Online-Einstufungstest Deutsch als Fremdsprache (onDaF): Theoretische Grundlagen, Konstruktion und Validierung“. In: Grotjahn, Rüdiger (Hrsg.): Der C-Test: Beiträge aus der aktuellen Forschung/The C-Test: contributions from current research. Frankfurt am Main: Lang, 125–192 (Language testing and evaluation Vol. 18).Search in Google Scholar

Europarat (Hrsg.) (2001): Gemeinsamer europäischer Referenzrahmen für Sprachen. Berlin: Langenscheidt.Search in Google Scholar

Europarat/KMK/ösd/Goethe-Institut (2020): Gemeinsamer europäischer Referenzrahmen für Sprachen: lehren, lernen, beurteilen. Begleitband. Stuttgart: Ernst Klett Sprachen.Search in Google Scholar

Glaboniat, Manuela; Müller, Martin; Rusch, Paul; Schmitz, Helen; Wertenschlag, Lukas (2017): Profile deutsch: Gemeinsamer europäischer Referenzrahmen: Lernzielbestimmungen, Kannbeschreibungen, kommunikative Mittel, Niveau A1–A2, B1–B2, C1–C2. Stuttgart: Ernst Klett Sprachen (Deutsch als Fremdsprache).Search in Google Scholar

Hacking, Jane F.; Rubio, Fernando; Tschirner, Erwin (2019): „Vocabulary Size, Reading Proficiency and Curricular Design: The Case of College Chinese, Russian and Spanish“. In: Winke, Paula; Gass, Susan M. (Hrsg.): Foreign Language Proficiency in Higher Education. Cham: Springer, 25–44 (Educational Linguistics Vol. 37).10.1007/978-3-030-01006-5_3Search in Google Scholar

Hallet, Wolfgang; Königs, Frank G. (Hrsg.) (2010): Handbuch Fremdsprachendidaktik. Stuttgart: Klett; Kallmeyer.Search in Google Scholar

Heine, Antje (2020): „Wozu (ge-)brauchen Ingenieure figurative Verben? Eine Analyse auf Basis wissenschaftlicher Artikel“. In: Informationen Deutsch als Fremdsprache 47 (6), 612–629.10.1515/infodaf-2019-0057Search in Google Scholar

HRK/KMK – Hochschulrektorenkonferenz und Kultusministerkonferenz (2019): Rahmenordnung über Deutsche Sprachprüfungen für das Studium an deutschen Hochschulen (RO-DT).Search in Google Scholar

Jones, Randall L.; Tschirner, Erwin P. (2006): A frequency dictionary of German: Core vocabulary for learners. London: Routledge (Routledge frequency dictionaries).Search in Google Scholar

Koreik, Uwe (2005): TestDaF und DSH – eine Vergleichsstudie. Hohengehren: Schneider (Perspektiven Deutsch als Fremdsprache).Search in Google Scholar

Kremmel, Benjamin (2016): „Word Families and Frequency Bands in Vocabulary Tests: Challenging Conventions“. In: TESOL Quarterly 50 (4), 976–987.10.1002/tesq.329Search in Google Scholar

Laufer, Batia (2020): „Lexical Coverages, Inferencing Unknown Words and Reading Comprehension: How Are They Related?“. In: TESOL Quarterly 54 (4), 1076–1085.10.1002/tesq.3004Search in Google Scholar

Laufer, Batia; Nation, I. S. Paul (1999): „A vocabulary-size test of controlled productive ability“. In: Language Testing 16 (1), 33–51.10.1177/026553229901600103Search in Google Scholar

Linacre, Mike (2021): WINSTEPS: Software for Rasch Measurement and Rasch Analysis.Search in Google Scholar

Masrai, Ahmed; Milton, James (2018): „Measuring the contribution of academic and general vocabulary knowledge to learners‘ academic achievement“. In: Journal of English for Academic Purposes 31, 44–57.10.1016/j.jeap.2017.12.006Search in Google Scholar

Masrai, Ahmed; Milton, James (2021): „Vocabulary knowledge and academic achievement revisited: General and academic vocabulary as determinant factors“. In: Southern African Linguistics and Applied Language Studies 39 (3), 282–294.10.2989/16073614.2021.1942097Search in Google Scholar

Meißner, Cordula; Slavcheva, A.; Fandrych, Christian (Hrsg.) (2014): Gesprochene Wissenschaftssprache: Korpusmethodische Fragen und empirische Analysen. Heidelberg: Synchron.Search in Google Scholar

Meißner, Cordula; Wallner, Franziska (2019): Das gemeinsame sprachliche Inventar der Geisteswissenschaften: Lexikalische Grundlagen für die wissenschaftspropädeutische Sprachvermittlung. Berlin: Erich Schmidt (Studien Deutsch als Fremd- und Zweitsprache Band 6).10.37307/b.978-3-503-18171-1Search in Google Scholar

Milton, James (2010): „The development of vocabulary breadth across the CEFR levels: A common basis for the elaboration of language syllabuses, curriculum guidelines, examinations, and textbooks across Europe“. In: Bartning, Inge; Martin, Maisa; Vedder, Ineke (Hrsg.): Communicative proficiency and linguistic development: Intersections between SLA and language testing research. Rom: European Second Language Association, 211–232 (EUROSLA monographs series 1).Search in Google Scholar

Milton, James; Alexiou, Thomaï (2009): „Vocabulary Size and the Common European Framework of Reference for Languages“. In: Richards, Brian; Daller, Michael H.; Malvern, David D.; Meara, Paul; Milton, James; Treffers-Daller, Jeanine (Hrsg.): Vocabulary Studies in First and Second Language Acquisition. London: Palgrave Macmillan UK, 194–211.10.1057/9780230242258_12Search in Google Scholar

Möhring, Jupp; Bärenfänger, Olaf (2018): „Hochschulzugangsprüfungen und die Studienrealität: Eine empirische Untersuchung zu Lese- und Wortschatzanforderungen in der Studieneingangsphase“. In: Informationen Deutsch als Fremdsprache 45 (4), 540–572.10.1515/infodaf-2018-0073Search in Google Scholar

Nation, I. S. Paul (1983): „Testing and Teaching Vocabulary“. In: Guidelines 5 (1), 12–25.Search in Google Scholar

Nation, I. S. Paul (1990): Teaching and learning vocabulary. Boston, MA: Heinle & Heinle.Search in Google Scholar

Nation, I. S. Paul (2013): Learning vocabulary in another language. Cambridge: University Press (The Cambridge applied linguistics series).Search in Google Scholar

Neugebauer, Martin; Daniel, Hans-Dieter; Wolter, Andrä (2021): „Studienerfolg und Studienabbruch – eine Einführung“. In: Neugebauer, Martin; Daniel, Hans-Dieter; Wolter, Andrä (Hrsg.): Studienerfolg und Studienabbruch. Wiesbaden: Springer Fachmedien, 1–18.10.1007/978-3-658-32892-4_1Search in Google Scholar

Runnels, Judith (2012): „Using the Rasch model to validate a multiple choice English achievement test“. In: International Journal of Language Studies 6 (4), 141–153.Search in Google Scholar

Schmitt, Norbert; Schmitt, Diane; Clapham, Caroline (2001): „Developing and exploring the behaviour of two new versions of the Vocabulary Levels Test“. In: Language Testing 18 (1), 55–88.10.1177/026553220101800103Search in Google Scholar

Seeger, Jennifer; Lenhard, Wolfgang; Wisniewski, Katrin (2021): „Metakognitives Strategiewissen in sprachbezogenen Situationen“. In: Diagnostica 67 (4), 189–199.10.1026/0012-1924/a000275Search in Google Scholar

Stæhr, Lars Stenius (2009): „Vocabulary knowledge and advanced listening comprehension in English as a foreign language“. In: Studies in Second Language Acquisition 31 (04), 577–607.10.1017/S0272263109990039Search in Google Scholar

Targońska, Joanna; Stork, Antje (2013): „Vorschläge für ein neues Modell zur Beschreibung und Analyse lexikalischer Kompetenz“. In: Zeitschrift für Fremdsprachenforschung 24 (1), 71–108.Search in Google Scholar

Tschirner, Erwin (2008): „Das professionelle Wortschatzminimum im Deutschen als Fremdsprache“. In: Deutsch als Fremdsprache 45 (4), 195–207.10.37307/j.2198-2430.2008.04.02Search in Google Scholar

Tschirner, Erwin (2019): „Der rezeptive Wortschatzbedarf im Deutschen als Fremdsprache“. In: Peyer, Elisabeth; Studer, Thomas; Thonhauser, Ingo (Hrsg.): IDT 2017. Band 1: Hauptvorträge. Berlin: Erich Schmidt, 98–111.Search in Google Scholar

Tschirner, Erwin (2021): Examining the validity and reliability of the ITT vocabulary size tests. Leipzig (Research papers in assessment 3).Search in Google Scholar

Tschirner, Erwin; Möhring, Jupp (2019): A frequency dictionary of German: Core vocabulary for learners. London: Routledge (Routledge frequency dictionaries).10.4324/9781315620008Search in Google Scholar

Wallner, Franziska; Möhring, Jupp (2013): „Wortschatzlisten auf dem Prüfstand“. In: Bergerová, Hana; Schmidt, Marek; Schuppener, Georg (Hrsg.): Lexikologie und Lexikografie: Aktuelle Entwicklungen und Herausforderungen. Ústí nad Labem: Jan-Evangelista-Universität. Purkyně Filozofická Fak, 119–133 (Acta Universitatis Purkynianae Facultatis Philosophicae studia germanica 7.2013).Search in Google Scholar

Wang-Taylor, Yixin; Milton, James (2019): „Predicting international students‘ academic success with vocabulary and intercultural communicative competence“. In: Journal of Applied Linguistics 32, 83–101.Search in Google Scholar

Webb, Stuart (2008): „Receptive and productive vocabulary sizes of L2 learners“. In: Studies in Second Language Acquisition 30 (01), 79–95.10.1017/S0272263108080042Search in Google Scholar

Webb, Stuart; Sasao, Yosuke; Ballance, Oliver (2017): „The updated Vocabulary Levels Test: Developing and validating two new forms of the VLT“. In: ITL – International Journal of Applied Linguistics 168 (1), 33–69.10.1075/itl.168.1.02webSearch in Google Scholar

Wisniewski, Katrin (2018): „Sprache und Studienerfolg von Bildungsausländerinnen und -ausländern: Eine Längsschnittstudie an den Universitäten Leipzig und Würzburg“. In: Informationen Deutsch als Fremdsprache 45 (4), 573–597.10.1515/infodaf-2018-0074Search in Google Scholar

Wisniewski, Katrin; Lenhard, Wolfgang (2021): „Der Zusammenhang von Sprache und Studienerfolg bei Bildungsausländerinnen und Bildungsausländern: Ergebnisse aus dem SpraStu-Projekt“. In: Neugebauer, Martin; Daniel, Hans-Dieter; Wolter, Andrä (Hrsg.): Studienerfolg und Studienabbruch. Wiesbaden: Springer Fachmedien, 203–234.10.1007/978-3-658-32892-4_9Search in Google Scholar

Wisniewski, Katrin; Möhring, Jupp (2021): „Die Vergleichbarkeit von Sprachprüfungen zum Hochschulzugang im Licht ausgewählter post-entry-Sprachtests“. In: Deutsch als Fremdsprache 58 (4), 195–213.10.37307/j.2198-2430.2021.04.03Search in Google Scholar

Wisniewski, Katrin; Parker, Maria; Lenhard, Wolfgang; Seeger, Jenny (2019): „Sprachbezogenes metakognitives Strategiewissen im Studienalltag internationaler Studierender: Der szenariobasierte Fragebogen ScenEx“. In: Zeitschrift für Fremdsprachenforschung 30 (1), 55–76.Search in Google Scholar

Wisniewski, Katrin; Möhring, Jupp; Lenhard, Wolfgang; Seeger, Jenny (2020): „Zum Zusammenhang sprachlicher Kompetenzen mit dem Studienerfolg von Bildungsausländer/-innen im ersten Studiensemester“. In: Drackert, Anastasia; Mainzer-Murrenhoff, Mirka; Timukova, Anna (Hrsg.): Testen bildungssprachlicher Kompetenzen und akademischer Sprachkompetenzen – Synergien zwischen Schule und Hochschule erkennen und nutzen. Frankfurt am Main: Peter Lang (Language testing and evaluation).Search in Google Scholar

Wisniewski, Katrin; Lenhard, Wolfgang; Spiegel, Leonore; Möhring, Jupp (Hrsg.) (2022): Sprache und Studienerfolg bei Bildungsausländer/-innen. Münster: Waxmann.Search in Google Scholar

Wollert, Mattheus; Zschill, Stephanie (2017): „Sprachliche Studierfähigkeit: ein Konstrukt auf dem Prüfstand“. In: Informationen Deutsch als Fremdsprache 44 (1), 2–17.10.1515/infodaf-2017-0005Search in Google Scholar

Published Online: 2022-07-07
Published in Print: 2022-07-06

© 2022 Walter de Gruyter GmbH, Berlin/Boston

Downloaded on 9.9.2025 from https://www.degruyterbrill.com/document/doi/10.1515/infodaf-2022-0058/html
Scroll to top button