Informationen
„TIP – Team Award Information Professionals“ – Nachwuchspreis studentischer Teamleistungen zu Fragen der digitalen Gesellschaft
Der „TIP-Team Award Information Professionals“ wird zum zweiten Mal von b.i.t.online, Schweitzer Fachinformation und der Konferenz der informationswissenschaftlichen und bibliothekarischen Hochschulen und Ausbildungseinrichtungen (KIBA) mit Unterstützung der ekz.bibliotheksservice GmbH verliehen. Ausgezeichnet werden drei studentische Teamleistungen, die einen innovativen Beitrag zur konkreten Lösung von Fragestellungen der digitalen Transformation und Gestaltung der digitalen Gesellschaft in der Berufspraxis liefern. Die illustre Jury besteht aus Vertretern von KIBA, DGI, dbv, b.i.t.online, Schweitzer Fachinformation und der ekz.bibliotheksservice GmbH. Der Preis ist mit jeweils 800 Euro dotiert und wird mit einem Reisekostenzuschuss von maximal 450 Euro pro Team unterstützt. Die ausgezeichneten Projekte werden als Zeitschriftenbeiträge in der Fachzeitschrift b.i.t.online veröffentlicht.
Der Bewerbung ist ein Abstract von max. 4.000 Zeichen beizufügen, das das Projekt in Fragestellung, Zielsetzung, methodischem Vorgehen, Ergebnissen beschreibt sowie den Anwendungsbezug in der Berufspraxis aufzeigt. Antragsberechtigt sind studentische Projektteams bibliotheks- und informationswissenschaftlicher Fachbereiche und Ausbildungseinrichtungen in Deutschland, Österreich und der Schweiz. Die Projektarbeit darf nicht länger als ein Jahr zurück liegen (Stichtag ist der 15. Februar des vorangegangenen Jahres). Einreichungen sind bis zum 15. Februar 2017 unter tip@b-i-t-online.de möglich. Weitere Informationen sind unter www.b-i-t-online.de zu finden.
APE 2017 – Publishing Ethics: Doing the Right Thing – Doing Things Right
Am 17. und 18. Januar 2017 findet wie schon die Jahre zuvor in der Berlin-Brandenburgischen Akademie der Wissenschaft am Berliner Gendarmenmarkt die APE statt. Diesmal widmet sich die Veranstaltung dem Thema „Publishing Ethics: Doing the Right Thing – Doing Things Right“. Die APE Konferenz zielt auf ein besseres Verständnis der wissenschaftlichen Kommunikation und die Rolle der Information in der Wissenschaft, Bildung und Gesellschaft. Sie fördert die Debatte über die Zukunft und den Mehrwert wissenschaftlicher Veröffentlichungen, die Verbreitung von Informationen und den Zugang zu wissenschaftlichen Ergebnissen und bietet ein unabhängiges Forum für „open minds“. Die Teilnehmer sind Mitarbeiter der unterschiedlichsten Verlage, Forscher, Autoren, Redakteure, Bibliothekare, Lehrer, Fachgesellschaften und Verbände, Förderorganisationen, Politiker und politische Entscheidungsträger, Abo-Agenturen und Buchhändler, Personalagenturen und Technologieanbieter. Die APE Konferenz bietet eine Bestandsaufnahme und zeigt den Weg in die Zukunft. Zugleich sucht sie nach neuen Basistechnologien, die helfen, die kommenden Anforderungen zu bewältigen und wirft einen Blick auf nachhaltige Verhaltensänderungen. Wie immer wird es viel Zeit für Gespräche und Treffen mit Freunden und Kollegen geben.Am Vortag, dem 16. Januar 2017, findet vor allem für Einsteiger und Nachwuchskräfte die Pre-Conference statt. Mitglieder der DGI sparen bei der Anmeldung 25 Prozent, auch für andere Teilnehmergruppen gibt es auf Anfrage Sonderkonditionen. Die Anzahl der Teilnehmer ist auf 220 begrenzt. Aktuelle Informationen lassen sich ab sofort unter info@ape2017.eu erfragen.
Studie zu Open-Access-Publikationsgebühren in Deutschland
Open Access, ein Konzept, das der Öffentlichkeit alle wissenschaftlichen Publikationen unentgeltlich zur Verfügung stellt, kann, muss jedoch nicht gratis sein. Wenn Autoren verlagsgebunden ihre Werke oder deren Vorversionen auf speziellen Open-Access-Servern, den so genannten Repositories bereitstellen, fallen für sie keine Gebühren an. Publizieren sie aber direkt in originären Open-Access-Journalen, werden teils Publikationsgebühren oder Article Processing Charges (APC) fällig. Die Höhe dieser Gebühren scheint tendenziell zu steigen, wie der österreichische Fonds zur Förderung der wissenschaftlichen Forschung (FWF)] und der Wellcome Trust in ihren Analysen nahe legen.
Nun erscheint erstmal eine systematische Auswertung zu an deutschen Hochschulen gezahlten APC. Die Autoren Najko Jahn und Marco Tullney nutzten Daten des an der Universitätsbibliothek Bielefeld (UB Bielefeld) angesiedelten Projekts Open APC, das sich um Transparenz im deutschen Open-Access-Publikationsmarkt bemüht. Die zu diesem Zwecke von dreißig deutschen Hochschulen und Forschungseinrichtungen bereitgestellten Daten wurden, wie auch die des FWF und des Wellcome Trust, online publiziert. Jahns und Tullneys werteten 7.417 zwischen 2005 und 2015 publizierte Artikel aus Open-Access-Zeitschriften aus, für die APC gezahlt wurden. Für all diese Texte ergaben sich Zahlungen von 9.627.537 Euro inkl. Steuer, der Median lag bei 1.231 Euro, der Durchschnitt bei 1.298 Euro, fast alle aber betrugen weniger als 2.000 Euro. Grund dafür ist wahrscheinlich eine Förderrichtlinie der Deutschen Forschungsgemeinschaft (DFG) zur finanziellen Unterstützung von Einrichtungen bei der Implementierung von Open-Access-Publikationsfonds, der zufolge die DFG sich nur an der Finanzierung von Artikeln beteiligt, deren APC maximal 2.000 Euro beträgt. Allerdings war die Differenz (von 40 € bis 7.419 €) der entrichteten Gebühren gewaltig.
Dazu zeigte sich ähnlich, wie auch im herkömmlichen wissenschaftlichen Publikationsmarkt, eine starke Konzentration auf wenige Verlage. So erschien etwas mehr als die Hälfte der Artikel bei Springer Nature und der Public Library of Science (PLOS). Dazu bekamen zehn Verlage 92 Prozent aller berichteten APC. Doch nicht nur auf dieser Ebene zeigen sich Akkumulierungseffekte. Auch bei den Zeitschriften dominieren wenige den Markt: 45 Prozent der untersuchten Artikel erschienen in nur zehn Zeitschriften. Überdies belegen auch die Daten aus Deutschland im Vergleich zu den von FWF und Wellcome Trust ermittelten Werten geringe Preissteigerungen bei den APC von knapp 14,5 Prozent.
Quelle: Jahn N, Tullney M. (2016). A study of institutional spending on open access publication fees in Germany. PeerJ 4:e2323 https://doi.org/10.7717/peerj.2323
PwC-Studie Total Retail 2016: Smartphone wichtigster Einkaufsbegleiter
Der Einkauf über das Smartphone, Mobile Shopping, wird auch in Deutschland immer wichtiger.PwC nimmt an, dass bis zum Jahr 2020 dreiviertel aller Verbraucher ihr Smartphone für Käufe zumindest in ausgewählten Produktkategorien nutzen. Nur das mobile Bezahlen sehen die deutschen Käufer noch kritisch – die Mehrheit, 80 Prozent, greift stattdessen lieber zu Bargeld. Trotzdem liegt, nach Gerd Bovensiepen, Leiter des Bereichs Handel und Konsumgüter bei PwC, im Mobile-Geschäft die Zukunft des Handels, weshalb Unternehmer spätestens jetzt eine Mobile-Commerce-Strategie entwerfen müssen, um erfolgreich zu bleiben. Bereits jetzt nutzt ein beachtlicher Anteil der Konsumenten das Smartphone als Einkaufsinstrument, Tendenz stark steigend – während der Anteil der Konsumenten, die noch nie über ihr Smartphone gekauft haben, gleichzeitig um über ein Viertel sank.
Auch der Blick nach China zeigt das immense Potential für den deutschen Handel im Mobile Commerce. Denn aus China lassen sich der PwC-Umfrage nach auch Trends für Deutschland ableiten, da das Einkaufsverhalten der chinesischen Verbraucher dem der deutschen Konsumenten um etwa drei bis vier Jahre voraus ist. Fast zwei Drittel der chinesischen Kunden kaufen mindestens einmal monatlich über ihr Smartphone ein – eine Entwicklung, der andere Länder wie Deutschland folgen werden. Doch trotz der umfassenden Digitalisierung ist das Konzept des Ladenlokals keinesfalls überholt, sondern weiterhin der wichtigste Bezugspunkt zum Kunden. Interessanterweise bekennen sich besonders die jungen Konsumenten zwischen 18 und 24 Jahren klar zum stationären Handel, wobei eine gute Beratung und ein besonderes Einkaufserlebnis wichtige Faktoren für den Erfolg sind. Dazu zeigt die PwC-Studie, dass Konsumenten immer mehr Online- und Offline-Kanäle während des Einkaufs kombinieren. Etwa die Hälfte sucht am liebsten im Internet nach Produkten. Für Händler ist daher die Verknüpfung aller Shopping-Kanäle wichtig. Immer größere Bedeutung gewinnen darüber hinaus die Social-Media-Plattformen. Sie ermöglichen nicht nur den Austausch über Produkte, sondern auch den direkten Kauf. Besonders junge Konsumenten lassen sich stark von Social Media beeinflussen. Ein weiterer wichtiger Erfolgsfaktor für die Zukunft sindProgramme zur Kundenbindung. Sie werden bereits jetzt von einer überwiegenden Mehrheit von Konsumenten genutzt. Allerdings schöpfen Unternehmen noch nicht das volle Potenzial aus. Denn die Verbraucher wünschen sich mehr personalisierte Angebote, die auf ihre persönlichen Bedürfnisse angepasst sind.
Die Studie „Total Retail 2016 – der Wettlauf um Relevanz“ gibt es zum Download unter: http://digital.pwc-tools.de/total-retail-2016//wp-content/uploads/sites/26/2016/08/Studie_Total_Retail_2016.pdf#page=5
ZTE mit neuer M-ICT 2.0 Strategie für eine offene digitale Sharing Economy
ZTE, Anbieter von Lösungen für die Telekommunikationsbranche sowie für Unternehmens- und Privatkunden im Bereich mobiles Internet, stellt in einem White Paper die neueste Version seiner Strategie für mobile Informations- und Kommunikationstechnologie (M-ICT) vor, an der sich die Unternehmenspolitik in den kommenden fünf Jahren orientieren wird. Ziel ist es, Unternehmen bei der Nutzung der wirtschaftlichen Chancen zu unterstützen, die sich aus der entstehenden Sharing Economy und dem breiten Einsatz von Peer-to-Peer-Netzen sowie aus der großen Vielfalt der verfügbaren Cloud-Computing-Plattformen und zugehörigen Dienste ergeben.
Die Strategie für M-ICT 2.0 basiert auf den nach Ansicht von ZTE fünf entscheidenden Faktoren, die für die laufende Transformation der globalen Wirtschaft zu einer offenen digitalen Sharing Economy verantwortlich sind: „Virtuality“ (Virtualisierung), „Openness“ (Offenheit), „Intelligence“ (Intelligenz/Wissen), „Cloudification“ (Cloudifizierung) und „Interconnection of Everything“ (Vernetzung aller Dinge) – kurz: VOICE. In den kommenden fünf Jahren wird sich ZTE daher bei der Entwicklung von Produkten und Leistungen auf diese Bereiche sowie die damit verbundenen Auswirkungen konzentrieren.
Das ZTE White Paper „M-ICT 2.0: VOICE for a Digital Future“ steht zur Verfügung unter: http://res.www.zte.com.cn/global/~/media/zte/Files/PDF/MICT2/MICT_20ENFinal.pdf
Nachholbedarf bei Digitalisierung auf den Fernstudienmarkt
Der Einfluss der Digitalisierung auf das Fernstudium wächst kontinuierlich. Dies gilt auch für die Erwartungen der (Fern)Studierenden an das digitale Lernangebot, die sich immer mehr digitale Lernformate für ihr Studium wünschen, seien es digitale Lehrbücher, virtuelle Vorlesungen oder Online-Prüfungen. Längst nicht alle Hochschulen können diese Wünsche erfüllen. Das zeigt die deutschlandweite und hochschulübergreifende Befragung Trendstudie Fernstudium 2016 (www.trendstudie-fernstudium.de/) der Internationalen Hochschule Bad Honnef – Bonn (IUBH). An der Online-Umfrage beteiligten sich über 2.600 Fernstudierende und Fernstudien-Alumni sowie Fernstudieninteressierte. Nach Philipp Höllermann, Head of Online Learning Solutions an der IUBH und Leiter der Studie, stellen der massive Wandel im Medienkonsum und die damit einhergehenden steigenden Ansprüche der Studierenden auch an etablierte Hochschulen große Herausforderungen. So nutzen mittlerweile fast alle Fernstudierende mobile Endgeräte (95 Prozent: Smartphone / 85 Prozent: Tablet), ein Wert deutlich über dem der Durchschnittsbevölkerung. Dies führt zu veränderten Vorlieben bei den Lernangeboten. Während 2014 der gedruckte Studienbrief mit über 90 Prozent als wichtiges Lernformat eingestuft wurde, reihte er sich 2016 hinter digitalen Angeboten, wie Online-Selbsttests, digitale Studienbriefe, Online-Vorlesungen und E-Klausuren ein. Diese Erwartungen können derzeit viele Hochschulen nicht erfüllen. Besonders groß ist die Diskrepanz zwischen Wunsch und Wirklichkeit bei E-Klausuren, Lern-Apps und für mobile Endgeräte optimierte Studienbriefe. Um auch in Zukunft wettbewerbsfähig zu sein, müssen die Hochschulen das digitale Lernangebot weiter ausbauen. Denn schon jetzt spielt dieses, wie auch die Flexibilität des Studienmodells, bei der Wahl des Studienprogramms eine wichtige Rolle.
Um Trends im digitalen Lernen zu erkennen, fragte die IUBH diesmal auch nach der Bedeutung von Augmented oder Virtual Reality Tools und Wearables (tragbare Minicomputer wie Smartwatches) für das Fernstudium. Bisher nur Thema für eine kleine Minderheit, doch die hohe Bereitschaft unter Besitzern solcher Geräte, diese für das Studium zu nutzen, zeigt das enorme Potential für zukünftige digitale Studienprogramme.
Die vollständigen Ergebnisse sind unter www.trendstudie-fernstudium.de zu finden. Dazu können die vorangegangenen Online-Umfragen aus den Jahren 2011 (www.trendstudie-fernstudium.de/s/2011-Trendstudie-Fernstudium-2011.pdf) und 2014 (www.trendstudie-fernstudium.de/s/Trendstudie-Fernstudium-2014-Hohe-Qualitat.pdf) Vergleichswerte zu den Entwicklungen im Fernstudienmarkt liefern.
GESIS Pretest-Datenbank – Stärken und Schwächen von Survey-Fragen schnell erkennen
Umfrageergebnisse sind immer abhängig von der Qualität der gestellten Fragen. Diese Erkenntnis ist die Grundlage der kognitiven Pretests, die bei GESIS durchgeführt werden. Die Pretest-Ergebnisse werden in der GESIS Pretest-Datenbank online zur Verfügung gestellt, die unter pretest.gesis.org erreichbar ist. Sie ermöglicht Forscherinnen und Forschern, Stärken und Schwächen bereits getesteter Survey-Fragen auszumachen und nachzuvollziehen, welche Konzepte mit den Fragen gemessen werden. So lassen sich zu den getesteten Survey-Fragen beispielsweise folgende Informationen finden:
Wie verstehen Befragte die Frage oder bestimmte Begriffe?
Wird die Frage im intendierten Sinne beantwortet?
Ist die Frage einfach zu beantworten?
Die GESIS Pretest-Datenbank dokumentiert die Ergebnisse von kognitiven Fragebogenpretests, die bei GESIS bereits durchgeführt wurden. Diese können entweder projektweise durchforstet oder mit Hilfe der Suchfunktion recherchiert werden. Die Suche bietet sowohl eine Schlagwortsuche als auch eine detaillierte Suche über Suchoptionen, wie z. B. Thema des Projekts oder der Fragen, Befragungsmodus, Projektzeitraum und Auftraggeber. Die Datenbank umfasst aktuell einen Teil der bisher durchgeführten Fragebogenpretests und wird in den kommenden Monaten laufend um weitere Pretestergebnisse erweitert. Weitere Informationen: http://pretest.gesis.org – Homepage der GESIS Pretest-Datenbank
VDMA gegen zentrale EU-Produktdatenbank
Trotz heftigem Widerstand aus der Industrie arbeitet die EU an der Einführung einer elektronischen Produktdatenbank, in der auch technische Daten erfasst werden sollen. Ziel der EU ist eine stärkere Marktüberwachung etwa im Hinblick auf Energieeffizienz. Der VDMA hingegen sieht in einer Produktdatenbank keinen wesentlichen Beitrag für eine effektivere Marktüberwachung. Vielmehr warnt der Verband, dass bei einer zentralen Erfassung von sensiblen Produktdaten auch Diebstahl und Missbrauch vorprogrammiert seien. Ohne angemessene Datensicherheit und Schutz des geistigen Eigentums gefährde die EU Geschäftsgeheimnisse der Unternehmen. Der Missbrauch sensibler technischer Daten habe für Maschinenbauer stets einen enormen wirtschaftlichen Schaden zur Folge. Die digitale Erfassung unzähliger Produktdaten führe zudem zu zeitaufwändigen Überprüfungen von Datenbankeinträgen.
Tatsächlich gibt es bereits jetzt Datenbanken, die dem Informationsaustausch der Behörden dienen (beispielsweise ICSMS). Diese Datenbanken können auch Hersteller nutzen, um Informationen an Behörden zu übermitteln. Wird eine Produktprüfung durchgeführt, übermittelt der Hersteller bereits heute die erforderlichen Daten auf elektronischem Weg. Bei besonders sensiblen Daten bleibt allerdings die Wahl des Kommunikationskanals ihm überlassen. Der neue Vorschlag des EU-Parlamentes zielt nun darauf ab, dass auch sensible Informationen wie technische Dokumentationen, Testberichte und Messreihen vom Hersteller in die geplante Datenbank hochgeladen werden sollen.
Der VDMA appelliert daher an Kommission, Parlament und Mitgliedsstaaten, den tatsächlichen Nutzen einer verpflichtenden Produktdatenbank zu hinterfragen. Das Hochladen etwa von technischen Produktinformationen wie Messergebnissen, sollte in keinem Fall Vorschrift werden. Der Verband Deutscher Maschinen- und Anlagenbau (VDMA) vertritt mehr als 3.100 Unternehmen des mittelständisch geprägten Maschinen- und Anlagenbaus. Mit aktuell gut einer Million Beschäftigten im Inland und einem Umsatz von 218 Milliarden Euro (2015) ist die Branche größter industrieller Arbeitgeber und einer der führenden deutschen Industriezweige insgesamt.
Kontakt: VDMA Verband Deutscher Maschinen- und Anlagenbau e.V., Telefon 069 6603 0. info@vdma.org
TEASER – eine Drehscheibe für kontrollierte Fachvokabulare im Semantic Web
Das Projekt TEASER (Terminology Engineering & Alignment Service Environment & Repository) wird im Rahmen eines kooperativen DFG-Projektantrags der TIB Hannover und der Technischen Hochschule Wildau konzipiert. In diesem Projekt soll für den Querschnittsbereich „Industrie 4.0“ ein frei zugängliches Fachvokabular erstellt werden. Dazu werden Ausschnitte aus zwei existierenden Thesauri miteinander verknüpft: dem Thesaurus „Technik und Management“ (TEMA®; entwickelt von TIB Hannover und WTI Frankfurt) und dem Thesaurus für Informatik, Wirtschaft und Verkehr der TH Wildau. Ziel dieses exemplarisch durchgeführten Verfahrens ist es, die entstehenden Begriffsräume in interdisziplinären Kontexten für ein verbessertes Wissensmanagement einzusetzen, zum Beispiel durch eine semantische Sucherweiterung in Rechercheanwendungen. Der zentrale Gegenstand des Antrags ist der Aufbau einer technischen Infrastruktur und darauf aufbauend einer modularen Plattform mit Werkzeugen und Diensten für die webbasierte Bearbeitung, Verknüpfung und Nachnutzung von Fachvokabularen aus Forschungs- und bibliothekarischen Einrichtungen – ein Instrument für die nachhaltige Sicherung von Wissensstrukturen mit Blick auf zukünftige Einsatzszenarien im Kontext des Semantic Web.
Predictive Analytics bei der Deutschen Bahn
Die Deutsche Bahn wird zukünftig Data Analytics Services von T-Systems nutzen, um die bestehenden Echtzeit-Prognosen zu An- und Abfahrtszeiten im Bahnverkehr zu verbessern. Im Minutentakt werden dabei die Fahrplandaten für mehr als zwei Millionen Halte pro Tag im Wesentlichen für den gesamten fahrplangebundenen Personenverkehr mit der aktuellen Verkehrslage abgeglichen. Daraus ergibt sich eine Echtzeit-Prognose über die voraussichtliche Ankunftszeit und gleichzeitig deren Auswirkung auf mögliche Anschlussverbindungen. Während der Berechnungen werden die Positionsmeldungen aller fahrenden Züge innerhalb von Sekunden in Rechenzentren von T-Systems analysiert und in Echtzeit jeweils eine Prognose für den restlichen Zuglauf erstellt. Der dabei verwendete Algorithmus nutzt unter anderem Verfahren des maschinellen Lernens. Dazu bedient er sich verschiedener Prognosemodelle, die je nach Verkehrslage dynamisch ausgewählt werden. Im 24-Stunden-Rhythmus werden die Modelle nachts auf historischen Daten trainiert. So verbessert sich die Prognosegenauigkeit kontinuierlich und passt sich an die aktuellen Verkehrsgegebenheiten an. Die Prognoselösung basiert auf einer Eigenentwicklung von T-Systems und deren Tochterunternehmen T-Systems Multimedia Solutions und wird in einem gemeinsamen Projekt mit der Deutschen Bahn weiterentwickelt und eingeführt.
Die Lösung soll ab dem zweiten Quartal 2017 die Information der Reisenden bei Verspätungen von Fernverkehrs- und Nahverkehrszügen spürbar verbessern und wird dann durch weitere Daten kontinuierlich weiterentwickelt – ganz im Sinne von Smart Data. Per Smartphone und App, aber auch an den Bahnhöfen, sollen sich Fahrgäste der Deutschen Bahn damit bis zu 90 Minuten im Voraus über Abfahrtszeiten in Echtzeit informieren können.
Breitbandnetze und Schlüsseltechnologien für die Gigabit-Gesellschaft
Um auch künftig im internationalen Wettbewerb bestehen zu können, muss Deutschland auf eine äußerst leistungsfähige Netz-Infrastruktur setzen, so das Ergebnis der Studie „Der Weg in die Gigabitgesellschaft“ im Auftrag des Vodafone Instituts für Gesellschaft und Kommunikation.
Die Leistungsfähigkeit der Breitbandnetze korreliert positiv und statistisch hochsignifikant mit dem Wirtschaftswachstum: Dies bedeutet, dass eine Erhöhung der derzeitigen Durchschnittsgeschwindigkeit in Deutschland um ein Prozent mit einer Erhöhung des BIP um knapp zwei Milliarden Euro einhergehen würde. Zudem zeigt sich bei einer Erhöhung des Glasfaserausbaus eines Landes um ein Prozent pro Jahr eine Steigerung des Bruttoinlandsproduktes (BIP) um 0,02 bis 0,04 Prozent pro Jahr. Für Deutschland würde dies eine Erhöhung des BIP um 600 Millionen bis 1,2 Milliarden Euro bedeuten.
Ende 2015 verfügten in Deutschland lediglich rund 60 Prozent der Unternehmen über Breitbandanschlüsse mit mindestens 50 Mbit/s. Dies kann in absehbarer Zukunft zu einem erheblichen Standortnachteil für die einheimische Wirtschaft führen.
Insgesamt identifiziert die Studie 17 Schlüsseltechnologien, die eine Gigabit-Gesellschaft maßgeblich bestimmen werden und verifiziert sie anhand von Patentveröffentlichungen der Jahre 2006 bis 2015. Unter ihnen befinden sich beispielsweise Robotik, Holografie, 3D-Druck, Bildgebende Verfahren und Gaming. Erfinder aus Deutschland haben diese Themen früh erkannt und aufgegriffen. In fast allen Schlüsseltechnologien ist Deutschland bei den Patentanmeldungen unter den Top 5.
Überdies zeigt sich, dass die Gigabit-Schlüsseltechnologien mit zahlreichen Anwendungsbereichen verknüpft sind. Diese sind unter anderen die digitale Landwirtschaft, digitale Lebenswelten (bspw. Home Robotics, eCommerce, eWallet, ePayment etc.), digitaler Staat und Verwaltung, Smart Health, Energieerzeugung oder Smart Mobility.
Im Vergleich der durchschnittlichen Verbindungsgeschwindigkeiten (Akamai, 2016) belegt Deutschland mit 12,9 Mbit/s nur den 13. Platz. Spitzenreiter ist hier Südkorea (26,7 Mbit/s) vor Schweden (19,1) und Norwegen (18,8).
Die Analyse einschlägiger Literatur zeigt, dass in den kommenden Jahren kein Ende des Datenhungers abzusehen ist. Die Nachfrage nach mehr Bandbreite steigt. Treiber sind in der Regel nicht die bekannten Anwendungen, sondern die digitalen Schlüsseltechnologien und die Märkte der Zukunft. Erhältlich ist die gesamte Studie unter www.vodafone-institut.de.
Internetwirtschaft gegen neue Pflichten
Die Internetwirtschaft wehrt sich heftig gegen eine Verordnung der Bundesnetzagentur, die für die Kunden von Telekommunikationsunternehmen bessere Informationen über die Details von Verträgen, die Qualität und technische Eigenschaften ihrer Internetzugänge sicherstellen will. In der von der Bundesregierung dem Deutschen Bundestag vorgelegten Verordnung der Bundesnetzagentur für Elektrizität, Gas, Telekommunikation, Post und Eisenbahnen zur Förderung der Transparenz auf dem Telekommunikationsmarkt werden die Unternehmen verpflichtet, den Kunden vor Vertragsabschluss ein Produktinformationsblatt zur Verfügung stellen, das die wesentlichen Vertragsbestandteile aufzeigt. Diese Pflicht wurde von der Branche in einer öffentlichen Anhörung des Ausschusses für Wirtschaft und Energie am 28. September 2016 als „nicht praktikabel umsetzbar“ bezeichnet. Nach Ansicht der Branche sollte die Verordnung auch nur auf Endverbraucher Anwendung finden und nicht auf Geschäftskunden, mit denen oft individuelle Verträge geschlossen würden. Diese Position wurde in der Anhörung von Fabian Riewertz (Deutsche Telekom) und von Isabel Tilly (Verband der Anbieter von Telekommunikations- und Mehrwertdiensten) vertreten.
In dem Produktinformationsblatt soll eine Reihe von wichtigen Angaben gemacht werden: So müssen die Anbieter die Vertragslaufzeiten, die minimale, normalerweise zur Verfügung stehende und die maximale Datenübertragungsrate ebenso nennen wie die Rahmenbedingungen zu einer etwaigen Reduzierung der Datenübertragungsrate („Drosselung“). Solche Produktinformationsblätter könnten zum Beispiel über Vertriebskanäle wie Supermärkte oder Tankstellen nicht bereitgestellt werden, argumentierten mehrere Verbände wie der Verband deutscher Kabelnetzbetreiber, Bitcom, der Bundesverband Breitbandkommunikation und der Verband der Internetwirtschaft.
Auch nach der Freischaltung des Anschlusses sollen die Kunden zusätzliche Informationen erhalten. So gibt es einen Rechtsanspruch auf Information zur aktuellen Datenübertragungsrate ihrer Mobilfunk- beziehungsweise Festnetzanschlüsse. Außerdem werden die Anbieter verpflichtet, dem Endnutzer die vertraglich vereinbarte minimale und maximale Datenübertragungsrate sowie die tatsächlich gemessene Datenübertragungsrate darzustellen. „Die Messergebnisse müssen speicherbar sein und im Online-Kundencenter hinterlegt werden können“, wird vorgeschrieben. Dieser Vorschlag ging Alexander Leefmann vom „Chaos Computer Club“ nicht weit genug: „Es fehlt eine klare Festlegung zur unabhängigen Messung der Qualität des Dienstes. Vom Anbieter bereitgestellte Messmethoden sind bereits in der Vergangenheit durch Ergebnisse aufgefallen, die auch unter widrigen Übertragungsbedingungen ausgerechnet die im Vertrag vereinbarten Maximalleistungen auswiesen.“ Carola Elbrecht (Verbraucherzentrale Bundesverband) forderte ein Kündigungsrecht des Verbrauchers, wenn ein Messergebnis erhebliche Abweichungen zu der vertraglich vereinbarten Datenübertragungsrate aufweise.
Eine weitere Neuregelung betrifft die Mindestvertragslaufzeit, deren Ende für Verbraucher oft nur schwer zu ermitteln ist. Vorgeschrieben wird jetzt der regelmäßige Abdruck dieses Datums in der Monatsrechnung. Damit werde „eine zuverlässige und für den Verbraucher praktikable Informationsmöglichkeit geschaffen“, erwartet die Bundesnetzagentur. Auch diese Vorschriften stießen auf Kritik der Branche. „Die verpflichtende Angabe der Informationen zur Vertragslaufzeit auf der Rechnung ist ein beispiellos beeinträchtigender Markteingriff“, wurde kritisiert. Die Rechnungsstellungssysteme seien zudem nicht auf Angabe solcher Informationen ausgelegt, so dass hohe Umstellungskosten drohen würden.
Liselotte Weber von der Bundesnetzagentur übte in ihrer Stellungnahme heftige Kritik an den Anbietern. Untersuchungen hätten gezeigt, „dass es über alle Technologien, Produkte und Anbieter hinweg eine deutliche Diskrepanz zwischen der vertraglich vereinbarten Maximaldatenübertragungsrate und der tatsächlich realisierten Datenübertragungsrate gibt“. Die Bundesnetzagentur könne aber keine Mindestqualitäten für Internetzugänge festlegen. Dafür fehle ihr die Ermächtigungsgrundlage. Volker Tripp vom Verband „Digitale Gesellschaft“ lobte die Zielsetzung der Verordnung, die Transparenz zu verbessern. Kunden seien oft nicht in der Lage, die vertragsgemäße Leistungserbringung wirksam zu kontrollieren und ihre Rechte gegenüber den Anbietern in angemessener Form wahrzunehmen.
Quelle: Deutscher Bundestag, Parlamentsnachrichten, PuK 2
© 2016 Walter de Gruyter GmbH, Berlin/Boston
Articles in the same Issue
- Titelseiten
- DGI-Forum Wittenberg 2015
- Fake und Folgen
- Informationslinguistik
- Opinion Spam – Meinungsäußerungen als Fake
- DGI-Konferenz 2016
- Die High-Performance-Plattform New STN – eine neue Recherchedimension
- Aus „Information und Dokumentation“ wird „Informations- und Datenmanagement“ – zur Neuausrichtung des dokumentarischen Studiengangs an der FH Potsdam
- Informationsdidaktik
- Informationsdidaktik – Skizze eines neuen informationswissenschaftlichen Forschungsfelds
- Digital Humanities
- Gute Ergebnisse aus „schlechten“ Textvorlagen
- Informationswirtschaft
- Wissenswert – Warum Wissen die Währung der Zukunft ist
- Informationsrecht
- Europäischer Gerichtshof präzisiert Haftung für Hyperlinks
- DGI-Praxistage 2015
- Von Plato zu Snapchat – Kommunikationsanalyse und Visualisierung
- Informationspraxis
- Predictive Analytics im Marketing mit moderner Systemarchitektur
- Tagungsbericht
- Open Access und Open Science in der Hochschullehre
- Interview
- Technik bringt ohne Inhalte gar nichts
- Nachrichten
- Nachrichten
- Informationen
- Informationen
- Buchbesprechungen
- Buchbesprechungen
- Aus der DGI
- Aus der DGI
- Literaturauslese
- Terminkalender
Articles in the same Issue
- Titelseiten
- DGI-Forum Wittenberg 2015
- Fake und Folgen
- Informationslinguistik
- Opinion Spam – Meinungsäußerungen als Fake
- DGI-Konferenz 2016
- Die High-Performance-Plattform New STN – eine neue Recherchedimension
- Aus „Information und Dokumentation“ wird „Informations- und Datenmanagement“ – zur Neuausrichtung des dokumentarischen Studiengangs an der FH Potsdam
- Informationsdidaktik
- Informationsdidaktik – Skizze eines neuen informationswissenschaftlichen Forschungsfelds
- Digital Humanities
- Gute Ergebnisse aus „schlechten“ Textvorlagen
- Informationswirtschaft
- Wissenswert – Warum Wissen die Währung der Zukunft ist
- Informationsrecht
- Europäischer Gerichtshof präzisiert Haftung für Hyperlinks
- DGI-Praxistage 2015
- Von Plato zu Snapchat – Kommunikationsanalyse und Visualisierung
- Informationspraxis
- Predictive Analytics im Marketing mit moderner Systemarchitektur
- Tagungsbericht
- Open Access und Open Science in der Hochschullehre
- Interview
- Technik bringt ohne Inhalte gar nichts
- Nachrichten
- Nachrichten
- Informationen
- Informationen
- Buchbesprechungen
- Buchbesprechungen
- Aus der DGI
- Aus der DGI
- Literaturauslese
- Terminkalender