Zusammenfassung
Die 13. Jahrestagung der Sektion Molekulare Diagnostik der Deutschen Vereinten Gesellschaft für Klinische Chemie und Laboratoriumsmedizin (DGKL) stand unter dem Leitthema „Omics-Technologien im klinischen Alltag und in der translationalen Forschung“ und fand vom 15. - 16.05.2014 in Tutzing statt. In den letzten Jahren wurden bei der Untersuchung der verschiedenen Kompartimente des menschlichen Organismus technologische Quantensprünge erreicht. Die neuen Techniken stehen jetzt an der Schwelle zum Einzug in die klinische Diagnostik. Auf der diesjährigen Tagung wurde der aktuelle Stand aus Sicht der vier Arbeitsgruppen der Sektion (Genomics, Bioinformatik, Biobanking, Proteomics/Metabolomics) vorgestellt und diskutiert. Als zentrale Botschaft scheint sich die Schere zwischen dem technologisch Machbaren und der Kenntnis der Phänotyp-Genotyp-Beziehung immer weiter zu öffnen. Dementsprechend stellt die sinnvolle Auswertung der gewaltigen Datenmengen und die Bewertung der ethischen und juristischen Implikationen eine zentrale Herausforderung unserer Zeit dar.
Abstract
The 13th Annual Meeting of the Section of Molecular Diagnostics of the German Association of Clinical Chemistry and Laboratory Medicine (DGKL) was held under the main topic „Omics-technologies in routine diagnostics and translational research“ on May 15th and 16th in Tutzing, Germany. In the past years, significant technological advances have been achieved in the examination of different compartments of the human body. These methods have now reached the threshold of entering clinical diagnostics. This year’s meeting aimed to present and discuss the current state from the point of view of the sections’ four working groups (genomics, bioinformatics, biobanking, proteomics, metabolomics). A key message of the meeting was a continuous opening of the gap between what is technologically feasible and the knowledge of the phenotype-genotype-relation. Consequently, the main challenge currently consists in an appropriate evaluation of the enormous amounts of data and the assessment of the associated ethical and legal implications.
Rezensierte Publikation:
Klein H.-G.
Arbeitsgruppe Genomics
Die Sitzung der AG Genomics behandelte das Leitthema „Omics-Technologien im Klinischen Alltag und in der translationalen Forschung“ im Kontext von Genomanalysen durch je einen Beitrag über Whole Genome Sequencing (WGS), Whole Exome Sequencing (WES) und Clinical Exome Sequencing (CES). Da die Generierung umfangreicher Datensätze aus menschlicher DNA auch juristische und ethische Fragen aufwirft, wurde die Sitzung durch je einen Beitrag zu den juristischen und den ethischen Aspekten von Genomanalysen ergänzt.
Tina Hambuch (CLIA Lab, Illumina, San Diego, USA) berichtete über den Ansatz von Illumina, durch eine qualitativ hochwertige Analyse des gesamten menschlichen Genoms einen Beitrag zur Patientenversorgung und zur translationalen Forschung zu leisten. WGS ist trotz sich ständig verbessernder Anreicherungsverfahren, Leseweiten und Durchsatzkapazitäten immer noch ein aufwändiger Prozess, der vor allem in der Forschung seinen Platz hat. In den USA habe sich inzwischen eine molekularpathologische Kategorisierung von genomischen Varianten durchgesetzt, wodurch die krankheitsverursachende Wirkung einzelner Varianten nach ihrem möglichen Malignitäts- oder Benignitätsgrad abgeschätzt werden kann.
Peter Bauer (Institut für Humangenetik der Universität Tübingen) fokussierte in seinem Vortrag sehr anschaulich über den Stellenwert der Exom-Sequenzierung, die für einige Anwendungen bereits in der Patientenversorgung eingesetzt wird. Die größte Herausforderung stelle jedoch nach wie vor die Bioinformatik dar, da auch beim Einsatz der besten Filterverfahren immer noch zahlreiche, schwer interpretierbare Daten im Raum stehen bleiben. Ähnlich wie beim WGS-Ansatz werden daher auch beim diagnostischen WES-Ansatz nur bestimmte Gene (Panels) für die jeweilige klinische Fragestellung zur Auswertung herangezogen. Die ausgewerteten Gene, die Eingang in einen Befund finden, sollten allerdings auch lückenlos in diagnostischer Qualität abgedeckt und ggf. mit Sanger-Sequenzierung ergänzt werden. Noch in diesem Jahr ist die Veröffentlichung von europäischen Qualitätsstandards für Next Generation Sequencing durch eine Arbeitsgruppe der Eurogentest-Initiative im European Journal of Human Genetics vorgesehen.
Hanns-Georg Klein (Zentrum für Humangenetik und Laboratoriumsmedizin (MVZ) Dr. Klein, Dr. Rost und Kollegen, Martinsried) referierte über die ersten Erfahrungen beim Einsatz von Clinical Exome Sequencing (CES) in der Patientenversorgung. Bei einer CES-Analyse werden nur diejenigen Gene sequenziert, für die nach dem derzeitigen Stand der Kenntnis eine Krankheitsassoziation beschrieben ist. Die Firma Illumina (San Diego, CA) vertreibt unter dem „TruSight One Sequencing Panel“ einen Kit, der momentan 4.800 Gene mit dokumentierter Krankheitsassoziation umfasst. Durch diesen reduzierten Ansatz wird die bioinformatische Auswertung erheblich vereinfacht. Allerdings ist es auch notwendig, Panels für bestimmte Fragestellungen zu extrahieren (z.B. ein 500-Gen-Panel bei der Fragestellung Entwicklungsverzögerung) und es sollten im Rahmen der Diagnostik bioinformatisch auch diejenigen Gene ausgeblendet werden, die z.B. mit hereditären Tumorerkrankungen oder spät manifestierenden neurologischen Erkrankungen (z.B. Chorea Huntington) assoziiert sind und mit der eigentlichen Fragestellung nichts zu tun haben. Ein wichtiges Anliegen der klinisch orientierten Humangenetik sei es, möglichst keine Zusatzbefunde (incidental findings) zu generieren, wodurch sich leicht eine schwierige Beratungssituation ergeben kann. Anhand von zwei Fallbeispielen wurde gezeigt, dass – im Vergleich zur konventionellen Stufendiagnostik – ein CES-Ansatz bei Erkrankungen mit komplexem Phänotyp bereits heute zu einer deutlich schnelleren und kosteneffizienteren molekulargenetischen Diagnose führen kann. Durch das interdisziplinäre Zusammenwirken von Molekulargenetik und Biochemie können inzwischen auch unklare Keimbahnvarianten, z.B. in Stoffwechselgenen durch Enzymaktivitätsmessungen oder massenspektrometrisch erstellte metabolische Profile funktionell validiert werden. Hierbei handele es sich um eine neue Qualität der genetischen Diagnostik, die man unter dem Begriff translationale humangenetische Diagnostik zusammenfassen könnte.
Kerrin Schillhorn, MIL (Kanzlei Mütze Korsch Rechtsanwaltsgesellschaft mbH, Köln), Verfasserin mehrerer Kommentare zum Gendiagnostik-Gesetz (GenDG), stellte anhand einiger Gesetzespassagen die Problematik von genomweiten Analysen für die Patientenaufklärung dar. Es sei fast unmöglich, alle Aspekte des GenDG zu beachten, da man eben nicht über alle Eventualitäten aufklären könne. Die Politik und die Gesetzgebung könnten der technologischen Entwicklung derzeit nicht mehr folgen. Bislang gebe es auch keine Rechtsprechung zum GenDG, so dass wir uns in einer juristisch unklaren Situation befänden. Lediglich die Kommentare der Gendiagnostik-Kommission könnten derzeit als normierend für bestimmte Fragestellungen angesehen werden.
Eva Winkler (Nationales Zentrum für Tumorerkrankungen der Universität Heidelberg, Sprecherin des EURAT-Projekts – ethische und rechtliche Aspekte der Totalsequenzierung des menschlichen Genoms) stellte das EURAT-Projekt in den Mittelpunkt ihres Vortrags. So seien einerseits die Würde des Menschen und das Recht auf informationelle Selbstbestimmung unbedingt zu respektieren, andererseits aber auch die Freiheit von Forschung und Wissenschaft. Daher sei ein verantwortungsvoller Umgang mit den neuen Technologien geboten.
Ausführliche Manuskripte zu den Vorträgen der AG Genomics finden Sie auch in der Fachredaktion Molekular- und zytogenetische Diagnostik.
Arbeitsgruppe Bioinformatik
Georg Hoffmann (Verlag Trillium, Grafrath) stellte als Vorsitzender der Arbeitsgruppe in seinem einführenden Vortrag einen Vergleich zwischen zwei Fachgebieten an, die beide eine Brücke zwischen Biologie und Medizin schlagen: Die Biochemie wurde vor einem halben Jahrhundert zum eigenständigen Berufsbild, war und ist ein wichtiges Karrieresprungbrett für wissenschaftlich interessierte Ärzte und stellt heute einen selbstverständlichen Bestandteil des Medizinstudiums dar. Die Bioinformatik wurde erst vor ca. zehn Jahren mit dem Abschluss des Humangenomprojekts als eigenständiges Berufsbild geboren. Sie entwickelt sich nun ebenfalls rasch zum Karrieresprungbrett für Mediziner und wird voraussichtlich in einigen Jahrzehnten aus dem medizinischen Curriculum nicht mehr wegzudenken sein. Aus diesem Grunde plant die AG Bioinformatik einen Workshop für DGKL-Mitglieder, der im Erfolgsfall in eine regelmäßige, mehrtägige Summer School münden soll. Die Bioinformatik löst definitionsgemäß Probleme der Biowissenschaften (einschließlich der Medizin) mit computergestützten Verfahren. Sie befasst sich im Wesentlichen mit:
der Bereitstellung großer Datenbanken (Genomics, Proteomics u.ä.)
der Struktur- und Funktionsanalyse von Nukleinsäuren und Proteinen
der Exploration und Klassifikation auf Basis von Expressionsdaten
der Modellierung von Signal- und Stoffwechselwegen und
der Simulation ganzer Zellen, Organismen und Gemeinschaften von Organismen.
Aktuell befasst sich die DGKL-Arbeitsgruppe schwerpunktmäßig mit der Exploration großer Biomarker-Datensätze und der Klassifikation komplexer Krankheitsbilder wie Krebs und Demenz. Ziel ist es, Datensätze verschiedener „Omics“-Technologien zusammenzuführen und für eine individualisierte Medizin nutzbar zu machen.
Thomas Rattei (Universität Wien) diskutierte bioinformatische Verfahren zur Auswertung massiv parallel erhobener Genomdaten. Diese werden durch die Verbreitung leistungsfähiger Next-Generation-Sequencing-Geräte immer schneller und preisgünstiger verfügbar; neben der Genomik treten Metagenomik (Sequenzdaten kompletter Mikrobiome, beispielsweise im Darm oder auf der Haut) und Transkriptomik (Expressionsanalyse auf RNA-Ebene) in den Fokus des medizinischen Interesses. In der Bioinformatik verlangt die enorme Datenflut eine Standardisierung der Methoden, die Etablierung aufeinander abgestimmter Softwarekomponenten für komplexe Arbeitsabläufe und eine Verschmelzung von Sequenzanalyse- und LIMS-Software. Herausforderungen bilden u. a. die Datenkompression und der Ressourcenbedarf. So werden genomische Varianten zunehmend auch in genetisch heterogenen Zellpopulationen – zum Beispiel beim Krebs – analysiert, was die Bestimmung von Nachweisgrenzen für verschiedene Mutationstypen erforderlich macht. In der Metagenomik versucht man, aus Milliarden kurzer Teilsequenzen durch Kombination von datenbank-basierten Methoden und maschinellen Lernverfahren möglichst komplette Genome zu rekonstruieren. In der Expressionsanalyse besteht bislang noch eine zu hohe Variabilität quantitativer Ergebnisse zwischen verschiedenen Plattformen und Laboren, was die Aussagekraft und Übertragbarkeit der Ergebnisse stark einschränkt. Die Labordiagnostik kann hier aus jahrzehntelanger Erfahrung Techniken der Standardisierung und Validierung beitragen und die Bioinformatik in ihrem Übergang von explorativer zu problemgetriebener Arbeitsweise unterstützen.
Sebastian Eck (Zentrum für Humangenetik und Laboratoriumsmedizin Dr. Klein, Dr. Rost und Kollegen, Martinsried) stellte den Einsatz der Multi-Gen-Panel-Sequenzierung (MGPS) in der Routinediagnostik vor. Sie erlaubt die simultane Anreicherung und Sequenzierung von einigen Dutzend Genen, was neue Herausforderungen bei der Analyse und Verwaltung großer Datenmengen mit sich bringt. Je nach Indikationsgruppe werden unterschiedliche Sets von Genen zu einem sog. „Masterpanel“ zusammengestellt – zum Beispiel 63 Gene für erbliche kardiologische Erkrankungen, 23 Gene für Bindegewebserkrankungen (EDS) oder 17 Gene für das nephrotische Syndrom; diese werden dann aus arbeitstechnischen und wirtschaftlichen Gründen für alle Patienten gemeinsam angereichert und sequenziert. Die bioinformatische Auswertung beschränkt sich dann auf das beim jeweiligen Patienten indizierte Panel. Die Datenanalyse erfolgt durch teilweise automatisierte Verfahren (CLC GenomicsWorkbench), die den Vergleich der Reads mit dem Referenzgenom (Mapping), die Identifikation von genetischen Varianten sowie Annotation und Filterung übernimmt. Exons mit unzureichender Abdeckung werden mittels Sanger Sequenzierung nachanalysiert. Für die Verwaltung und Interpretation der identifizierten Varianten wurde eine relationale Datenbank entwickelt, in die nur die Patientenvarianten des medizinisch indizierten und angeforderten Panels eingehen. Alle anderen Varianten werden anonymisiert gespeichert. Dadurch ist es u. a. möglich, für jede genetische Variante eine Frequenz in der Kontrollpopulation zu berechnen, was die Datenauswertung bezüglich der Interpretation der Kausalität der Varianten erleichtert. Bisher wurden mehr als 250 Fälle mit dem beschriebenen Ansatz bearbeitet. Zusammenfassend stellte der Referent fest, dass die MGPS insbesondere bei sehr heterogenen Erkrankungen zu einer erheblichen Reduktion in Zeit- und Kostenaufwand führen kann. Bei ausreichend hoher Abdeckung lassen sich auch Fälle identifizieren, bei denen gleichzeitig mehrere Mutationen das vorliegende Krankheitsbild erklären könnten.
Matthias Ganzinger (IMBI Universität Heidelberg) berichtete über eine IT-Plattform zur projektübergreifenden Auswertung biomedizinischer Forschungsdaten, die im Rahmen des Sonderforschungsbereichs/Transregio 77 „Leberkrebs – von der molekularen Pathogenese zur zielgerichteten Therapie“ entwickelt wurde. Die Daten werden von den Projekten des Verbundes erzeugt und in heterogenen Datenstrukturen vorgehalten, woraus sich eine Herausforderung für deren übergreifende Auswertung ergibt. Da es sich dabei auch um unveröffentlichte Daten handelt, spielen der Schutz der Daten vor unberechtigtem Zugriff und die Sicherstellung der ordnungsgemäßen Verwendung durch die übrigen Verbundteilnehmer eine große Rolle. Die Plattform basiert daher auf einer serviceorientierten Architektur (SOA), wodurch Daten und Analysekomponenten jeweils in Form von Diensten bereitgestellt werden, die dann flexibel zu analytischen Pipelines zusammengestellt werden können. Da es sich nicht um eine zentrale Datenbank handelt, kann die Kontrolle über die Datendienste sowohl logisch als auch physikalisch bei den Urhebern der Daten verbleiben. Zur übergreifenden Auswertung wird eine Webbrowser-basierte Benutzerschnittstelle bereitgestellt. Weiterhin stellte Herr Ganzinger verschiedene Aspekte des Datenschutzes vor. Da für die vorgestellte Plattform kein Personenbezug zu den verwendeten Daten erforderlich war, wurden diese anonymisiert. Sollte es erforderlich sein, den Personenbezug beizubehalten, so bieten sich Konzepte auf der Basis von Pseudonymisierung an, wie sie beispielsweise von der Technologie- und Methodenplattform für die vernetzte medizinische Forschung (TMF) entwickelt wurden.
Arbeitsgruppe Biobanken
Die Sitzung der Arbeitsgruppe Biobanken fand unter dem Vorsitz von Michael Kiehntopf (Jena) statt. Sie behandelte das Leitthema der Tagung im Kontext der aktuellen Entwicklung bei Biobanken. Diese ist geprägt ist von einer stetig zunehmenden Professionalisierung mit teilweise bereits industriellen Workflows und Vernetzung der Biobanken, einer Internationalisierung und zunehmenden rechtlichen Vorgaben, insbesondere der Novelle der EU-Datenschutzrichtlinie.
Uwe Völker (Labor für Funktionelle Genomforschung der Universität Greifswald) berichtete über die Bedeutung des Biobankings für die translationale Forschung. Die Universität Greifswald verfügt über eine große Zahl von Probandenstudien mit entsprechenden Biobanken. Neben den bevölkerungsbezogenen Kohortenstudien SHIP (seit 1997) und SHIP-TREND (seit 2008, u.a. mit Ganzkörper-MRT) sind das vor allem die im Rahmen des Gani_Med-Projektes angelegten Patientenstudien, die u.a. die Indikationsgebiete Herz-Kreislauf, neuro-zerebrovaskuläres System, Niere, Metabolismus und neue Infektionskrankheiten abdecken. Für die Lagerung der insgesamt 1 Mio. Bioproben bei –80°C hat sich das am Standort eingesetzte industrielle Probenhandling-System sehr gut bewährt. Am Forschungsschwerpunkt für Communitiy Medicine & Individualisierte Medizin ist als übergeordnetes Board für alle Aktivitäten mit Daten- und Biobanken ein Datenverbund geschaffen worden. Nach einer äußerst erfolgreichen Zeit der Genidentifikation in Greifswald (z. B. Beteiligung an GWAS-Konsortien mit >250 Phänotypen, Transkriptomanalysen an 1.000 Probanden, Proteomanalysen aus Plasma, Serum, Urin und Speichel, miRNA aus Plasma) rückt in letzter Zeit verstärkt die Bedeutung der Bioproben für die Validierung neuer Ergebnisse und für die Charakterisierung der zugrunde liegenden Mechanismen in den Vordergrund. Dabei ist ein besonders aktiv verfolgter Ansatz die Transkriptomanalyse aus WBCs und anderen Geweben, die u. a. einen Zusammenhang zwischen SNPs und mRNA-Transkriptleveln herstellen (TWAS bzw. eQTL) und die damit der erste Schritt einer erfolgreichen mechanistischen Aufklärung eines GWAS-Hits sein könnten. Transkriptuntersuchungen aus WBCs hätten interessanterweise auch ergeben, dass mehr Transkripte negativ mit dem BMI assoziiert sind (65%) als positiv (35%). Ein Grund dafür scheint der bei Übergewicht ansteigende relative Retikulozytenanteil im Blut zu sein. Diese Untersuchungen würden derzeit mit interessanten molekularen Daten für die mechanistischen Grundlagen der peripheren Insulinresistenz fortgeführt, i.e., das attenuiert veränderte Insulin-Signalling bei hohem BMI. Ein prädiktiv fokussiertes Projekt zur chronischen Niereninsuffizienz (CKD) mit proteomischer Untersuchung von Urin-Bioproben hat zur Identifizierung eines signifikanten CKD-Prädiktors aus acht verschiedenen Urin-Proteinen geführt. Bei der dilatativen Kardiomyopathie ist eine Gewebe-Transkriptom Signatur aus vier mRNAs entdeckt worden, die den Therapieerfolg einer Immunadsorption kardialer Autoantikörper aus dem Patientenblut vorhersagen könne. Diese Ergebnisse unterstreichen auf eindrucksvolle Weise den Wert des standortweit systematisch und nachhaltig durchgeführten Biobankings für die Translation neuer biomedizinischen Forschungsergebnisse.
Im zweiten Vortrag referierte Michael Krawczak (Kiel) über den Datenschutz im Rahmen des Betriebs von Biobanken sowie über das Spannungsfeld von informationeller Selbstbestimmung und Forschungsfreiheit. Grundlegend ist hierbei das Prinzip der Anwendung technischer und organisatorischer Maßnahmen, die insbesondere auf die Verhinderung des Rückidentifizierungsrisikos abzielen. Basis für dieses seit 2006 auch bei PopGen angewendete Konzept ist das von der TMF entwickelte Generische Konzept zum Datenschutz für Forschungsnetze in der Medizin, für das 2014 eine Neuauflage (Leitfaden zum Datenschutz in medizinischen Forschungsprojekten, Generische Lösungen der TMF – Version 2) erscheint, die auch ein spezielles Modul zum Thema Datenschutz von Biobanken (Biobankenmodul) enthält. Neben Personendaten (IDAT), Pseudonymen (PID und PSN) und medizinischen Kontextdaten (MDAT) werden hier auch Biobank-spezifische Daten behandelt, wie z. B. reine organisatorische Daten (OrgDat), Analyse-Daten (AnaDat), Proben-beschreibende Daten (ProbDat) sowie die Probennummer (LabID) und die nochmals pseudonymisierte LabID Trans, auf deren Basis Proben zusammen mit weiteren medizinischen Kontextdaten auch für verschiedene Forschungsanwendungen zur Verfügung gestellt werden können. Eine neue Herausforderung besteht aktuell im Zusammenhang mit dem Aufbau der zentralen Biobanken (cBMBs) und der Förderung der nationale Biobankinitiative in der Vernetzung von Daten verschiedener lokaler Biobanken, aber auch der cBMBs untereinander, um die Interoperabilität von Biobanken weiter zu verbessern. Im Bereich von PopGen wird daher aktuell die organisatorische Vernetzung von – und gemeinsame Governance für – sieben in Schleswig-Holstein ansässige Biomaterialsammlungen etabliert. Die Vorgaben beinhalten hier ein zentralisiertes Proben-Datenmanagement, standardisiertes Qualitätsmanagement der Daten (Plausibilitätskontrolle etc.), ein koordiniertes IC-Management zur Vereinheitlichung aktuell unterschiedlicher Einverständniserklärungen und ein integriertes Identitätsmanagement sowie ein einheitliches Datenschutzkonzept für das ganze Netzwerk. Hierbei werden keine identitätsbezogenen Daten (IDAT) und keine klinischen Kontextdaten (MDAT) zentral gehalten. Besondere Bedeutung hat in diesem Konzept auch das auf dem Mustertext des Arbeitskreises Medizinischer Ethik-Kommissionen zur Spende, Einlagerung und Nutzung von Biomaterialien sowie zur Erhebung, Verarbeitung und Nutzung von Daten in Biobanken basierende und in P2N verwendete Management des Informed consent (IC). Neue Aspekte, die insbesondere die aktuell mögliche breite Zustimmung zur Verwendung von Biomaterialien auch für zukünftige noch nicht eng umschriebene Forschungsfragen stark beeinträchtigen könnten, ergeben sich durch den aktuellen Entwurf zu einer neuen EU-Datenschutzgrundversorgung. Hiernach wird in Artikel 81 Ziffer 1b nur noch die Einwilligung in ein sehr eng umrissenes Forschungsziel vorgesehen. Zusätzlich problematisch ist die Forderung in Artikel 81 Ziffer 2a und Artikel 83 Ziffer 1b, dass die Speicherung von Forschungsdaten nach den höchsten technischen Standards erfolgen muss. Es ist damit zu rechnen, dass eine Reihe von Biomaterialbanken hierdurch vor schwerwiegende infrastrukturelle und organisatorische Probleme gestellt wird, so dass biomedizinische Forschung erheblich und unangemessen erschwert werden dürfte. Alternative Lösungen wie z.B. die Knüpfung des Broad-Consent an ein zusätzliches Ethikvotum wurden diskutiert.
Anschließend berichtete Michael Hummel (Institut für Pathologie der Charité Berlin) über das Thema der Biobanking in der Cloud. Eine wachsende Zahl medizinischer wissenschaftlicher Projekte ist heute aufgrund der hohen Zahl der einzuschließenden Patienten, der Anforderungen an die Power- und Zeitlimitationen nur standortübergreifend, oftmals sogar nur noch international durchführbar. Ein aktuelles Projekt, das diesen Anforderungen gerecht wird, ist das im Rahmen des 7. EU Rahmenprogrammes unter Beteiligung des Institutes für Pathologie der Charité Berlin durchgeführte Projekt BioBankCloud (http://www.biobankcloud.com). Hierbei sind insbesondere Datenbankstandards zur Verlässlichkeit, Nachhaltigkeit und zur Einhaltung multinationaler rechtlicher Vorgaben zum Datenschutz bei der engen transnationalen Zusammenarbeit von Biobanken erarbeitet worden, z. B. durch Implementierung von Tools zur k-Anonymisierung und l-Diversität. Diese Ergebnisse seien in die zentrale Biobank der Charité (ZeBanC) eingeflossen. Sie stellten auch einen Meilenstein für das langfristig von der EU nach der European Research Infrastructure preparatory phase (ESFRI) Roadmap geförderte Strategieprogramm zur Europäischen Biobanking Infrastruktur „Biobanking and Biomolecular Resources Research Infrastructure“ (BBMRI) dar. Aus der Nutzung der vernetzten Biobanken sind mittlerweile eine Vielzahl von Genexpressionsanalysen, insbesondere an Tumoren, durchgeführt worden, die zur Charakterisierung neuer molekularer diagnostischer und prädiktiver Signaturen geführt haben. Ein wichtiger Schwerpunkt der Forschung sei derzeit das Next Generation Sequencing (NGS) somatischer Mutationen in Tumoren, bezogen auf bekannte Driver-Gene (KRAS, GNAS1, BRAF, KIT, JAK2; EGFR) sowie zur Identifizierung weiterer Onko- und Antionkogene. Wichtige Nutznießer der bis zum heutigen Tage in Deutschland erfolgreich aufgebauten Biobankinfrastruktur und des entsprechenden Knowhows, das unter anderem unter federführender Beteiligung der Technologie- und Methodenplattform für die vernetzte Medizinische Forschung (TMF e.V.) erstellt und gebündelt worden ist, sind ebenfalls das Deutsche Konsortium für Translationale Krebsforschung (DKTK) sowie die Nationale Kohorte (http://www.nationale-kohorte.de).
Im letzten Vortrag dieser Sitzung berichtete Gerd Schmitz (Regensburg) über aktuelle Entwicklungen und Vorteile des Healthcare Integrated Biobanking (HIB), bei dem Biomaterialien im Behandlungszusammenhang gesammelt werden und damit sowohl für die Diagnostik als auch für die Forschung Verwendung finden können. Vorteile eines solchen Konzepts bestehen insbesondere in der Nutzung der bereits im Rahmen der Routineversorgung, z. B. in der Laboratoriumsmedizin, etablierten Infrastrukturen, die auf ein hohes Probenaufkommen und qualitätsgesicherte Workflows ausgerichtet sind. Neben der Einlagerung von Restmaterialien, die nicht mehr für die Diagnostik benötigt werden, lassen sich diese gut etablierten Infrastrukturen aber auch zum Einlagern von separat gewonnenen Materialien einsetzen. Durch die Integration der hierfür notwendigen Workflows in das Routine-Environment ergeben sich aber auch ganz neue Möglichkeiten, beispielsweise für eine nach Untersuchungsparameter/Ergebnis gesteuerte Einlagerung von ausgewählten Proben, die zusammen mit den klinischen Befunden einer bestimmten Befundkonstellation entsprechen. Damit lassen sich im HIB selektiv für die Forschung definierte Kollektive in Biobanken einlagern und später für spezielle Fragestellungen zur Verfügung stellen. Da alle Prozesse direkt in der Krankenversorgung stattfinden, ergeben sich hier auch ideale Bedingungen zur direkten und schnellen Verarbeitung und Einlagerung von zellulären Blutkomponenten. In den letzten Jahren ist deutlich geworden, dass gerade die präanalytischen Bedingungen, also alle Prozesse die sich vor der Analyse der Proben ereignen, für die Qualität und Reproduzierbarkeit der später aus den eingelagerten Proben erzielten Ergebnisse von elementarer Bedeutung sind. Schmitz betonte, dass gerade die Einflüsse der präanalytischen Bedingungen, die für 90% der Analysefehler verantwortlich sind, seit jeher in der Laboratoriumsmedizin besonders gut kontrolliert und standardisiert werden. Hiervon kann das in die Routineprozesse verankerte HIB besonders profitieren. Im letzten Teil seines Vortrags präsentierte Schmitz den aktuell in Regensburg vorgesehenen und sich gerade in der Implementierungsphase befindenden Ausbau der Infrastruktur für das HIB, bestehend aus einer in die Laborautomation von Siemens Healthcare Diagnostics (LabCell) integrierten Lösung zur automatisierten Aliquotierung (Tecan Freedom EVO®) und einer Kryo-Probenlagerung in der LN2-Gasphase bei <–130°C (ASKION C-line® System).
Arbeitsgruppe Proteomics/Metabolomics
Die Sitzung der Arbeitsgruppe Proteomics/Metabolomics fand unter dem Vorsitz von Peter Findeisen (Mannheim) und Alexander B. Leichtle (Bern) statt.
In seinem Vortrag Proteinquantifizierung und targeted Peptidomics ging Kai Stühler aus Düsseldorf auf die Entwicklung diverser Proteomics-Technologien ein. Die Identifikation von Biomarkern, eine sich anschließende Validierung sowie die Entwicklung von diagnostischen Applikationen sind ein vielschichtiger Prozess, der am Beispiel der HCV-assoziierten Leberfibrose aufgezeigt wurde. Mittels 2D-DIGE konnten eine Reihe von Biomarkerkandidaten mittels Massenspektrometrie identifiziert werden. Die Validierung an Gewebeschnitten war bei beschränkter Verfügbarkeit von geeigneten Antikörpern allerdings nur für ein Subset von Kandidaten – darunter Tropomyosin – möglich. In Kooperation mit HepNet konnte eine Korrelation zwischen Fibrosegrad und Tropomyosinkonzentration in Serumproben gezeigt werden. Eine Antikörper-unabhängige Methode der Biomarkervalidierung bietet das MS-basierte „targeted Peptidomics” welches eine Quantifizierung von proteotypischen Peptiden aus klinischem Material ermöglicht. Hier stehen Labeling Methoden wie SILAC (stable isotope labeling by/with amino acids in cell culture) den labelfreien Ansätzen gegenüber. Letztere eignen sich aufgrund der einfachen Probenhandhabung besonders gut für die Aufarbeitung von klinischem Material. So konnte etwa Leucine-rich alpha-2-glycoprotein 1 (LRG1) als diagnostischer Marker bei Appendizitis validiert werden. Die AUC für diesen Urintest beträgt 0,8 und kann durch Kombination weiterer Marker noch verbessert werden. Ein aktuelles Projekt beschäftigt sich mit der Untersuchung von Markern der Zellalterung; hierfür werden Sekretomanalysen an kontrolliert gealterten Fibroblasten Zellkulturen durchgeführt.
In dem Vortrag von Thomas Joos aus Tübingen wurde unter dem Titel Proteinprofiling für die Proteomforschung und klinische Diagnostik die Einbindung von neuen Technologien in ein translationales Forschungsumfeld an Beispielen erläutert. Die konventionellen Analyseverfahren der klinisch-chemischen Routineanalytik beruhen ganz überwiegend auf analoger Signaltransduktion. Eine Digitalisierung der Signale etwa über Single Molecule Array (Simoa, Fa. Quanterix) ermöglicht eine signifikante Erhöhung der analytischen Sensitivität; dieses wurde exemplarisch an der Messung von Procalcitonin aus Serumproben demonstriert. Für die Medikamentenentwicklung ist während der klinischen Testphase das schnelle Erkennen von toxischen Nebenwirkungen auf Organsysteme wie Leber und Niere erforderlich. Für die Detektion von drug induced liver injury (DILI) wurde im Rahmen des SAFE-T Projektes (safer and faster evidence-based translation) ein Multiplexpanel mit konventionellen klinisch-chemischen Parametern verglichen. Dabei war die diagnostische Sensitivität des Multiplexpanels aus etwa 80 unterschiedlichen Analyten den konventionellen Leberparametern (Transaminasen, CHE etc.) deutlich überlegen. In einem weiteren Projekt wurden Untersuchungen zur Genotyp-Phänotyp Korrelation am Beispiel des Immunsystems dargestellt. Von ca. 1.500 gesunden Probanden wurde Vollblut in TruCulture Abnahmesystemen gesammelt und die Blutzellen mit 40 unterschiedlichen Stimuli behandelt. Jeder Zellansatz wurde mittels Multiplex Assay auf 40 Cytokine, Chemokine und Wachstumsfaktoren analysiert. Durch diesen Ansatz sollen Risikokonstellationen für Autoimmunerkrankungen wie Multiple Sklerose oder Kollagenosen identifiziert werden. Abschließend wurden noch Vor- und Nachteile der Immuno-MS Analytik erörtert. Diese Technologie ermöglicht die Spezies-übergreifende Analyse von Targets wie etwa Paraoxonase als DILI Marker. Dabei wird in einem ersten Schritt der Analyt mit Hilfe von Antikörpern gegen konservierte Epitope angereichert und anschließend mittels Massenspektrometrie genauer charakterisiert. Diese Vorgehensweise ist zwar deutlich weniger sensitiv als herkömmliche Immunoassays, ermöglicht aber eine schnelle Umsetzung von Methoden aus der präklinischen Forschung in die klinische Testphase einer Medikamentenentwicklung.
Uta Ceglarek aus Leipzig hielt im Anschluss einen Vortrag zum Thema Anwendung der Metabolomics im Neugeborenenscreening. Seit Ende der 60er Jahre ist das Neugeborenenscreening aufgrund seiner herausragenden Relevanz bei der Vermeidung irreversibler kindlicher Schädigung fest in der Krankenversorgung verankert. Bei einer Geburtenzahl von aktuell etwa 700.000/Jahr werden an die Analysenmethoden extrem hohe Anforderungen in Bezug auf diagnostische Sensitivität und Spezifität gestellt. Der Qualitätssicherung kommt hier eine entscheidende Bedeutung bei der Überwachung der analytischen Leistungsfähigkeit zu. Der Kriterienkatalog, nach dem eine Auswahl von Erkrankungen für das NG-Screening erfolgt, wurde schon 1968 von Wilson und Jungner definiert (WHO bulletin). Die Durchführung erfolgt gemäß den gesetzlichen Regularien der Kinderrichtlinien des Gemeinsamen Bundesausschusses. Die praktische Durchführung ist durch Auflagen des Gendiagnostikgesetzes deutlich verschärft und dadurch erschwert worden. Die zeitliche Abfolge von der Erstbeschreibung über die pathomechanistische Aufklärung bis hin zur Testentwicklung wurde am Beispiel der Phenylketonurie aufgezeigt. Dieser Enzymdefekt im Aminosäurestoffwechsel wurde zunächst mittels eines funktionellen Bakterienassays (Guthrie-Test) analysiert; heute stehen für Stoffwechseldefekte ganz überwiegend massenspektrometrische Methoden zur Verfügung, die auch ein Multiplexing ermöglichen, welches die diagnostische Leistungsfähigkeit weiter verbessert. Neben Enzymopathien des Aminosäurestoffwechsels werden insbesondere auch Störungen des Fettsäurestoffwechsels mittels MS-Analytik erfasst. Aktuell sind aus einer Trockenblutprobe etwa 30 angeborene Stoffwechselstörungen detektierbar, von denen allerdings nur neun für das NG-Screening relevant sind. Aufgrund der Leistungsfähigkeit der MS-Analytik eignet sich deren Einsatz auch für den Einsatz bei epidemiologischen Studien, etwa bei der Leipziger Herzstudie im Rahmen des LIFE Projektes, welche die Identifikation von kardiovaskulären Risikokonstellationen zum Ziel hat. Erste Ergebnisse zeigen eine Assoziation von Störungen des Acylcarnitin-Systems mit dem Alter, wohingegen Aminosäurestoffwechselstörungen eher mit dem Geschlecht assoziiert sind.
Thorsten Hornemann aus Zürich referierte zum Thema Atypische Sphingolipide als neuer Biomarker bei kardio-metabolischen Erkrankungen. Die Sphingolipide (SL) sind physiologischerweise im Vergleich zu Sterolen eine kleine Lipidfraktion (∼4%), weisen aber eine ausgesprochene Heterogenität auf. Die pathologischen/atypischen deoxy-SL sind als “dead end“ Metabolite ohne Möglichkeit für Verknüpfung und Abbau. Ihre Analyse/Quantifizierung erfolgt über Hydrolyse und Derivatisierung zu einem gemeinsamen backbone. Es ist schon länger bekannt, dass die Akkumulation von atypischen Sphingolipiden die Ursache für die erbliche sensorische Neuropathie (Hereditary Sensory Neuropathy Type 1-HSAN1) ist, welche im klinischen Ausprägungsbild große Ähnlichkeit mit der diabetischen Neuropathie aufweist. Zwischen dem Glukosestoffwechsel und dem Sphingolipidmetabolismus gibt es eine Verknüpfung über die Aminosäuren Serin und Alanin. Für die Synthese von atypischen SL wird deutlich mehr Alanin als Serin verbraucht. Durch Serin-reiche Diät konnte sowohl im Tiermodell als auch bei Probanden die Konzentration an atypischen SL im Blut gesenkt werden. Im Tiermodell zeigte sich bei der Kohorte mit Serin- reicher Diät zudem eine deutliche Reduktion der Neuropathie. Weiterhin gibt es eine positive Korrelation zwischen erhöhten Triglyceridwerten und atypischen SL. In der HiFun Studie (open multicenter cross-over trial) konnte gezeigt werden, dass Fenofibrat sowohl die Triglyceride als auch die atypischen SL in der Plasmakonzentration verringert. Im Gegensatz dazu senkte Niacin nur die Triglyceridkonzentration ohne gleichzeitige Reduktion der atypischen SL, so dass von unterschiedlichen Mechanismen ausgegangen werden muss. Weiterhin konnte in der VIVIT Studie (Vorarlberg Institute for Vascular Investigation and Treatment) an 350 Probanden mit 10-Jahres Follow-up gezeigt werden, dass atypische SL ein unabhängiger Risikomarker für kardiovaskuläre Erkrankungen und Diabetes mellitus sind. Schließlich ist auch bei Übergewicht (Metabolisches Syndrom) eine Erhöhung der atypischen SL zu beobachten, welche mit dem Grad der Leberverfettung bzw. dem visceralen Fettanteil korreliert.
Herr Carsten Hopf aus Mannheim stellte in seinem Vortrag MALDI imaging und Fingerprinting die Möglichkeit der Untersuchung von Gewebeschnitten mittels MALDI-TOF Massenspektrometrie (MALDI-Imaging) vor. Dabei werden Kryoschnitte mit Matrix überschichtet. Durch das Abscannen mit einem Laser können dann MS-Spektren generiert und topisch ausgewertet werden. Durch Auswahl einer geeigneten Matrix ist es möglich, vornehmlich Pharmaka sowie Lipide und Metabolite zu untersuchen. Die Identifikation von Biomarkern wurde exemplarisch an einem Tiermodell der polyzystischen Nierenerkrankung (ARPKD-PKDH1) aufgezeigt. Hier konnte in vergleichenden Untersuchungen ein differentielles Signal der Masse 514,3 mittels Fisher Discriminant Analyse identifiziert werden. Durch hochauflösende FT-MS-Analytik und Metabolom-Datenbankabgleich wurde diese Masse der Taurocholsäure zugeordnet. Diese findet sich auch in erhöhter Konzentration im Urin erkrankter Tiere. Ein weiteres Einsatzfeld ist die Visualisierung von Medikamentenwirkung. Viele Tumoren weisen epigenetische Veränderungen auf. Eine Histon Acetylierung etwa führt zur Ausbildung von transkriptionell aktivem Euchromatin und ist bei vielen Tumoren zu beobachten. Durch Histon-Deacetylase-Inhibitoren (HDACi) erhöht sich der Anteil von acetyliertem Histon bzw. Heterochromatin; die Wirkung ist entsprechend antiproliferativ. Die De- Acetylierung ist mit einem distinkten Masseshift verbunden und lässt sich mittels MS gut analysieren. An Gewebeschnitten eines Magenkarzinom-Tiermodells konnte gezeigt werden, dass die Wirkung von HDACi auf das Tumorgewebe beschränkt ist. Weiterhin kann die Medikamentenwirkung durch Zeitreihen auch kinetisch dargestellt werden. Schließlich lassen sich auch ganze Zellen analysieren bzw. klassifizieren. So ist etwa die Identifikation von Bakterien nach kultureller Anzucht schon länger in der mikrobiologischen Routinediagnostik verankert. Diese Technik lässt sich aber auch auf Leukozyten anwenden. Die Methode zeigt eine ausreichend hohe Reproduzierbarkeit und in proof of concept Experimenten konnten neutrophile Granulozyten und Monozyten mittels Hauptkomponentenanalyse sicher getrennt werden.
Zusammenfassend wurden auf der 13. Jahrestagung der Sektion Molekulare Diagnostik der DGKL aktuelle Entwicklungen in Schlüsselfeldern der Omics-Technologien in der Molekularen Diagnostik an der Schnittstelle zwischen Forschung und klinischer Anwendung diskutiert. Die 14. Jahrestagung der Sektion ist am 11.– 12. Juni 2015 wiederum in Tutzing geplant. Der aktuelle Arbeitstitel lautet Deep Phenotyping and Data Integration.
©2014 by Walter de Gruyter Berlin/Boston
This article is distributed under the terms of the Creative Commons Attribution Non-Commercial License, which permits unrestricted non-commercial use, distribution, and reproduction in any medium, provided the original work is properly cited.
Articles in the same Issue
- Frontmatter
- Allergie und Autoimmunität/Allergy and Autoimmunity
- Nachweis von schweren angeborenen Immundefekten bei Neugeborenen: Diagnostisches Vorgehen bei Screening, Tracking und Follow-up
- Mediators in pleural effusions of different origin: a two-step diagnostic study
- Übersichtsarbeit/Review
- Die Umsetzung der Richtlinie der Bundesärztekammer zur Qualitätssicherung laboratoriumsmedizinischer Untersuchungen (RiliBÄK) aus Sicht der überwachenden Länderbehörden
- Klinische Chemie und Stoffwechsel/Clinical Chemistry and Metabolism
- NMR-Spektroskopie – ein modernes Werkzeug zur Serum-Analytik von Lipoproteinen und Metaboliten
- Molekulargenetische und zytogenetische Diagnostik/Molecular-Genetic and Cytogenetic Diagnostics
- 13. Jahrestagung der Sektion Molekulare Diagnostik der DGKL am 15. und 16. Mai 2014 in der Evangelischen Akademie Tutzing
- Kongressbericht/Congress Report
- Analytica Conference 2014, München 02. April 2014
Articles in the same Issue
- Frontmatter
- Allergie und Autoimmunität/Allergy and Autoimmunity
- Nachweis von schweren angeborenen Immundefekten bei Neugeborenen: Diagnostisches Vorgehen bei Screening, Tracking und Follow-up
- Mediators in pleural effusions of different origin: a two-step diagnostic study
- Übersichtsarbeit/Review
- Die Umsetzung der Richtlinie der Bundesärztekammer zur Qualitätssicherung laboratoriumsmedizinischer Untersuchungen (RiliBÄK) aus Sicht der überwachenden Länderbehörden
- Klinische Chemie und Stoffwechsel/Clinical Chemistry and Metabolism
- NMR-Spektroskopie – ein modernes Werkzeug zur Serum-Analytik von Lipoproteinen und Metaboliten
- Molekulargenetische und zytogenetische Diagnostik/Molecular-Genetic and Cytogenetic Diagnostics
- 13. Jahrestagung der Sektion Molekulare Diagnostik der DGKL am 15. und 16. Mai 2014 in der Evangelischen Akademie Tutzing
- Kongressbericht/Congress Report
- Analytica Conference 2014, München 02. April 2014