20 Jahre Humangenomprojekt
»Verstanden haben wir unser Erbgut noch lange nicht«
Vor
20 Jahren entschlüsselten Forscher das menschliche Erbgut. »Das hat die
Basis für die Humanbiologie geliefert«, sagt Hans Lehrach, damals
Sprecher des Deutschen Humangenomprojekts. Im Interview spricht er über
Erwartungen, Erfolge und besonders unerwartete Erkenntnisse.Interview von Frank Schubert
Das Humangenomprojekt war ein internationales Forschungsvorhaben,
das 1990 mit dem Ziel startete, das Erbgut des Menschen vollständig zu
entschlüsseln. Hunderte Wissenschaftler in dutzenden Ländern nahmen
teil, 1995 stieß auch Deutschland hinzu. Ab 1998 bekamen sie Konkurrenz
von der US-Firma Celera, die der amerikanische Genomforscher John Craig
Venter mitgegründet hatte. Im Februar 2001 veröffentlichten beide
Unternehmungen unabhängig voneinander
einen ersten Entwurf der menschlichen Genomsequenz. Die Medien
berichteten groß darüber. 2003 verkündeten die beteiligten Forscher den
Abschluss der Arbeiten im Rahmen der angelegten Maßstäbe.
Herr Professor Lehrach, was hat die Entschlüsselung des menschlichen Genoms gebracht? Haben wir unser Erbgut verstanden? Sie hat die Basis für die gesamte Humanbiologie geliefert. Der
geschätzte kommerzielle Gewinn des Projekts liegt hunderte Male höher
als seine Kosten. Wir können jetzt einzelne Personen so genau
untersuchen, dass wir mehr über ihre individuelle Biologie wissen, als
zuvor über die Biologie des Menschen insgesamt bekannt war. Patienten
personalisiert zu behandeln, was ja unser Ziel sein sollte, liegt in
greifbarer Nähe. Aber verstanden, so wie man etwa ein Computerprogramm
begreift, haben wir unser Genom noch lange nicht. Wie aus Erbinformation
ein Organismus hervorgeht, ist von der Evolution bestimmt und nicht von
irgendwelchen logischen Regeln, nach denen wir Programme schreiben
würden. Daher war klar, dass wir das menschliche Genom nicht gleich
komplett verstehen würden. Es kann noch Jahrhunderte dauern, bis wir so
weit sind.

Hans Lehrach, geboren 1946 in Wien, ist
studierter Chemiker. Nach Forschungsaufenthalten an der Harvard
University, am Europäischen Laboratorium für Molekularbiologie und beim
Imperial Cancer Research Fund in London kam er 1994 als Direktor ans
Max-Planck-Institut für Molekulare Genetik in Berlin. 1997 bis 2001
arbeitete er als Sprecher des Deutschen Humangenomprojekts. Zahlreiche
weitere Stationen folgten. Lehrach war Mitherausgeber mehrerer
molekularbiologisch/genetischer Fachzeitschriften.
Was waren die Erwartungen an das Humangenomprojekt, als es 1990 startete?
Wir
wollten mehr über den Organismus und die Biologie an sich erfahren, und
das ist gelungen. Wir wollten herausfinden, welche Gene es gibt und
welche Funktionen sie ausüben. Und wir wollten Werkzeuge bekommen, um
bestimmte Gene leichter zu finden – etwa Anlagen für Erbkrankheiten.
Auch das ist eingetreten. Einige Leute hegen naive Vorstellungen davon,
wie Biologie funktioniert. Die waren vielleicht enttäuscht davon, dass
das Humangenomprojekt nicht das Buch des Lebens komplett offengelegt
hat. Aber das ist nicht die Schuld des Projekts, sondern der falschen
Erwartungen daran.
Die technischen Möglichkeiten, um
DNA-Moleküle zu sequenzieren und die anfallenden Daten zu verarbeiten,
sind heute besser als damals. Um wie viel?
Ungefähr
eine Million mal besser. Die Daten zu generieren, hat seinerzeit einige
hundert Millionen Dollar gekostet, und das ganze Humangenomprojekt
schätzungsweise dreieinhalb Milliarden. Jetzt nähern wir uns Kosten von
100 Dollar, um ein menschliches Genom zu sequenzieren. Und die Preise
fallen weiter. Streng genommen ist der Fortschritt sogar noch größer,
weil bereits während des laufenden Projekts die Sequenzierkosten um etwa
den Faktor zehn sanken.
»Hätten wir versucht, das
menschliche Genom mit dem Standardansatz zu sequenzieren, hätten wir das
50-Fache ausgegeben und wären immer noch nicht fertig«
Am Humangenomprojekt nahmen Forscher in dutzenden Ländern teil. Deutschland kam erst 1995 dazu. Warum so spät?
Das
ist ein Lehrbeispiel dafür, wieso die Ziele der Wissenschaft nicht nur
von Wissenschaftlern vorgegeben werden sollten. Das Humangenomprojekt
war bei einigen der führenden deutschen Forscher nicht sehr beliebt. Zum
Glück hat das Bundesforschungsministerium gemeinsam mit den
Wissenschaftsorganisationen die deutsche Teilnahme durchgesetzt. Selbst
noch, als dies schon fast beschlossen war, haben manche Spitzenforscher
ans Ministerium geschrieben, Genomsequenzierung sei im Grunde eine
stupide Arbeit und man solle sich lieber auf andere Dinge konzentrieren.
Und falls man aus politischen Gründen unbedingt teilnehmen wolle, könne
man doch ein amerikanisches Sequenzierzentrum dafür bezahlen, die
Arbeit zu machen. Es war erstaunlich.
Gab es diese Debatte nur in der Bundesrepublik?
Das
Projekt war nicht nur in Deutschland umstritten, sondern auch
international. Viele Wissenschaftler hatten natürlich Angst, die Budgets
für ihre eigenen Arbeiten könnten schrumpfen, wenn so ein Großprojekt
finanziert wird.
Das Humangenomprojekt setzte von Anfang an auf internationale Zusammenarbeit. Warum war das wichtig?
Die
Sequenzdaten des menschlichen Genoms sind eine unglaublich ergiebige
Ressource für Wissenschaftler weltweit. Und es sollten ganz bewusst
möglichst viele Forscher davon profitieren, weshalb es bedeutsam war,
die Daten unmittelbar für alle freizugeben. Das sollte auch den
Widerstand reduzieren, den es in der Scientific Community gegen das
Vorhaben gab. Die Leute konnten aus den Ergebnissen enorm viel für ihre
eigene Forschung ziehen. Das wäre nicht möglich gewesen, wenn es einen
Wettbewerb darum gegeben hätte und sie nicht frei zugänglich gemacht
worden wären. Dann hätte alles viel länger gedauert.
Die Daten gemeinschaftlich offenzulegen und zu teilen, war ein Grundanliegen des Projekts. Hat das funktioniert?
Sehr
gut sogar. Es gab natürlich einige Probleme, so bestand seitens des
Forschungsministeriums die Überlegung, Daten zu patentieren, um die
Unterstützung von Industrieunternehmen zu gewinnen. Das war am Ende
wegen der gemeinschaftlichen Vereinbarungen nicht möglich. Die so
genannten Bermuda-Prinzipien hatten 1996 festgeschrieben, dass alle
Sequenzierzentren ihre Daten binnen 24 Stunden online frei zugänglich
veröffentlichen müssen.
Hat dieser Ansatz Schule gemacht?
Es
gibt heute jede Menge globale Forschungsvorhaben, die nach diesem
Prinzip funktionieren. Das hat sich enorm bewährt. Das Standardvorgehen
in der Wissenschaft – jeder betreibt hypothesengetriebene Forschung mit
einem kleinen Mitarbeiterteam – ist vielen Herausforderungen, denen wir
begegnen müssen, nicht angemessen. Die Wissenschaft bietet die besten
Methoden, um drängende Gesellschafts- und Menschheitsprobleme zu lösen.
Aber wir müssen dafür auch passende Strukturen schaffen und uns nicht
einfach nach den Vorlieben der Scientific Community richten.
Wir
sind bei vielen Vorhaben besser dran, wenn wir Daten systematisch,
gemeinschaftlich und standardisiert gewinnen und anschließend über
Datenbanken allen zugänglich machen. Hätten wir versucht, das
menschliche Genom mit dem Standardansatz zu sequenzieren, also
hypothesengetrieben, in kleinen Gruppen und Gen für Gen, hätten wir das
50-Fache ausgegeben und wären immer noch nicht fertig.
»Am meisten überraschte uns, dass der Mensch nicht mehr Gene besitzt als beispielsweise die Maus«
1998
gründete der US-Genomforscher John Craig Venter das Unternehmen Celera,
um dem Humangenomprojekt Konkurrenz zu machen. Wieso?
Vermutlich
spielte die Überlegung mit, dank des Wettbewerbs die
Sequenziermaschinen besser zu verkaufen. Und das hat funktioniert, ob es
nun geplant war oder nicht. Venter nutzte damals ein umstrittenes
Verfahren, die Schrotschuss-Methode. Dabei wird die menschliche DNA
automatisiert in kleine Stücke zerlegt und ausgelesen. Anschließend
setzt man die vielen Einzelsequenzen mit immensem Rechenaufwand wieder
zusammen. Ich kann bis heute nicht ganz ermessen, wie sehr Venter dabei
vom Humangenomprojekt profitiert hat. Unser Projekt arbeitete regionen-
und chromosomenspezifisch; wir kartierten erst das Genom und
sequenzierten dann gezielt DNA-Abschnitte, die den kartierten Bereichen
entsprachen. Das erleichterte es, Abschnitte mit vielen
Sequenzwiederholungen der jeweils richtigen Region im Erbgut zuzuordnen.
Ging man hingegen nur über die Schrotschuss-Methode, war diese
Zuordnung ziemlich schwierig. Celera hatte – wie alle anderen auch –
Zugang zu den Daten des Humangenomprojekts und damit auf die Kartierung,
was ihnen wahrscheinlich sehr genutzt hat. Das öffentliche Projekt
hatte aber keinen Zugang zu den Celera-Daten. Insofern war der
Wettbewerb zwischen ihnen und uns kein echtes Rennen.
War Venters Schrotschuss-Methode damals neu?
Nein,
sie war schon zuvor genutzt worden, nur auf kleineren Einheiten des
Genoms, damit man Abschnitte mit vielen Sequenzwiederholungen regional
zuordnen konnte. Neu bei Venter war, die Methode auf das Gesamtgenom
anzuwenden. Zusammen mit den Daten aus dem öffentlichen Projekt konnte
er seine ermittelten Sequenzen lokalisieren. Ohne die Daten hätte ihn
das wahrscheinlich deutlich mehr Zeit gekostet.
Das könnte Sie auch interessieren: Spektrum Kompakt: DNA – Buchstabencode des Lebens
Die ersten Entwürfe des Humangenoms wurden im Februar 2001 veröffentlicht. Das waren aber nicht die vollständigen Sequenzen?
Die
komplette Sequenzierung hat viel länger gedauert. Heute liegen
vollständige Sequenzen menschlicher Chromosomen vor, lückenlos von einem
Ende zum anderen. Dafür sind jedoch Sequenziertechniken nötig, die es
zur Zeit des Humangenomprojekts nicht gab. Man konnte damals die
wichtigsten Regionen mit den meisten Genen entschlüsseln, aber
zahlreiche Abschnitte mit Sequenzwiederholungen ließen sich nicht genau
zuordnen. Andere ließen sich gar nicht sequenzieren.
Von wie vielen Menschen stammten die Daten dieser Entwürfe? Wie gut bildeten sie die genetische Vielfalt der Menschheit ab?
Sie stammten von nur wenigen Menschen. Aber es folgte relativ bald das internationale 1000-Genome-Projekt,
das Erbgutdaten von 2500 Menschen lieferte und somit deutlich
repräsentativer war. Derzeit laufen Genomprojekte in vielen Ländern und
an vielen Populationen; in China beispielsweise sollen eine Million
Genome sequenziert werden.
Welche Erkenntnisse aus dem Humangenomprojekt waren besonders unerwartet?
Am
meisten überraschte uns, dass der Mensch nicht mehr Gene besitzt als
Organismen, die deutlich weniger komplex sind, beispielsweise Mäuse. Vor
dem Projekt hatte die Mehrheit vermutet, dass wir vielleicht
100 000 Gene in uns tragen. Dann gingen die Schätzungen langsam runter,
und schließlich stellte sich heraus, dass es nur rund 20 000 sind.
Klar
wurde auch: Die Genome zweier verschiedener Menschen unterscheiden sich
um weniger als 0,1 Prozent. Hat Sie das ebenso erstaunt?Nein.
Wir wussten schon vorher, dass sogar der Unterschied zwischen Mensch
und Schimpanse relativ klein ist; das hatten bereits weniger
leistungsfähige Methoden gezeigt.
War die Vorstellung von menschlichen Rassen mit der Genomforschung erledigt?
Diese
Vorstellung war von Anfang an idiotisch. Die Sequenzdaten zeigten dann,
dass die genetischen Unterschiede innerhalb einer Population weit
größer sind als die Unterschiede zwischen Populationen. Daher ist der
Rasse-Begriff für den Menschen völlig sinnlos. Das Humangenomprojekt hat
sicher dazu beigetragen, das endgültig klarzustellen.
»Wir
denken zu sehr vom Standpunkt eines Ingenieurs, der funktionslose
Komponenten vermeiden würde. Die Natur hat damit überhaupt keine
Probleme«
Der größte Teil des menschlichen
Erbguts sah zunächst nach Müll aus: Überreste von Viren, die sich
eigennützig verhalten; funktionslos gewordene Gene; Introns; endlose
Sequenzwiederholungen. Was weiß man heute über diese so genannte
Junk-DNA?
Zweifellos besteht unsere DNA weitgehend aus
Sequenzen, die auf den ersten Blick nutzlos sind und, wenn überhaupt,
dann vor allem darin gut, sich selbst zu vermehren. Oft bekommen solche
Abschnitte aber im Zuge der Evolution eine Aufgabe. So sind die
Telomere, die Schutzkappen an den Enden unserer Chromosomen,
ursprünglich wohl funktionslose Überbleibsel von Viren gewesen. In der
Biologie wird alles verwertet, was vorhanden ist, solange das einen
evolutionären Vorteil bringt. Wir sollten deshalb nicht vorschnell von
Müll sprechen. Ich glaube, wir denken zu sehr vom Standpunkt eines
Ingenieurs, der natürlich vermeiden würde, irgendwelche Komponenten in
ein Auto zu stecken, die keine Funktion erfüllen. Die Natur hat damit
überhaupt keine Probleme.Es ist kein Nachteil für uns, ein Erbgut herumzuschleppen, das großteils funktionslos ist?
Fliegende
Organismen haben ein relativ kleines Genom. Das der Vögel etwa ist nur
ein Drittel so groß wie das von Säugetieren; Fledermäuse wiederum haben
ein rund halb so großes wie andere Säuger. Jede Körperzelle enthält das
gesamte Genom, und dessen Gewicht müssen die Tiere mit sich tragen. Ein
kleineres Erbgut macht das Fliegen etwas leichter. Zwar ist der Vorteil
minimal, doch das reicht offenbar schon, dass die Evolution größere
Sequenzabschnitte entfernt hat. Auch in der Maus lässt sich ein
erheblicher Teil des Genoms herausnehmen, ohne dass das Erscheinungsbild
der Tiere erkennbar leidet. Jedenfalls gilt das in einer Laborumgebung;
ob die Nager in freier Wildbahn schlechter überleben würden, können wir
nur schwer prüfen. Wir Menschen erheben uns nicht in die Lüfte und
profitieren anscheinend nicht von einem leichteren Genom.
Eine
häufige Kritik lautet, Untersuchungen des menschlichen Erbguts würden
überproportional oft an Menschen europäischer Abstammung erfolgen.
Stimmt das?
Wie gesagt, in China sollen nun eine Million
Genome sequenziert werden. Natürlich: Solange viele von den wohlhabenden
Ländern, die sich Genomprojekte leisten können, hauptsächlich Bewohner
europäischer Abstammung haben, entsteht hier eine Verzerrung. Schon
allein dadurch, dass die genetische Diversität in afrikanischen
Populationen deutlich größer ist als in europäischen. Aber es laufen
jetzt ganz gezielt Projekte an, die auch bislang unterrepräsentierte
Populationen erfassen.
Das Problem erledigt sich also von selbst?
Einerseits.
Andererseits ist das ein ganz generelles Phänomen. In klinischen
Studien erscheinen Weiße oft überrepräsentiert, da Pharmafirmen ihre
Medikamente vor allem für Populationen entwickeln, die dafür bezahlen
können. Folglich werden zahlreiche Arzneistoffe überwiegend an solchen
Probanden getestet. Zudem schließen klinische Studien typischerweise
viel mehr Männer ein als Frauen. Auch da entsteht eine Verzerrung.
Das Humangenomprojekt ist abgeschlossen. Wie geht es weiter?
Wir
arbeiten zum Beispiel intensiv daran, bei Patienten sowohl das Genom
als auch das Transkriptom zu analysieren, also die Summe aller
Erbanlagen, die zu einem bestimmten Zeitpunkt von der DNA-Sequenz in
eine RNA umgeschrieben worden sind. Damit wollen wir eine echte
Personalisierung der Behandlung erreichen. Das ist besonders in der
Krebsmedizin wichtig. Denn jeder Tumor ist anders, und sogar die Zellen
innerhalb eines Tumors unterscheiden sich. Zudem unterscheiden sich die
Patienten in ihrem Stoffwechsel, in ihrem Mikrobiom, in ihrem
Immunsystem und in vielem mehr. Wir müssen eine Behandlung finden, die
darauf Rücksicht nimmt und sich sowohl am Patienten als auch an dessen
Tumor ausrichtet.
Wie wichtig sind dabei Computermodelle?
Je
mehr wir über einzelne Patienten wissen, umso genauer können wir
vorhersagen, welche Medikamente bei ihnen wirken werden, wie genau sie
wirken, was für Nebenwirkungen auftreten werden und so weiter. Wenn ein
angehender Pilot einen Flugsimulator zum Absturz bringt, ist das nicht
so dramatisch, als wenn ihm das später mit einer voll besetzten
Verkehrsmaschine passiert. Deshalb trainieren Flugschüler an
Simulatoren. Leider sind wir in der Medizin noch nicht so weit, dass wir
Arzneistofftherapien an Computermodellen von individuellen Patienten
testen, bevor wir sie in echt anwenden. Das führt mitunter zu
dramatischen Problemen, so sterben jährlich schätzungsweise
200 000 Menschen in Europa an unerwarteten Medikamentenwirkungen. Hier
wird sich hoffentlich viel verbessern – auch mit Hilfe von Genomdaten.
Individuelle Genomsequenzierung wird künftig also zur Routine, und es kommt die personalisierte Medizin?
Ich
hoffe, die genaue Untersuchung des Genoms und Transkriptoms gehören
schon bald zum Standard bei Tumorpatienten. Zusätzliche Informationen
können neue Methoden wie die Einzelzell-Sequenzierung oder die
ortsaufgelöste Analyse des Proteoms, der Gesamtheit aller Proteine,
liefern. Das würde nicht zuletzt helfen, Geld zu sparen. Derzeit
entsteht ein beträchtlicher Teil der Gesundheitskosten dadurch, dass wir
für Medikamente zahlen, die bei ihren Empfängern nicht wirken, und dass
wir unerwartete Nebenwirkungen behandeln müssen.
Das
Interesse an Genomdaten ist groß, nicht nur bei Forschern, auch bei
Krankenversicherern oder Arbeitgebern. Besteht das Risiko einer
genomischen Überwachung?
Ich sehe Genomdaten vor allem
als Mittel, um schwere Krankheiten besser behandeln zu können. Meiner
Meinung nach wäre es nicht besonders klug, Menschen informationell
intakt zu begraben, jedoch zuvor nicht in der Lage gewesen zu sein, sie
optimal zu behandeln. Es gibt natürlich Datenschutzrisiken, aber die
lassen sich durch Gesetzgebung regeln. Das US-Bundesgesetz Obamacare hat
den Krankenversicherern verboten, Patienten wegen Vorerkrankungen
abzulehnen. Genauso gut kann man Versicherern untersagen, genetische
Daten für Prämienberechnungen heranzuziehen. Ein Staat, der
Ladenschlusszeiten gesetzlich regelt, hat ohne Weiteres die Mittel,
solche Probleme legal zu lösen. Wir müssen nicht darauf verzichten,
Patienten individuell und somit besser zu behandeln, nur damit
Versicherer nicht etwas tun, wovon der Gesetzgeber sie ohnehin
abhalten kann.