Menu

GBS Schweiz

  • de
  • en

Transhumanismus als vereinfachter Humanismus?

und on 10. Dezember 2013

transhumanmichelangelo

99% dessen, was die Evolutionstheorie über menschliches Verhalten zu sagen hat, ist so offensichtlich wahr, dass wir unser Verständnis davon kaum Darwin zuschreiben können. Die Psychoanalyse hat es diesbezüglich einfacher. Ihre Annahmen sind so originell und ihre Erklärungen so kontraintuitiv, dass wir uns fragen müssen: Kann das wirklich stimmen? Wie radikal! Freuds Ideen sind so verblüffend, dass Leute bereit sind, dafür Geld auszugeben, während wir beim Darwinismus das Gefühl haben, wir wüssten alles schon – und in einem gewissen Sinne tun wir es auch.

Frank Sulloway

Nehmen wir an, wir finden ein bewusstloses sechsjähriges Mädchen auf den Gleisen einer Fahrbahn liegend, welches in wenigen Minuten von einem herannahenden Zug erfasst werden würde. Was sollten wir – moralisch gesehen – in einer solchen Situation tun? Wäre es besser, das Kind dort liegen zu lassen oder es zu retten? Und wie würden wir uns entscheiden, wenn wir die Möglichkeit hätten, einen 45-jährigen erkrankten Mann von einer sehr schmerzhaften Lähmung zu heilen? Würden wir es tun oder nicht?

Dies ist keine rhetorische Frage.

Bestimmt würden wir ohne zu zögern sowohl dem Kind auf den Gleisen zu Hilfe eilen als auch den 45-jährigen kranken Mann von seinem Leid befreien. Manchmal – nicht immer jedoch – ist die offensichtliche Antwort die (moralisch) richtige Antwort. Zugegebenermassen ist die Antwort nicht sonderlich originell. Niemand wäre bereit, für eine solche Antwort Geld auszugeben. Wer verkündet, dass zwei und zwei vier ergibt, wird keine grosse Beachtung finden, geschweige denn sich einen Ruf als grosser Denker erarbeiten. Und trotzdem ist die Antwort richtig.

Es ist also gut, ein kleines Kind vor einem herannahenden Zug zu retten und es ist auch gut, einen 45-jährigen Mann von einer lähmenden Krankheit zu heilen. Nun mag man sich fragen, ob diesen spezifischen Beispielen ein generelles ethisches Prinzip zugrunde liegt, welches besagt: „Weiterleben ist gut, Tod ist schlecht; Gesundheit ist gut, Krankheit ist schlecht.“ Denn, falls dem so wäre, – und hier begeben wir uns auf kontroverses Territorium – könnten wir diesem generellem Prinzip folgen und kämen zu vielleicht überraschenden neuen Schlüssen: Wenn beispielsweise ein 95-jähriger Mann kurz davor ist, vor Altersschwäche zu sterben, wäre es gut, ihn zu retten. Und wenn ein 120-jähriger Mann beginnt sich etwas schwach zu fühlen, wäre es gut, ihm zu seiner vollen Kraft zurückzuverhelfen. Mit der aktuellen Technologie ist dies zwar noch nicht möglich, doch wenn solche Technologien zukünftig vorhanden sein sollten – z.B. dank fortgeschrittener medizinischer Nanotechnologie oder wegen anderer technologischen Erfindungen – sollten wir dann diese Handlungen als gut bewerten?

Nochmals, dies ist keine rhetorische Frage.

Der Transhumanismus ist deshalb an sich so einfach, weil es keine Spezialfälle gibt. Wenn wir manchen BerufsbioethikerInnen (also Personen, die dafür bezahlt werden, ethische Aussagen zu machen) Glauben schenken wollen, dann gilt die Regel „Weiterleben ist gut, Tod ist schlecht; Gesundheit ist gut, Krankheit ist schlecht“ nur bis zu einem kritischen Alter und ab dann nicht mehr. Doch weshalb? Weshalb sollte die Regel „Weiterleben ist gut“ nicht immer gelten? Wenn es gut sein soll, ein sechsjähriges Mädchen zu retten, aber schlecht ist, das Leben und die Gesundheit eines 120-jährigen zu erweitern, wo genau liegt dann die Grenze zwischen gut und schlecht? Und weshalb gerade dort?

Für eine Transhumanistin ist die Angelegenheit viel einfacher: Wenn jemand leidet oder weiterleben will und wir der Person helfen können, sollten wir es tun. So einfach ist das. Keine Spezialfälle und kein Grund, jemanden nach dem Alter zu fragen.

Ein Transhumanist fragt auch nicht nach dem Alter der Technologie. Ob eine Technologie nun tausend Jahre alt ist (wie beispielsweise eine Bahre, mit der wir das Kind von den Gleisen tragen können) oder im letzten Jahrhundert erfunden wurde und uns fortgeschritten, aber gewöhnlich erscheint, da sie seit unserer Kindheit vorhanden ist (wie z.B. Penicillin), spielt keine Rolle. Dasselbe gilt auch für moderne Technologien, die vielleicht etwas beängstigend und futuristisch anmuten (wie Gentherapie), bloss weil sie erst seit kurzem Realität sind; oder zukünftige Technologien, die absurd und unplausibel wirken (wie Nanotechnologie). Für eine Transhumanistin gibt es keine Jahresgrenzen, in welchen Technologien erfunden sein müssen, um von ihnen Gebrauch machen zu dürfen. Es stellt sich einzig und allein die Frage, ob geholfen werden kann (und vielleicht präziser: ob unter dem Strich bzw. netto geholfen werden kann). Falls die Antwort ja ist, dann tun wir es. Das ist alles.

Gehen wir davon aus, ein neunjähriger Junge mit einem IQ von 120 leide an einer Gehirnkrankheit, welche, falls nicht behandelt, seinen IQ langsam auf 110 reduzieren wird. Die meisten wären damit einverstanden, dass wir dies verhindern sollten. Nun mag man sich fragen, ob dies ein spezieller Fall eines generellen ethischen Prinzips darstellen soll, welches (intrinsisch oder instrumentell) besagt, dass Intelligenz etwas Erstrebenswertes sei. Es stellt sich heraus, dass die Schwester des Jungen einen IQ von 110 hat. Wenn nun eine Technologie vorhanden wäre, die ihren IQ langsam auf 120 erhöhen könnte, ohne negative Nebenwirkungen, sollten wir dies tun oder nicht?

Natürlich. Warum auch nicht? Auch das ist ernst gemeint. Entweder wir ziehen einen IQ von 110 einem IQ von 120 vor, in welchem Fall wir darum bemüht sein sollten, IQs von 120 auf 110 zu reduzieren, oder wir bevorzugen einen IQ von 120, in welchem Fall wir darum bemüht sein sollten, den IQ der Schwester zu erhöhen. Manchmal ist die offensichtliche Antwort die richtige.

Man mag sich fragen, wo dies enden wird. Es ist ja schön und gut, die Lebenserwartung auf 150 zu erhöhen, doch weshalb nicht gleich auf 200, 300, 500 Jahre oder mehr? Und weshalb dann nicht auch den IQ auf 140, 180 oder mehr erhöhen?

Wo soll das alles enden? Nirgendwo. Weshalb sollte es auch irgendwo enden? Ein leidfreies und möglichst langes Leben sowie ein möglichst hoher IQ sind erstrebenswert. Das ändert sich nicht plötzlich, wenn die Werte eine bestimmte Grösse erreicht haben. Wenn es eine obere Grenze gäbe, hätten wir inkonsistente oder zumindest unbegründbar-willkürlich gesetzte Spezialfälle. (Hilfreiches Denktool: Was bedeutet eine bestimmte ethische Aussage mathematisch bzw. wie würde man sie einem Computer einprogrammieren, den man ethisch relevante Entscheidungen fällen lassen könnte/müsste? Man wird sehen: a) Alle ethischen Aussagen/Theorien lassen sich entsprechend formalisieren, b) man kommt nicht umhin, dies zu tun, denn andernfalls gibt es mögliche Entscheidsituationen, in denen die Theorie nicht handlungsleitend ist und damit den Zweck einer ethischen Theorie nicht erfüllt, und c) wenn man sich bewusst macht, was welche Aussage/Theorie mathematisch bedeutet, lässt sich auch unbegründete Willkür und Absurdität unmittelbarer und deutlicher erkennen.)

Vielleicht limitieren physikalische Grenzen die Lebensspanne auf eine maximale Dauer X – genau so wie dies der medizinaltechnologische Stand eines bestimmten Jahrhunderts tut. Doch dies ist eine empirische Frage und nicht mit dem ethisch-normativen Ziel bzw. Ideal des Transhumanismus zu verwechseln. Der Transhumanismus beschäftigt sich ethisch nur mit der Frage, ob eine gesunde Lebensdauer X wünschenswert wäre, falls sie physikalisch möglich ist. (Zuerst kommt das Ziel!) Er beantwortet die Frage für alle X mit ja. Denn es handelt sich dabei, wie bereits erwähnt, keineswegs um eine rhetorische Frage.

Das ist Transhumanismus: Ein glückliches Leben für erstrebenswert halten, ohne spezielle Ausnahmen und ohne willkürlich gezogene Grenzen.

Kann der Transhumanismus tatsächlich so einfach sein? Macht dies seine Philosophie nicht trivial, so ganz ohne originelle Ausnahmen, nur mit gesundem Menschenverstand? Ja. Der Transhumanismus ist – genau wie die wissenschaftliche Methode – nichts anderes als gesunder Menschenverstand.

Weshalb denn einen komplizierten Namen wie „Transhumanismus“ einführen? Aus denselben Gründen wie die „wissenschaftliche Methode“, der „säkulare Humanismus“ oder der „evolutionäre Humanismus“ komplizierte Namen haben. Wenn man den gesunden Menschenverstand ausserhalb der Alltagserfahrung rigoros und konsequent anwendet und dabei alle möglichen verlockenden Fehler (Biases) vermeidet, endet man oft in einer Minderheitsposition, welcher Leute einen speziellen Namen geben.

Die Ethik braucht keine originellen Ausnahmen. Ethik ist nicht da, um den Einfallsreichtum zu fördern. Die Aufgabe der Ethik besteht darin, uns anzuleiten, wie wir uns entscheiden sollten. Nur weil die Handlungsanweisung simpel sein kann, spricht das nicht gegen sie – Ethik muss nicht immer kompliziert sein.

Wie der traditionelle Humanismus beruht auch der Transhumanismus auf dem gesunden Menschenverstand, rigoros angewandt auch auf Bereiche ausserhalb der Alltagserfahrung. Eine Lebensdauer von einer Million Jahre? Wenn es möglich wäre, weshalb nicht? Die Perspektive scheint uns vielleicht fremd und merkwürdig, relativ zu dem aktuell Gewohnten. Doch was soll daran grundsätzlich schlecht sein?

Kann Ethik wirklich so einfach sein?

Ja.

Ist die Debatte damit abgeschlossen? – Nein.

Erstens sind die „einfachen Regeln“, obwohl in erster Approximation in der Tat klar und einfach genug, noch ambig. Geht es eher um gefühltes Glück und/oder Leid oder um die Erfüllung von Präferenzen, die sich auch auf andere Dinge richten können? Und eher um die Maximierung von Erfüllung oder die Minimierung von Nicht-Erfüllung? Diese theoret(h)ische Ambiguität kann sich durchaus zeigen, besonders wenn wir praktische Gesamtabwägungen anstellen.

Zweitens ist für die praktische Gesamtabwägung natürlich auch die empirische Frage entscheidend, ob die Förderung transhumanistisch relevanter Technologien tatsächlich zu mehr Nutzen (bzw. mehr Schadensverhinderung) als Schaden führen wird, und wenn ja, mit welchem Übergewicht. Doch bevor wir diese Frage sinnvoll angehen können, müssen wir die Frage nach dem theoret(h)ischen Ziel stellen. Denn wenn das Ziel unbestimmt ist, dann ist auch unbestimmt, was überhaupt als „Nutzen“ bzw. „Schaden“ zu betrachten ist. Ist es ein Schaden bzw. ein Problem, wenn wir Leid-/Glücksniveaus, Lebensspannen, IQs und – ethisch vielleicht besonders wichtig – Empathie- und Altruismus-Niveaus von X statt 2X oder 10X haben? Dazu ist, wie aufgezeigt wurde, die Frage relevant (Reversal Test): Wäre es ein Schaden bzw. ein Problem, wenn wir uns auf einem Niveau von 0.5X statt X befänden?

Ziemlich sicher: Ja. Können wir – in der gesellschaftlichen Praxis – die Schäden reduzieren und die Probleme lösen, ohne zugleich grössere zu verursachen? Diese empirische Frage ist Gegenstand einer hiermit lancierten GBS-Blogsequenz. Pro- und Contra-Beiträge (auch zur hier behandelten ethischen Theorie bzw. Zielbestimmung) sind herzlich willkommen!

In Anlehnung an den Artikel Transhumanism as Simplified Humanism von Eliezer Yudkowsky