Menu

GBS Schweiz

  • de
  • en

Artificial Intelligence (AI) – Die letzte Revolution?

on 11. Dezember 2014

 

Vor kurzem ist das Buch “Superintelligence: Paths, Dangers, Strategies” des Oxforder Philosophieprofessors Nick Bostrom erschienen. Max Tegmark, Physikprofessor am MIT, fasst die darin behandelte Kernfrage prägnant zusammen:

„This superb analysis by one of the world’s clearest thinkers tackles one of humanity’s greatest challenges: if future superhuman artificial intelligence becomes the biggest event in human history, then how can we ensure that it doesn’t become the last?“

Diesbezüglich werden im folgenden Beitrag einige der relevanten Grundgedanken näher erläutert:

Intelligenz ist von entscheidender Bedeutung. Wir Menschen verdanken unsere Vormachtstellung auf der Erde nicht der besonderen Stärke unserer Muskeln oder der ungewöhnlichen Schärfe unserer Zähne, sondern dem einzigartigen Einfallsreichtum unseres Gehirns. Unsere Gehirne sind verantwortlich für die komplexe Gesellschaftsorganisation und die Anhäufung von technologischen, wirtschaftlichen und wissenschaftlichen Fortschritten, von denen unsere moderne Zivilisation – wohl oder übel – abhängt.

All unsere technologischen Erfindungen, philosophischen Ideen und wissenschaftlichen Theorien haben ihren Ursprung im menschlichen Intellekt. Die Leistung des menschlichen Gehirns ist vermutlich derjenige Faktor, von der die Entwicklungsgeschwindigkeit der menschlichen Zivilisation am meisten abhängt.

Anders als die Lichtgeschwindigkeit oder die Elektronenmasse ist die menschliche Intelligenz keine unveränderliche Naturkonstante. Gehirne können sich verbessern. Und im Prinzip könnte man Maschinen herstellen, welche Informationen so effizient verarbeiten wie biologische Nervensysteme – oder sogar noch effizienter als diese.

Viele Wege führen zu höherer Intelligenz. Mit „Intelligenz“ ist hier die ganze Palette kognitiver Fähigkeiten gemeint, also nicht nur Bücherwissen, sondern auch Kreativität, soziale Intuition, Weisheit, etc.

Zuerst wollen wir uns überlegen, wie wir unsere biologischen Gehirne verbessern könnten. Offensichtlich gibt es die herkömmlichen Methoden wie Ausbildung und Studium oder die Ausarbeitung besserer Methoden und Begriffssysteme. Zudem kann die neurologische Entwicklung durch gesündere Säuglingsernährung, geringere Umweltverschmutzung, Prävention von Gehirnerkrankungen, sowie ausreichend Schlaf und Bewegung optimiert werden. Wir könnten darüber hinaus Biotechnologien nutzen und beispielsweise Psychopharmaka entwickeln, welche kognitive Fähigkeiten wie Erinnerungsvermögen, Konzentration und Willenskraft verbessern. Es wäre auch möglich, dies durch genetische Selektion und Gentechnik zu erreichen. Ausserdem können externe Hilfsmittel – wie Notizblätter, Tabellen oder Visualisierungssoftware – unsere effektive Intelligenz erhöhen.

Unsere kollektive Intelligenz zu erweitern, ist eine weitere Alternative. Erreichen könnte man dies durch geeignete Normen und Konventionen – z.B. die Norm gegen ad hominem Argumente in wissenschaftlichen Diskussionen – oder durch das Verbessern von Institutionen, die dem Wissensfortschritt dienen, wie etwa wissenschaftlichen Fachzeitschriften, Peer-Review und dem Patentwesen. Wir könnten die kollektive Problemlösefähigkeit der Menschheit erweitern, indem wir mehr Menschen in produktive Unternehmungen eingliedern, oder neue Hilfsmittel für Kommunikation und Zusammenarbeit entwickeln – verschiedene Internetanwendungen sind hierfür jüngste Beispiele.

All diese Möglichkeiten der Verbesserung kollektiver und individueller menschlicher Intelligenz scheinen vielversprechend und sollten energisch weiterverfolgt werden. Vielleicht ist es am intelligentesten und vernünftigsten, wenn die Menschheit darauf hin arbeitet, sich selbst intelligenter und vernünftiger zu machen.

Auf längere Sicht jedoch werden unsere biologischen Gehirne vermutlich aufhören, die intelligentesten Gebilde auf der Erde zu sein.

Maschinen werden mehrere Vorteile aufweisen: Am offensichtlichsten ist die schnellere Verarbeitungsgeschwindigkeit – ein künstliches Neuron könnte millionenmal schneller feuern als sein biologisches Gegenstück. Maschinelle Intelligenzen könnten zudem mit überlegenen Computerarchitekturen und Lernalgorithmen ausgestattet sein. Diese „qualitativen“ Vorteile, obwohl schwerer vorherzusagen, sind vielleicht sogar entscheidender als die Vorzüge in Bezug auf Rechenleistung und Speicherkapazität. Des Weiteren können künstliche Intelligenzen leicht vervielfältigt werden, und jede neue Kopie kann – anders als Menschen – ihr Leben vollentwickelt beginnen, ausgestattet mit all dem Wissen, das ihre Vorgänger erworben haben. In Anbetracht dieser Überlegungen ist es möglich, dass wir eines Tages in der Lage sind, eine „Superintelligenz“ zu erschaffen: eine allgemeine Intelligenz, welche die besten menschlichen Gehirne in jedem bedeutenden geistigen Bereich bei weitem übertrifft.

Es gibt unterschiedliche Ansätze, um eine künstliche (allgemeine) Intelligenz zu erschaffen. Das Spektrum reicht von vollständig biologiefernen Herangehensweisen, wie sie in der KI-Forschung alter Schule verwendet wurden, bis zu Konstruktionen, die stärker dem menschlichen Gehirn nachempfunden sind. Das Extrem biologischer Nachbildung ist Whole Brain Emulation, auch „Uploading” genannt. Bei diesem Verfahren würde ein menschliches Gehirn schichtweise gescannt werden, um anschliessend mittels bildgebender Computersoftware eine sehr detaillierte, dreidimensionale Abbildung des Gehirns zu erstellen, welche einzelne Neuronen, synaptische Verbindungen und andere relevante Details beinhaltet. Mit Hilfe von Computermodellen, welche die Funktionsweise der wesentlichen Bestandteile des Gehirns beschreiben, könnte schliesslich das gesamte Gehirn auf einem hinreichend leistungsfähigen Computer emuliert werden.

Das Gehirn ist das einzige physikalische System, von dem wir bereits wissen, das es zu allgemeiner Intelligenz fähig ist. Deshalb scheint der letztendliche Erfolg von biologisch inspirierten Vorgehensweisen gewisser, da diese durch die stückweise Rekonstruktion des Gehirns Fortschritte machen können. Jedoch könnte irgendein künstlicher oder hybrider Ansatz früher zum Ziel führen.

Niemand vermag genau vorherzusagen, wann die erste künstliche Intelligenz entwickelt wird, welche das menschlichen Niveau übertrifft. Es scheint jedenfalls nicht unmittelbar bevorstehend. In unserer gegenwärtigen Lage können wir wahrscheinlich nicht wissen, ob es ein paar Jahrzehnte, viele Jahrzehnte oder Jahrhunderte dauern wird. Wir sollten diese Ungewissheit anerkennen und jeder dieser Möglichkeiten einen nicht geringfügigen Glaubensgrad zuordnen.

Wie lange es auch dauern mag, bis maschinelle Intelligenzen annähernd menschliches Niveau erreichen; der Schritt von dort zur Superintelligenz ist wahrscheinlich viel kleiner. Einem möglichen Szenario zufolge, der Hypothese der „Singularität”, könnte eine ausreichend hochentwickelte und leicht veränderbare maschinelle Intelligenz (eine „Seed AI„) ihren Verstand einsetzen, um eine intelligentere Version von sich selbst zu erschaffen. Diese intelligentere Version benutzt ihre höhere Intelligenz wiederum, um sich selbst noch weiter zu optimieren. Der Vorgang wiederholt sich beständig, und jeder Zyklus läuft schneller ab als der vorhergehende. Das Endergebnis ist eine Intelligenzexplosion. Innerhalb eines kurzen Zeitraums – Wochen oder vielleicht nur Stunden – ist extreme Superintelligenz erreicht.

Ob nun einzeln und abrupt, oder allmählich und multipolar, der Übergang von menschlicher Intelligenz zu Superintelligenz wäre von entscheidender Bedeutung für die Zukunft der Menschheit. Eine Superintelligenz wäre die letzte Erfindung, die der biologische Mensch zu machen hat, da eine Superintelligenz per definitionem viel besser im Erfinden wäre als wir selbst. Alle theoretisch möglichen Technologien könnten von einer Superintelligenz entwickelt werden, z.B. fortgeschrittene molekulare Nanotechnologie, Human-Enhancement-Technologien, Uploading, Waffen aller Art, lebensechte virtuelle Realitäten, den Weltraum kolonisierende, selbstreplizierende Robotersonden und mehr. Eine Superintelligenz wäre zudem überaus erfolgreich im Entwerfen von Plänen und Strategien, im Lösen von philosophischen Problemen, im Überzeugen und Manipulieren und vielem anderem.

Ob die Auswirkungen positiv oder negativ sein werden, ist eine offene Frage. Die möglichen Vorteile sind zweifelsohne gewaltig; andererseits stellt eine Superintelligenz ein existentielles Risiko dar. Die Zukunft der Menschheit könnte einmal davon abhängen, ob wir die Anfangsbedingungen des Systems (z.B. die Ziele und Werte der Seed AI) dergestalt entwerfen, dass dieses dem Menschen gegenüber “freundlich gesinnt“ ist – in der bestmöglichen Auslegung dieses Begriffes.

Bostrom, N. (2009). Superintelligence. Answer to the 2009 Edge Question: “What will change everything?”. Übersetzt von D. Althaus.

Image by Oxford University Press.