Notiz 2012-11-12: Dies ist die in den Texten, wenn auch nicht ganz im HTML-Code originaltreue Rekonstruktion eines rasch eingeschlafenen Online-Buchprojekts aus dem Jahr 2008. Nur fürs Archiv.


Datenschutz-Erklärung · Impressum

Der kleine Zukunftsführer

(Arbeitstitel eines digital entstehenden und digital kommentierbaren futuristischen Buchprojekts des Blogs futur:plom; Autor: plomlompom / Christian Heller)


Kapitel zur Technologischen Singularität (Teil) (v. 0.0.2)

Ein historischer Spaziergang

Machen wir einen kleinen Spaziergang durch die Geschichte der intellektuellen Arbeitsteilung zwischen Mensch und Maschine. (Als "Mensch" bezeichnen wir hierbei erstmal Tiere der Gattung "homo sapiens sapiens". Als "Maschine" dagegen bezeichnen wir erstmal Dinge, die aus einem Schaffensprozess dieses Tieres hervorgehen, um bestimmte Aufgaben zu erfüllen.)

Prolog: Sprache

Vielleicht sollte man einen solchen Spaziergang mit einer Erwähnung der "Sprache" beginnen: dem grundlegenden Vermögen, geistige Inhalte in Symbole und Symbol-Verknüpfungen zu veräußern und umgekehrt auch wieder aus diesen heraus zu lesen. Sie erlaubt den Austausch und die Gestaltung von Gedanken auf einer Höhe, die kein nichtmenschliches Tier kennt; Sprache kommt als eine wesentliche Grundlage der Besonderheiten menschlicher Intelligenz in Frage. Gerade deshalb lässt sie sich aber nur schwer als eine vom Menschen selbst geschaffene Maschine vorstellen. Ihre Entstehung ist gehüllt ins Dunkle der vorgeschichtlichen Menschwerdung. Der Sprache ähnliche Phänomene der Verständigung finden sich auch bei anderen Tierarten: Schimpansen, Delfinen, Bienen. Man wird der Herkunft der Sprache also wohl am Ehesten gerecht, wenn man sie als Erzeugnis nicht des Menschen betrachtet, sondern von Milliarden von Jahren biologischer Evolution informationsverarbeitender und -austauschender Nervensysteme.

Schrift

Die Datierung der ersten Selbst-Erweiterung des menschlichen Geistes bietet sich für das Ende der Altsteinzeit an: Millionen von Jahre haben unsere Vorfahren nur Gegenstände mit konkretem physikalischen Nutzen (Schneidewerkzeuge, Feuer, schützende Kleidung) hergestellt. Jetzt häuft sich die Herstellung von Trägern für Symbole: Venusfiguren, Höhlenmalereien und Tierknochen mit mengenmäßig gruppierten Einritzungen, die auf Verwendung als Zählhilfe oder Zahlenspeicher hindeuten.[1] Die menschliche Intelligenz scheint damit zu spielen, ihr Inneres nach Außen zu kehren.

Hieraus bilden sich in den folgenden zwanzig bis dreißig Jahrtausenden feste Symbol-Formen und Symbol-Anordnungsregeln. Ab dem 6. Jahrtausend v.d.Z. explodieren vom Mittelmeerraum bis Ostasien grafische Zeichensysteme für Gegenstände, Größen, Sachverhalte. Die Symbol-Vorräte wachsen nicht nur, sie lassen sich auch auf immer mehr Weisen kombinieren: Immer mehr geistige Inhalte lassen sich in Notations-Systeme veräußern oder aus ihnen heraus lesen. So erweitert sich auch, mit welchen Konzepten die menschliche Intelligenz überhaupt jonglieren kann: Die Sumerer entwickeln zum Beispiel zum 3. Jahrtausend v.d.Z. ein Zahlensystem, mit dem sie Größenordnungen von Zahlen präzise ausdrücken können, die noch nach steinzeitlicher Zählknochenmethodik undenkbar gewesen wären. Zugleich orientieren sich Notationssysteme mehr und mehr an den Ausdrucksmöglichkeiten der Lautsprache; das gipfelt Ende des 2. Jahrtausends v.d.Z. im phönizischen Alphabet.

Von nun an lässt sich jedes sprachlich fassbare Denken und Wissen in ausdauernde Datenträger veräußern. Es lässt sich unverfälscht durch Raum und Zeit bewegen. Mit höchster Genauigkeit lässt es sich mit anderem Denken und Wissen vergleichen und verknüpfen, in seine Einzelteile zerlegen und neu zusammensetzen.

Computer

Schon früh in der Geschichte der Schrift macht der Mensch eine folgenschwere Entdeckung: Vieles Denken verläuft in Notation besser als im Redefluss der Lautsprache. Das lehrt vor allem die Mathematik: Arbeitslast des Rechnens lässt sich aus dem Nervensystem in die interne Mechanik mathematischer Notationssysteme auslagern. Allgemeiner: Sobald sich für einen Denkvorgang ein Regelwerk formulieren lässt, das in äußerer Mechanik nachgebaut werden kann, lässt er sich aus dem Gehirn in eine Maschine veräußern.

Ab dem 17. Jahrhundert ermöglicht der Stand der mathematischen Methodik Rechenmaschinen, die die vier Grundrechenarten vollständig beherrschen. Das heißt, grob: Der Mensch muss bloß noch zwei Zahlen eingeben, die gewünschte Art der Verrechnung auswählen und einen Antriebshebel betätigen, den Rest erledigt die Maschine. Im 19. Jahrhundert konstruiert der Engländer Charles Babbage auf dem Papier die "Analytical Engine". Sie arbeitet nicht bloß Einzelberechnungen durch, sondern ganze rechnerische Programme: beliebig lange Anweisungsketten sowohl zum Be- und Verrechnen von Variablen als auch zum Hin- und Herspringen in diesen Anweisungsketten selbst, abhängig von den Zuständen einzelner Variablen. Sie erlaubt die Berechnung von allem, was sich in einen mathematischen Algorithmus fassen lässt. Sie ist der erste programmierbare Computer im modernen Sinne. Dieses Grundkonzept wird im 20. Jahrhundert umgesetzt.

Das menschliche Gehirn braucht nun nicht mehr selber rechnen, sobald es eine Denk-Aufgabe einmal in mathematische Form übersetzt hat. Solche kann es jetzt an eine Maschine auslagern, deren Rechenkapazitäten sich seit Mitte des letzten Jahrhunderts alle zwei Jahre verdoppeln. Die eigentliche Herausforderung scheint von nun an darin zu bestehen, eine immere größere Vielfalt des Denkens eben in diese maschinenlesbare Form zu übersetzen, um sie an diesem Kapazitätenwachstum Teil haben zu lassen.

Maschinenlesbarkeit

[hier anreißen: Logik/Frege/Boole/Shannon, maschinenlesbare Speichermedien/Lochkarten, explodierende Datenmengen und postsprachliche Intelligenz/Google/Anderson/]


Fassung vom 2008-08-31 20:58:10 / 2008-08-31 21:03:09 · Permalink

Kommentar schreiben

Kommentar-Funktion inzwischen deaktiviert.

Kommentare

Hab den Kapitel-Anfang nochmal fast ganz neu gemacht. Geht mir jetzt mehr um die Darstellung von Prinzipien als um eine detaillierte Chronologie. (Ich hatte eine wunderschöne detaillierte Chronologie bereits tagelang in den Editor reingehauen, mit ausufernder Länge, hab mir das jetzt gerade nochmal alles durchgelesen, es als tolles barockes Kunstwerk abgehakt, und dann eben aufs Allerwesentlichste zusammengekürzt. Schade eigentlich ;-) ) Ich hoffe, ich räume Sprache, Schrift und Notationssystemen jetzt relativ genug Raum ein?

Christian · 2008-08-31 21:05:52 · #

Ach ja, hier noch die ornamental-chronologische Langfassung vor Kürzungsumstrukturierung, zum Vergleich (das Internet hat viel Platz, das kann man ja ausnutzen):

Machen wir einen kleinen Spaziergang durch die Geschichte der intellektuellen Arbeitsteilung zwischen Mensch und Maschine. Als “Mensch” bezeichnen wir hierbei erstmal Tiere der Gattung “homo sapiens sapiens”. Als “Maschine” dagegen bezeichnen wir erstmal Dinge, die aus einem Schaffensprozess dieses Tieres hervorgehen, um bestimmte Aufgaben zu erfüllen.

Vielleicht sollte man einen solchen Spaziergang mit einer Erwähnung der “Sprache” beginnen: dem Vermögen, geistige Inhalte in Symbole und Symbol-Verknüpfungen zu veräußern und umgekehrt auch wieder aus diesen herzuleiten. Sie erlaubt den Austausch und die Gestaltung von Gedanken auf einer Höhe, die kein nichtmenschliches Tier kennt; Sprache kommt als eine wesentliche Grundlage der Besonderheiten menschlicher Intelligenz in Frage. Gerade deshalb lässt sie sich aber nur schwer als eine vom Menschen selbst geschaffene Maschine vorstellen. Ihre Entstehung ist gehüllt ins Dunkle der vorgeschichtlichen Menschwerdung. Der Sprache ähnliche Phänomene der Verständigung finden sich auch bei anderen Tierarten: Schimpansen, Delfinen, Präriehunden, Bienen. Man wird der Herkunft der Sprache also wohl am Ehesten gerecht, wenn man sie als Erzeugnis nicht des Menschen betrachtet, sondern von Milliarden von Jahren biologischer Evolution informationsverarbeitender und -austauschender Nervensysteme.

Gut nachweisbar startet die eigentliche Geschichte der geistigen Arbeitsteilung zwischen Mensch und Mensch-geschaffenem Gerät erst gegen Ende der Altsteinzeit durch: Millionen von Jahren haben unsere Vorfahren ihre Umwelt nur in Maschinen mit physikalischem Nutzen (Schneidewerkzeuge, Feuer, schützende Kleidung) verwandelt; jetzt formen sie aus ihr zunehmend Träger für Symbole: Venusfiguren, Höhlenmalereien und Tierknochen mit mengenmäßig gruppierten Einritzungen, die auf Verwendung als Zählhilfe oder Zahlenspeicher hindeuten.1 Die menschliche Intelligenz spielt damit, ihre internen Abläufe und Gehalte zu veräußerlichen.

Aus solchem bilden sich in den folgenden zwanzig bis dreißig Jahrtausenden feste Symbol-Formen und Symbol-Anordnungsregeln heraus. Ab dem 6. Jahrtausend v.d.Z. explodieren vom Mittelmeerraum bis Ostasien normierte grafische Zeichensysteme für Gegenstände, Größen, Sachverhalte. Sie dienen so vielfältigen Zwecken wie dem religiösen Kult und der Verlautbarung politischer Macht, der Kalenderführung oder der Buchhaltung von Landwirtschaft und Handel. Das Wachstum der Symbol-Vorräte geht einher mit einer Vergrößerung der Möglichkeiten, sie miteinander zu kombinieren: Eine immer größere Vielfalt und Höhe geistiger Inhalte lässt sich in Notation auslagern oder aus ihnr herleiten. So entwickeln die Sumerer zum 3. Jahrtausend v.d.Z. ein Zahlensystem, mit dem sich Größenordnungen von Zahlen präzise ausdrücken lassen, die noch nach steinzeitlicher Zählknochenmethodik undenkbar gewesen wären. Zugleich werden Symbol-Systeme immer mehr auf lautsprachliche Ausdrucksmöglichkeiten heruntergebrochen, was Ende des 2. Jahrtausends v.d.Z. vorerst im phönizischen Alphabet gipfelt. Der Mensch hat sich jetzt eine Technologie geschaffen, die es prinzipiell jedem sprachlich fassbaren Wissen und Denken erlaubt, Ewigkeiten zu überdauern, sich unverfälscht zu bewegen und zu vervielfältigen, Wort für Wort mit anderem Wissen und Denken verglichen und verknüpft, in seine Einzelteile zerlegt und neu zusammengesetzt zu werden.

Die menschliche Geistesgeschichte ab Beginn des 1. Jahrtausends v.d.Z. kann als Entfaltung dieses Potentials gelesen werden. Philosophische und religiöse Lehren, die sich der Schrift bedienen, erreichen neue Dimensionen von Komplexität, Reichweite und Nachwirkung. Schrift ermöglicht Maschinen der Informationsverwaltung und Informationsverarbeitung wie das Archiv und die Bibliothek, den Brief und das Buch, die Bürokratie und die Universität. Durch die Schrift können sich Wissen und Denken stabil über die Anhäufung von Beobachtungen und Argumenten zu himmelhohen Bergen auftürmen; die neuen informationstechnischen Kapazitäten erlauben ein umfassenderes, genaueres und zugleich allgemeineres Erfassen der Gesetzmäßigkeiten der Natur. Die Schnittstelle des Gehirns zur neuen geistigen Technologie Schrift, die Lese- und Schreibfähigkeit, breitet sich zuerst nur langsam aus, in den letzten Jahrhunderten jedoch immer schneller: Heute hat beinahe die gesamte Weltbevölkerung ihr Denken und Wissen in die Schrift-Maschinerie verkabelt. Diese wird davon nur noch weiter angeheizt.

Wie sehr sich manches in Notation besser denken lässt als im Redefluss der Lautsprache, das lehrt die Mathematik. Von Anfang an ist sie Vorreiterin darin, Arbeitslast der Informationsverarbeitung vom menschlichen Nervensystem auszulagern in die Mechanik von äußeren Symbol-Anordnungsregeln und Symbol-Anordnungsmaschinen. Schon die Sumerer im 3. Jahrtausend v.d.Z. und die Chinesen im 1. Jahrtausend v.d.Z. kommen so auf das Rechenbrett und den “Abakus”: Das Verrechnen großer Zahlen wird heruntergebrochen auf einfache Regeln zum Verschieben weniger Kügelchen in vorgegebenen Bahnen. Das Gehirn des menschlichen Anwenders steuert nur noch niedere Rechenprozesse bei, die erst vom Aufbau des Geräts zu Komplexerem kombiniert werden. Ein anderes Beispiel geht im 1. Jahrtausend n.d.Z. aus einer Übersetzung von Astronomie in Geometrie hervor: Mit dem “Astrolabium” berechnet man eigene Position, Zeit und Stand der Sterne auseinander, und zwar durch das Verschieben von Scheiben und Schablonen, in deren Beschriftungen, Formen und Verankerungen astronomisch-kalendarisch-geometrische Regeln gegossen sind. Sobald der Aufbau eines intellektuellen Vorgangs in eine beherrschte äußere Regelhaftigkeit übersetzt werden kann, lässt er sich in eine Maschine auslagern und automatisieren. Wäre es nicht auch reizvoll, Denkvorgänge jenseits des Verrechnens von Größen in solche mitdenkenden Notationssysteme zu veräußern? Erste Ansätze eines solchen Interesses finden sich schon bei antiken Philosophen und mittelalterlichen Scholastikern: Sie bemühen sich, menschliches Schlussfolgern in formelhaft durchschreitbare Systeme wie den “Syllogismus” zu übersetzen. Ein erster Versuch, solcherlei in Getriebe zu verwirklichen, findet sich im 13. Jahrhundert beim mallorkinischen Theologen Raimundus Lullus: Er baut mit einzelnen Begriffen beschriftete Räderwerke, deren Mechanik nach einer von ihm verfassten logischen Systematik sinnvolle Begriffs-Kombinationen erzeugen soll.

Aber bevor solche frühen Unterfangen zur allgemeineren Mechanisierung des Denkens Fortschritte machen, entwickeln sich erstmal mathematische Ideen, Methoden und Mechaniken weiter. Aus ihnen heraus steigert sich mathematische Notation zu immer höherer Effizienz. So setzt sich beispielsweise im Europa der Renaissance das indo-arabische Zahlensystem gegen das lateinische durch, denn mit ihm lässt es sich einfacher und schneller rechnen; so ergeben sich im 17. Jahrhundert die “Neperschen Rechenstäbchen” und der “Rechenschieber”, die Rechenoperationen unter beliebig großen Zahlen zur einfachsten Handmechanik reduzieren. Ingenieurswissenschaftlicher Fortschritt dagegen erlaubt immer feinere, präzisere maschinelle Getriebe. Als beide Entwicklungen zusammentreffen, läutet das eine neue Generation von Rechenmaschinen ein. Es häufen sich im europäischen Barock Entwürfe für Geräte, die Addition, Subtraktion, Multiplikation und Division so weit automatisieren, dass die Arbeit des Menschen nur noch in der Eingabe zu verrechnender Zahlen und der gewünschten Rechen-Art sowie der Betätigung eines Antriebs-Hebels besteht. Das wiederum feuert aber auch neuerlich das Interesse an, größere Bereiche des Denkens in die Gestalt mathematischer Notation zu übersetzen: Projekte logisch strukturierender Universalsprachen haben Hochkonjunktur unter Geistesgrößen jener Zeit wie René Descartes, John Wilkins oder Gottfried Wilhelm Leibniz. Jeder mögliche Gegenstand des Denkens soll ihren Plänen nach irgendwann ins Automatisiert-Ausrechenbare formalisiert werden können.

Ab dem 19. Jahrhundert gehen mechanische Rechenmaschinen für die vier Grundrechenarten unter Bezeichnungen wie “Arithmometer” oder “Comptometer” in Massenproduktion und -anwendung. Der Engländer Charles Babbage erfindet dieweil eine “Difference Engine”, die bereits komplizierte Polynomfunktionen berechnen kann. Außerdem entwirft er eine (nicht seinerzeit verwirklichte) “Analytical Engine”. Sie soll nicht bloß Einzelberechnungen durchführen, sondern ganze rechnerische Programme durcharbeiten: beliebig lange Verkettungen von Anweisungen zum mathematischen Rechnen genauso wie zum Hin- und Herspringen in diesen Anweisungsketten selbst, abhängig von den Zuständen einzelner Speicher in der Maschine, die im Verlauf des Rechenprogramms beschrieben und manipuliert werden. Kommunizieren soll der Mensch seinen mathematischen Denk-Auftrag an diesen programmierbaren Computer in Form hintereinander gebundener “Lochkarten”. Zu Anfang des 19. Jahrhunderts noch sind diese Lochkarten nur maschinenlesbare Textilmuster für Webstühle. Im Jahr 1890 werden sie bereits als elektromagnetisch lesbarer Datenträger in der US-amerikanischen Volkszählung angewandt: Stanz-, Sortier-, Misch-, “Tabellier-Maschinen” übernehmen große Teile der Erhebungs- und Sortierarbeit. So können statistische Auswertungen bewältigt werden, an denen die vorherige 1880er Volkszählung ob schierer Datenmenge kläglich scheiterte. Indem maschinelle Datenverarbeitung neue Größenordnungen von Informationsmassen intellektuell bearbeitbar macht, öffnet sie die Tür für neue Arten der Analyse der Welt.

Unterdessen gelingt es Mathematikern und Philosophen wie George Boole und Gottlob Frege, eines der Hauptverfahren menschlicher Vernunft, die Logik, ganz in rechnerische Form zu übersetzen. Logisch fassbare Argumente lassen sich nun rein formelhaft durch schriftliche Notation anstatt durch das Gehirn bearbeiten, genauso wie zuvor die Mathematik. Der naheliegende nächste Schritt, das Verbauen dieses logischen Kalküls in Rechenmaschinen, kündigt sich bereits in Geräten wie William Stanley Jevons’ “Logischem Piano” (1870) an. Dieses liest Anfangsannahmen in Form von Wahrheitswert-Kombinationen als mechanische Schaltungen ein, aus denen sich Schlussfolgerungen in Form weiterer Wahrheitswert-Schaltungen durch das logisch ordnende Getriebe der Maschine erzeugen lassen. Das ist denkstrukturell schonmal um Einiges flexibler als Raimundus Lullus’ Begriffs-Räderwerk ein halbes Jahrtausend zuvor.

[1] Eine schnelle Google-Recherche zum “Lebombo Bone” und dem “Ishango Bone” dürfte sich bei Interesse hieran bezahlt machen.

Christian · 2008-08-31 21:17:16 · #