Notiz 2012-11-12: Dies ist die in den Texten, wenn auch nicht ganz im HTML-Code originaltreue Rekonstruktion eines rasch eingeschlafenen Online-Buchprojekts aus dem Jahr 2008. Nur fürs Archiv.


Datenschutz-Erklärung · Impressum

Der kleine Zukunftsführer

(Arbeitstitel eines digital entstehenden und digital kommentierbaren futuristischen Buchprojekts des Blogs futur:plom; Autor: plomlompom / Christian Heller)


Kapitel zur Technologischen Singularität (Teil) (v. 0.0.1)

Machen wir einen kleinen Spaziergang durch die Geschichte der intellektuellen Arbeitsteilung zwischen Mensch und Maschine.
 

Bereits gegen Ende der Altsteinzeit finden sich Tierknochen mit mengenmäßig gruppierten Einritzungen [1], die auf Verwendung als Zählhilfe oder Zahlenspeicher hindeuten. Liegen diese Theorien richtig, können wir bereits hier einen bemerkenswerten Schritt in der Geschichte menschlicher Intelligenz ansetzen: Sie weitet sich über das evolutionär gewachsene biologische Nervensystem auf äußeres Gerät aus, das sie sich selbst gestaltet hat, auf dass es für sie Information verwalte und verarbeite.

Springen wir zwanzig bis dreißig Jahrtausende vorwärts in dieser Entwicklung: Im dritten Jahrtausend v.d.Z. haben sich bei den Sumerern aus dem knochenritzenden Zählen bereits die Keilschrift und vermutlich auch schon eine frühe Form des Rechenbretts (auch bekannt als "Abakus") entwickelt. Schrift erlaubt das Speichern, Bearbeiten und Verbreiten von sprachlich gefassten Informationen und Denkprozessen unabhängig vom einzelnen menschlichen Ursprungsnervensystem. Das Rechenbrett dagegen erlaubt die Auslagerung von Rechenvorgängen aus dem Gehirn -- Denkaufträge werden auf eine Weise formuliert, die sie für äußere Mechanik lösbar macht.

Diese Möglichkeiten werden über die nächsten paar Jahrtausende verfeinert und erweitert: Sprache, Schrift und denkende Notation entwickeln sich fort entlang ihrer informationstechnischen Nutzbarkeit. Geometrie und Mathematik münden in Maschinen für astronomische Berechnungen wie dem "Astrolabium" oder dem "Mechanismus von Antikythera". Zahlensysteme konkurrieren miteinander in ihrer rechnerischen Eignung; so setzt sich in Europa die indo-arabische Notation gegen die römische durch. Antike Philosophie und mittelalterliche Scholastik bemühen sich, menschliche Gedankengänge in formelhaft durchschreitbare Systeme wie den "Syllogismus" zu übersetzen. Drucktechnik schließlich befördert den Schrift-Datenträger "Buch" zum allgegenwärtigen, normierten Langzeit- und Arbeitsspeicher von Wissen und Kultur. Die Schnittstelle des Gehirns zu diesem Datenspeicher, die Fähigkeit zum Lesen und Schreiben, wird sich anschließend binnen weniger Jahrhunderte von nahezu Null auf beinahe die gesamte erwachsene Weltbevölkerung ausweiten.

Aber springen wir erst einmal ins Europa des 17. Jahrhunderts: Entwicklungen in der mathematischen Form, die "Neperschen Rechenstäbchen" und der "Rechenschieber" haben diverse mathematische Rechenoperationen unter beliebig großen Zahlen zur einfachsten Mechanik reduziert. Dementsprechend häufen sich Entwürfe für Maschinen, die Addition, Subtraktion, Multiplikation und Division automatisieren sollen. Doch hier, beim Verrechnen von Zahlen, hört das Versprechen der Maschinenlösbarkeit noch längst nicht auf: Projekte logisch strukturierender Universalsprachen haben Hochkonjunktur unter Geistesgrößen jener Zeit wie René Descartes, John Wilkins oder Gottfried Wilhelm Leibniz. Jeder mögliche Gegenstand des Denkens soll ihren Plänen nach irgendwann ins Automatisiert-Ausrechenbare formalisiert werden können.

Springen wir nun vor ins Europa des 19. Jahrhunderts:

Einfache mechanische Rechenmaschinen für die vier Grundrechenarten gehen unter Bezeichnungen wie "Arithmometer" oder "Comptometer" in Massenproduktion und -anwendung. Der Engländer Charles Babbage erfindet dieweil eine "Difference Engine", die bereits komplizierte Polynomfunktionen berechnen kann. Außerdem entwirft er eine (nicht seinerzeit verwirklichte) "Analytical Engine". Sie soll nicht bloß Einzelberechnungen durchführen, sondern ganze rechnerische Programme durcharbeiten: beliebig lange Verkettungen von Anweisungen zum mathematischen Rechnen genauso wie zum Hin- und Herspringen in diesen Anweisungsketten selbst, abhängig von den Zuständen einzelner Speicher in der Maschine, die im Verlauf des Rechenprogramms beschrieben und manipuliert werden.

Kommunizieren soll der Mensch seinen mathematischen Denk-Auftrag an diesen programmierbaren Computer in Form hintereinander gebundener "Lochkarten". Zu Anfang des 19. Jahrhunderts noch sind diese Lochkarten nur maschinenlesbare Textilmuster für Webstühle. Im Jahr 1890 werden sie bereits als elektromagnetisch lesbarer Datenträger in der US-amerikanischen Volkszählung angewandt: Stanz-, Sortier-, Misch-, "Tabellier-Maschinen" übernehmen große Teile der Erhebungs- und Sortierarbeit. So können endlich statistische Auswertungen bewältigt werden, an denen die vorherige 1880er Volkszählung ob schierer Datenmenge kläglich scheiterte. Maschinelle Datenverarbeitung macht neue Größenordnungen von Informationsmassen intellektuell bearbeitbar und öffnet so die Tür für neue Arten der Analyse der Welt.

Unterdessen gelingt es Mathematikern und Philosophen wie George Boole und Gottlob Frege, eines der Hauptverfahren menschlicher Vernunft, die Logik, in rechnerische Form zu übersetzen. Logische Argumente lassen sich nun rein formelhaft durch schriftliche Notation anstatt durch das Gehirn bearbeiten, genauso wie zuvor die Mathematik. Der naheliegende nächste Schritt, das Verbauen dieses logischen Kalküls in Rechenmaschinen, kündigt sich bereits in Geräten wie William Stanley Jevons' "Logischem Piano" an. Dieses liest Anfangsannahmen in Form von Wahrheitswert-Kombinationen als mechanische Schaltungen ein, aus denen sich Schlussfolgerungen in Form weiterer Wahrheitswert-Schaltungen durch das logisch ordnende Getriebe der Maschine erzeugen lassen.

 

Fassung vom 2008-08-15 12:46:04 / 2008-08-18 02:51:05 · Permalink

Kommentar schreiben

Kommentar-Funktion inzwischen deaktiviert.

Kommentare

Das so mal als erster Entwurf für zwei drei Seiten. Ich muss aufpassen, in der Darstellung der Entwicklungslinie nicht zu sehr in eine Entwicklungsgeschichte des digitalen Computers abzudriften, das ist zu verführerisch, aber eben nur ein sehr bedeutsamer Teil der Entwicklung intellektueller Arbeitsteilung zwischen Mensch und Maschine, die ich darstellen möchte …

Christian · 2008-08-15 12:36:46 · #

Sehr schön. Auch die Idee mit dem generischen Buchdings.

Zu Deiner letzten Anmerkung. Ja. Du fokussierst Dich sehr auf die Entwicklung der Rechenmaschinen. Diese hatten zu den jeweiligen Zeiten aber nur eine sehr geringe Bedeutung. Erst seitdem der “echte” Computer einen tatsächlichen Siegeszug feiert, wurde diesen Gerätschaften rückblickend ein historischer Wert zugesprochen. Mehr als historisch ist er aber auch nicht.

Vor allem analytischen Sprachen wie die von Frege haben nur einen rein akademisch/philosophischen Impact gehabt und wurden kaum irgendwo sinnvoll angewendet.

Alle anderen medientechnischen Neuerungen sind da m.E. viel interessanter. Die Sprache an sich, die Erfindung der Schrift, Payrus, Gutemberg, Schreibmaschine, Telefon, Lineotype, Grammophon, Karteikarten etc. waren tatsächliche Stationen im outsourcen von “Geist”.

Und wenn du schon auf Mathematik bestehst, dann ist hier vor allem deren Notation viel wichtiger als die ganzen Stöcker und Steine und Zahnräder zusammen. Der Übergang zu den arabischen Ziffern in der Renaissance zusammen mit der nicht zu unterschätzenden Erfindung der Null, die Einführung der Algebra. Das alles hat die Mathematik tatsächlich revolutioniert und den Weg für neue Möglichkeiten überhaupt erst aufgezeigt.

mspro · 2008-08-15 15:39:41 · #

Ach so, ein bisschen Literatur:
Fiedrich Kittler: Grammophon Film Typewriter
Sybille Krämer: Berechenbare Vernunft
Robert Kaplan: die Erfindung der Null

bei Bedarf gerne mehr ;)

mspro · 2008-08-15 16:18:12 · #

ähnliche buchtipps wollte ich auch gerade loswerden.

/konstruktive/ kritik: liest sich alles wie eine geraffte version üblicher kulturwissenschaftlicher technik- und mediengeschichte. will sagen: where’s the beef?

vgl. dazu z.B. auch die arbeiten des helmholtz-zentrums für kulturtechnik an der humboldt universität (ein inter-/transdisziplinärer zusammenschluss natur- und geistes-/kulturwissenschaftlicher forscher), da besonders der forschungsbereich “Bild Schrift Zahl” – oder eben jedes Seminar/jede Vorlesung zu diesen Themen an der KuWi der HU ;-)

thomas · 2008-08-18 15:10:40 · #

nochmals buchtipp:

barrow: ein himmel voller zahlen
kittler: short cuts (nur bei 2001 beziehbar – aber grandios knackig dicht)
kittler: musik und mathematik (nur intoxiniert zu lesen!)
pynchon, pynchon, pynchon
kittler: optische medien (der beste abenteuerroman zur geschichte der optischen medien, unglaublich dicht geschrieben)

thomas · 2008-08-18 15:13:49 · #

Oh, es geht mir vor allem um eine technische Performanzverlagerung und -steigerung / Potentialausweitung zwischen biologischem und künstlichem Denkorganismus und gleichzeitig um den eher simplen Nachweis, dass Computer-Hirn-Schnittstellen keine wilde SciFi, sondern Grundstein der menschlichen Zivilisation sind.

Mediengeschichte ist da gar nicht so sehr mein Ziel, und ich habe gar nicht vor, der Kittler-Krämer-Pynchon-Clique ihr Fleisch zu klauen ;-)

Christian · 2008-08-18 16:18:06 · #