Sonntag, 1. Juli 2012

Zu Alan Turing, von Dietmar Dath

Ich bin ein Liebender der Wissenschaften. Ich bin dem Wissen sehr zugeneigt. Warum? Vielleicht, weil ich so leer bin? Voll von Gefühl, aber wenig Sicherheit und wenig Aussicht. Das Wissen verspricht da AbHilfe und hält sie bis Heute auch ein. Ich fülle in-m ich ein. Ich nehme nicht so sehr auf, wie ich einnehme, was so an Neuem erarbeitet, erschaffen und vor allem erspürt worden ist, also wahrgenommen, von allen Sensoren der Lebendigkeit: ertastet, erschmeckt, errochen, ersehen und erhört worden ist und, um ein wichtiges Teil nicht zu vergessen, was auch erahnt worden ist, von den vielen menschlichen Forsches und auch ganz winzigst und bescheiden von mir. Das Folgende ist von einem weiteren Liebenden des Wissens. Es ist eine schöne Entdeckung und hat mich deshalb sehr erfreut, ich möchte es noch öfter lesen und stelle es deshalb hier ein, vielleicht ist es auch für das Eine oder Andere von Ihnen interessant: Viel Freude beim Lesen.
Wie stets, habe ich ein paar {persönliche Anmerkungen} einfliessen lassen.
.
Alan Turing
.

Aus der Frankfurter Allgemeine Zeitung, vom 23.06.2012.
Titel: Ausgerechnet: Die Grenzen der Wahrheit. Alan Turing, Denkgenie.
Untertitel:  Geboren wurde der britische Logiker und Mathematiker Alan Turing am 23. Juni 1912. Das abstrakte Prinzip des Computers und ein neuer Begriff von Intelligenz sind zwei der Schätze, die sein Erbe birgt.
Von Dietmar Dath

Noch in seinen letzten Wochen war Turing, den die gesetzliche Festschreibung einer krude, eng und grausam bestimmten biologischen Norm um Glück und Gesundheit brachte, damit beschäftigt, die Vielfalt des Biologischen besser zu verstehen. Gerade erst traten die Lebenswissenschaften aus dem beschreibenden ins exakte Stadium, und Turing half an der Universität von Manchester seit 1949 dabei mit. 1952, zwei Jahre vor seinem Tod und im Jahr des Beginns seiner Drangsalierung durch den britischen Staat, skizzierte er in seinem Aufsatz „The Chemical Basis of Morphogenesis“ eine Theorie über Instabilitäten in homogenen chemischen Medien, formgebende Wellenmuster und andere neue Einfälle, die zusammen die Umrisse ganzer Großbezirke heutiger Forschung, von den Nichtgleichgewichts-Phasenübergängen der Synergetik bis zur bioinformatischen Enträtselung der Genetik und Proteomik ahnen ließen.

Um ein abtötendes Reduzieren des Formenreichtums der lebendigen Welt, um normierende Vereindeutigung, ging es bei der Sorte Wissenschaft, für die Turing gelebt hat, keinen Augenblick. Die Grenzen reduktionistischer Zugriffsweisen auf Welt, Leben und Denken abgesteckt zu haben gehört vielmehr zu seinen Hauptverdiensten. Wie Kurt Gödel vor ihm gezeigt hatte, dass es niemals ein formallogisches System geben kann, das zugleich vollständig und widerspruchsfrei ist, fand Turing heraus, dass es notwendig Zahlen gibt, die sich nicht berechnen lassen. Seine Funde wiesen Nachfolgern wie Gregory Chaitin, dem Erfinder der algorithmischen Informationstheorie, den Weg. Chaitin konnte zeigen, dass es selbst tief in der Arithmetik, dem gewöhnlichen Zahlenrechnen mit zehn Fingern, Bleistift und Papier oder Kieselsteinen, irreduzible mathematische Information, also Zufälliges, auf keinen Determinismus zu Zwingendes gibt und dass man nie beweisen kann, dass ein Programm, das aus einer bestimmten Eingabe ein bestimmtes Resultat macht, notwendig das eleganteste, also kürzeste Programm für ebendiese Aufgabe ist.

Quasiphilosophische Überreaktionen

Egal, was du weißt, es bleibt ein Rest, den du ebendeshalb nicht wissen kannst. Rund zweihundert Jahre vergingen zwischen D’Alemberts Vorwort zur „Enzyklopädie“, dem großen Buch der Aufklärung, das dem großen Buch der christlichen Religion die Grenzen seines Gewissheitsanspruchs setzen sollte, und Turings epochalem Aufsatz „On Computable Numbers With an Application to the Entscheidungsproblem“ (1936). Die wertvollste Lektion, die der Menschheit in diesen zweihundert Jahren zugestoßen ist, lautet: Gewissheit ist unwissenschaftlich.

{Einspruch. Die Ungewissheit darf nur der Firnis auf der Gewissheit sein, denn alles DaSein baut auf Gewissheit auf: Etwas ist. Das ist gewiss. Wer aber NUR die Gewissheit sucht und will, wird kein Forscher, das ist auch klar, Forschen ist reiten auf der Firnis der Vergangenheit, Wissenschaft ist "Schaumschlägerei" auf den Blasen der Gewissheit, ich finde, soviel Genauigkeit ist wichtig, aber weiter ...}

Koryphäen der Wissenschaftstheorie des zwanzigsten Jahrhunderts wie Karl Popper, Imre Lakatos, Paul Feyerabend und einige besonders radikale Konstruktivisten zeigten sich von der bis zu dieser Einsicht zurückgelegten Lerngeschichte dermaßen beeindruckt, dass sie sich bei allen sonstigen Differenzen untereinander mit manchen Formulierungen gefährlich nah an einer törichten Idee entlangbewegten: „Wenn Gewissheit unwissenschaftlich ist, dann ist Ungewissheit wissenschaftlich.“ Dieses Fieber wird wohl im 21.Jahrhundert vorübergehen wie einige Exzesse der bürgerlichen, aber auch der forciert antibürgerlichen Wissenssoziologie des letzten Jahrhunderts, die den negativen Abdruck alter metaphysischer Gewissheitssehnsüchte als maßlosen Relativismus kultivierten.

Weil derlei Überreaktionen der quasiphilosophischen Schriftstellerei auf einen neuen Stand menschlicher Erfahrung zumindest kurzfristig erhebliche Verwirrung stiften, hängt das Fortschreiten über sie hinaus entscheidend davon ab, ob Köpfe mit Sinn fürs Abstrakteste die nötige definitorische Kleinarbeit leisten, aus der sich erst das scharf aufgelöste Bild des Neuen schälen kann. Das Doppeljahr 1936 und 1937 erlebte solch ein Fortschreiten mit zwei fast gleichzeitigen Schritten: Der Amerikaner Alonzo Church benutzte das Instrumentarium der sogenannten rekursiven Funktionen - mathematische Gegenstände aus Variablen, Konstanten und Pforten der Selbstreferentialität von Informationsverarbeitungsprozessen - zur präzisen Bestimmung dessen, was wir mit „Berechenbarkeit“ überhaupt meinen. Alan Turing wiederum fand ein geniales anschauliches Bild, das dieser Bestimmung als ihr physisches Modell äquivalent war (und sich daher bauen ließ - als Apparat, den wir heute Computer nennen).

Mathematik ist alles. Wirklich?

In diesem Augenblick kollabierte der Unterschied zwischen den seinerzeit diskutierten drei Sorten von Versuchen, die Mathematik selbst mit mathematischen Mitteln zu beschreiben, also sozusagen einen Knoten in sie zu drehen, der sie vor dem Zerfall bewahren, der ihre Letztbegründung in ihr selbst finden sollte: dem formalistischen Versuch (Mathematik ist alles, aber auch nur das, was mit mathematischen Zeichen nach mathematischen Verfahrensvorschriften gemacht werden kann), dem logizistischen Versuch (Mathematik ist alles, aber auch nur das, was in der Logik steckt) und dem intuitionistischen Versuch (Mathematik ist alles, aber auch nur das, was wir intuitiv erfassen können müssen, um zu rechnen - Beweise unter Berufung auf unendliche Größen scheiden dann zum Beispiel aus, denn die erfasst niemand intuitiv).

{Kann ich allein in und mit mir, allein im und mit dem Selbst, das Selbst gänzlich erfassen und beschreiben? Jeder Versuch eine Einzelheit im DaSein nur mit den Mitteln, Mássen, Formen, der Struktur und den (Bewegungs- und Entwicklungs-) Möglichkeiten dieser Einzelheit, ohne die Einbeziehung des Umfelds in das Jede Einzelheit eingebettet ist, mit der RaumZeit und den Bedingungen und Grössen des gesamten DaSeins und sogar noch etwas mehr, also ganz schön Viel, scheitert. Muss scheitern, weil ... Sie wissen warum? Das heisst, erst wenn die Mathematik das Umgebende des DaSein zur Begründung und Erklärung einbezieht, also die UnBerechenbarkeit, die ZahlenLosigkeit, die UnVerGleichlichkeit, die UnVerbundenheit, wird die Mathematik auf sicherem Grund aufsetzen. Das gilt für Jede Wissenschaft, wie es für Jede Einzelheit erst ein "klares Bild", eine stimmige Antwort auf die Frage: Was ist ich (Was (Sie + Er = Was) ist das einzelne ich, aber auch das allgemeine Ich?)?, ergibt, wenn das ich, das Ich und das drummherum in die Antwort[en] im richtigen Verhältnis einbezieht. Dauert also noch ein wenig ...}

Mit Staunen (und einem Schock, von dem sich manche bis heute nicht erholt haben) sahen die Verfechter der drei Schulen 1937 bei der Geburt einer vierten zu, der automatischen. War sie die als Apparat verwirklichte Erfüllung des alten Leibnizschen Traums von der lingua characteristica universalis, einer buchstäblichen Sprache der Wahrheit, deren Ausdrücke unabhängig von ihrem Inhalt schon äußerlich verraten, was stimmt und was nicht? Im Gegenteil: Sie war, als zivilisationsveränderndes Nebenprodukt von Turings Berechenbarkeitsforschung, der praktische Todesstoß für jede derartige theoretische Bestrebung.

Deren letzter, größter Vorkämpfer vor Gödels, Churchs und Turings dreifachem Vernichtungsschlag war David Hilbert gewesen, als er zunächst die Frage gestellt hatte, ob es ein eindeutiges Verfahren gibt, mit dem man beliebige diophantische Gleichungen, also bestimmte mathematische Ausdrücke mit gewissen Variablen und angenommenen ganzzahligen oder rationalen Lösungen, in jedem Fall lösen kann. 1928 erweiterte Hilbert die Frage zum sogenannten „Entscheidungsproblem“: Gibt es ein Verfahren, in das man einen beliebigen, in Abhängigkeit von einem System mit ein paar unumstößlichen Axiomen formulierten Satz nur einzuspeisen braucht, damit einem dieses Verfahren dann sagt, ob dieser Satz für alle Strukturen wahr oder falsch ist, die sich in derselben Abhängigkeit von denselben Axiomen jemals formulieren lassen? Church und Turing entschieden das Entscheidungsproblem: Nein, so ein Verfahren kann es nicht geben. Rund ein Menschenalter später, in den siebziger Jahren, wurde dann auch die Hoffnung auf einen Lösungsdetektor für diophantische Gleichungen beerdigt - von einer internationalen Gemeinschaft, zu der unter anderen der russische Mathematiker Juri Matjasewitsch, die amerikanische Mathematikerin Julia Bowman Robinson und ihr auch als Philosoph profilierter Kollege Hilary Putnam gehörten. Alle drei, und wer immer sonst noch half, benutzten dazu Turings begriffliche Vorrichtungen, die heute alle Welt als körperliche kennt, mit denen man sogar telefonieren kann.

Mitschüler hänselten den Rätselhaften

Ein Gerät, das einen Eingabetext lesen, nach Regeln manipulieren und so einen Ausgabetext schreiben kann, eignet sich dazu, alles zu berechnen, was wir überhaupt „berechenbar“ nennen dürfen: Diese Überlegung hatte Turing von einer geistigen, eben der Hilbertschen Fragestellung zu einer maschinellen Lösung geführt. Schon als Schulkind beschäftigte ihn das Übersetzen der Gegenstände scheinbar entgegengesetzter Gesichtskreise ineinander: Experimentell verdampfte er stumpfes Wachs zu raffinierten Farbspielen; aus robusten Regeln leitete er zur Verblüffung seiner Lehrer halsbrecherische Zahlenfolgen ab. Was vor seiner Nase lag, die zuhandene Konkretion, interessierte ihn wenig; mit Nachteilen für die Zensuren wie für die Anpassung - Mitschüler hänselten den Rätselhaften.

Die Frage, was Intelligenz eigentlich sei, musste ihn, der seiner eigenen Intelligenz Räusche wie Einsamkeiten verdankte, dazu verlocken, einen weiteren seiner funkensprühenden Kurzschlüsse zwischen dem Griffigen und dem Erhabenen zu riskieren. 1950 veröffentlichte Turing in der Zeitschrift „Mind“ den Aufsatz „Computing Machinery and Intelligence“, der das Wesen des Denkens nicht mehr im Innenraum der Psychologie, im mentalen Hinterland der Unterscheidung „denkend/materiell“ suchte, sondern an der Schnittstelle dieser beiden. Sein „Turing-Test“, mit dem sich sagen lassen sollte, ob eine Maschine denken kann, lebt - wie etwa auch der recht junge Begriff der „emotionalen Intelligenz“ von Peter Salovey und John Mayer - von Kommunikation: Wenn wir uns mit einem Rechner mit Zeichen-Waffengleichheit unterhalten und dabei nicht mehr erkennen können, dass unser Gegenüber kein Mensch ist, haben wir es mit einem denkenden Rechner zu tun.

Dies als reduktionistisches Modell des Mentalen missverstanden zu haben statt als eines, das die Begriffe öffnet und beweglicher macht, ist die Erbsünde, mit der die modernen Kognitionswissenschaften sich derzeit ins zweite Jahrhundert ihrer Existenz schleppen. Dass das Hirn womöglich „nur“ eine Maschine ist, geht als These auch dann, wenn allerlei aus der Physik oder der Neurobiologie zusammengeklaubte Zusatzannahmen über irgendwelche Unschärfen und evolutionäre Parameter als Girlanden darum herumgehängt werden, an Turings tiefem Respekt vor Maschinen vorbei. Was hielte man von einer Literaturwissenschaft, die den Satz als Entdeckung empfände, Gedichte seien „nur“ aus Wörtern gemacht?

Die Maschinen verstehen

Einwände gegen den Turing-Test als Eichmaß des Denkens verirren sich nach wie vor im alten mentalistischen „Innen“; Entgegnungen darauf aber graben sich allzuoft in vulgär-mechanistischen Feuerstellungen ein. Turing indes suchte seine Antworten weder im Subjekt noch im Apparat, sondern in ihrer beider Beziehung.

Als er im Zweiten Weltkrieg die deutsche Enigma-Codemaschine knackte und Geburtshilfe beim Computer-Prototyp Colossus leistete, beschäftigte ihn ein Theorietyp, der heute als „Bayesianismus“ von der Grundlagenphysik bis zur Finanzwelt seine Anwendungen findet.

Thomas Bayes, nach dem diese Denkweise benannt ist, ein Mathematiker des achtzehnten Jahrhunderts, war, während die französischen Enzyklopädisten sich gerade damit abmühten, die alten metaphysischen Gewissheiten durch neue naturwissenschaftliche zu ersetzen, bereits mit dem beschäftigt, was in der seither zu sich selbst gekommenen Wissenschaft den Popanz Gewissheit ersetzen sollte: Wahrscheinlichkeiten. Ihr Schillern, wie die Farben im Waschdampf, mit denen Turing als Junge spielte, vermittelt zwischen den Extremen 1 und 0, ja und nein.

Können wir diese Vermittlung lernen? Turing wollte wissen, ob Maschinen mit Sinn fürs Abstrakteste verstehen können, wie die Menschengemeinschaft denkt. Sein Erbe fordert, umgekehrt, von der Menschengemeinschaft, wenn sie denn eine Zivilisation bleiben will, die Maschinen zu verstehen, die er möglich gemacht hat.
Das wars.
Schön.

Keine Kommentare:

Kommentar veröffentlichen