Dienstag, 3. Juli 2012

Was verführt die Forschung zur Freiheit?

Nach Wochen der Enthaltsamkeit, bin ich mal wieder in den FAZ-Blogs gewandert und wurde sofort von einer Überschrift, in der Deus ex Machina-Seite angezogen, geradezu elektrisiert: "Ich weiss, dass ich nichts weiss ...".

Zu dem Sokrates-Zitat habe ich übrigens fast einen ganzen Beitrag gestaltet, Sie finden ihn hier: http://verantworten.blogspot.de/2012/01/zitate-09.html
Den gesamten Beitrag von @Sophia Amalie Antoinette Infinitesimalia und die Kommentare finden Sie hier:
http://faz-community.faz.net/blogs/deus/archive/2012/06/30/ich-weiss-dass-ich-nichts-weiss-auf-den-kopf-gestellt.aspx

Titel: „Ich weiß, daß ich nichts weiß" - auf den Kopf gestellt, vom 30. Juni 2012, 09:22 
Der sogenannte Dunning-Kruger-Effekt zeigt, daß Menschen mit zunehmendem Wissen oder Fähigkeiten selbstkritischer werden - und anders herum.

Auszug:
[...]
Man kann sich aber auch fragen, ob intelligente Menschen wirklich bescheidener sind, und mäßig kluge Personen mit besonders ausgeprägtem Selbstbewußtsein gesegnet? Man kann das Problem auch auf andere Bereiche übertragen: kaum jemand hält seinen eigenen Computer für unzureichend gesichert gegen Viren, kaum jemand hält sich selbst für einen schlechten Autofahrer und nur die wenigsten Fastfood-Konsumenten sind sich der subjektiven, negativen Folgen dieser Diät bewußt. Sogar in emotionalen Dingen lügen wir uns die Realität offenbar zurecht: die meisten Menschen halten sich selbst für beliebter als der Durchschnitt, und ihre Beziehung für glücklicher als die Durchschnittsbeziehung.
Studien haben gezeigt, daß Menschen mit geringerem Intelligenzquotienten dazu tendieren, sich dieser Tatsache wenig bewußt zu sein. Vielmehr ordnen sich offenbar die meisten Menschen immer leicht oberhalb des Durchschnitts ein. Logisch unmöglich? Nein, es hängt davon ab, wie man den Durchschnitt definiert. Der gewöhnliche Durchschnitt nämlich kann prinzipiell stark von einigen wenigen Beobachtungen beeinflusst sein, sodaß sich tatsächlich deutlich mehr als 50 % einer Stichrpobe oberhalb des Durchschnitts befinden können - wenn diese vielleicht nur sehr knapp überdurchschnittlich sind, die unterdurchschnittlichen Beobachtungen hingegen sehr weit weg davon (also bezüglich der Intelligenz unendlich beschränkt). Nimmt man hingegen den Median - also jenen Wert, der in der Verteilung genau in der Mitte liegt, so daß per Definition die Hälfte der Beobachtungen darüber, die andere Hälfte darunter liegen muß - so stimmt die oben beschriebene Selbstüberschätzung immer noch - ist aber tatsächlich statistisch unmöglich.

Das Phänomen ist unter diversen Namen und in Ausprägungen bekannt. Mit Bezug auf den Intelligenzquotienten spricht man oft vom Downing-Effekt, generell fällt vieles unter das Schlagwort „illusory superiority" und eine besonders interessante Variante ist der „Dunning-Kruger-Effekt".
[...]
Ende Auszüge.

Und nun die Kommentare:

Oliver-August Lützenich, 01. Juli 2012, 13:34

Mich würde schon interessieren warum Sie einen Artikel über das Verhalten von Homo Sapiens mit Bildern von Pan troglodytes und Pan paniscus (die beiden Schimpansen-Arten) schmücken? Ich finde meine Verwandten wundervoll und schützenswert, aber was haben sie in einem Artikel zu suchen, der von der Fertigkeit zur Selbst-Einschätzung des Menschen handelt? Auf welches Niveau zielen Sie da? Wollen Sie damit aussagen, dass das Mensch als Ganzes, also die Mensch-Selbst-Einschätzung eher auf Pan-Niveau zielt, statt nach "Verbesserung" (meint: Erweiterung der menschlichen Fähigkeiten und Wahrnehmungen, ohne widerum Pan als Verschlechterung zu demütigen!) zu streben? So viele Fragen. Sie könnten kurz zu mir kommen, ich habe vor ein paar Tagen eine kleine Sammlung von Artikeln eingestellt ("Die Grösse des Bewusst-Seins"), die vielleicht zur Erklärung dieses Fehleinschätzungs-Effekts beitragen. Im allgemeinen, bei dem aktuellen Er-Kenntniss- und Entwicklungsstand des Homo Sapiens, finde ich die TrefferQuote und die Genauigkeit hervorragend, welches Pan zielte auch nur annähernd so genau, wie selbst ein ganz und gar unwissendes Mensch: ich bin ganz froh, dass mich der Zufall des DaSein in einen Menschen gesteckt hat, aber gut, auch als Myxomyzet wäre "ich" halbwegs froh, wenigstens lebendig!

darauf @Sophia Amalie Antoinette Infinitesimalia01. Juli 2012, 18:12
Oliver-August Lützenich, die Bebilderung ist nicht meine starke Seite, und ich zögere immer sehr, Menschen zu fotografieren. Affen waren einfach das nächstbeste, das ich bequem realisieren konnte, ganz ohne Hintergedanken.

dazu ein Kommentar von: T.I.M.02. Juli 2012, 02:30
Werte Sophia, danke fuer Ihren wie fast immer sehr interessanten Beitrag. Ich moechte aber doch noch einmal auf den von Ihnen selbst beobachteten Effekt zurueckkehren, dass Frauen offenbar "bescheidener" in der Bewertung ihrer Leistungen sind. Finden die zitierten Studien diesen Effekt auch, also unterschaetzen Frauen tatsaechlich eher ihre Leistungen, oder ist das bloss soziales Gespraechsverhalten ("Licht unter den Scheffel stellen", weil man meint, das gezieme sich so)?

Ein weiterer Aspekt, der die "Bescheidenheit" Ihrer intelligenten Freunde und Freundinnen erklaeren koennte, ist der, dass man gerade, wenn man dahingehend deutlich ueberdurchschnittlich ist und in einem entsprechenden Berufsfeld arbeitet, fast zwangslaeufig mit noch brillianteren Menschen zusammentrifft. Ich selbst habe das Glueck an herausragenden Instituten in Deutschland und den USA wissenschaftlich taetig sein zu duerfen. Auch wenn ich selbst sicherlich nicht dazu neige, meine eigenen Leistungen herunterzureden, so war und ist es mir doch vergoennt, immer wieder Wissenschatler kennenzulernen, deren intellektuelle Faehigkeiten einen nur noch staunen lassen.

Natuerlich treffen auch und gerade dumme Menschen auf wesentlich intelligentere Mitmenschen, aber dies geschieht oft auf der niedrigsten gemeinsamen intellektuellen Ebene (und wenn nicht, wird dem anderen gerne vorgeworfen er sei abgehoben, ein Wichtigtuer oder habe von der "wirklichen Welt" keine Ahnung). Ausserdem ist es psychologisch auch wesentlich einfacher, die inspirierende Begegnung mit aussergewoehnlichen Menschen zu geniessen, wenn man sich selbst zu den Gescheiteren in der Gesellschaft zaehlen kann (was auch immer das fuer Meistern seines Lebens heissen mag), als sich selbst gegenueber zugeben zu muessen, dass man vielen "normalen" Zeitgenossen intellektuell nicht gewachsen ist. Dumm zu sein ist ehrenruehrig.

ein Kommentar von: Vroni02. Juli 2012, 10:40
Über alle Brainies und alle "Dummies" kann man keine pauschale Aussage treffen, wie der Artikel ja auch versucht klarzulegen.
.
Doch der wissenschaftliche Brainie hat wirklich eine Besonderheit: Es definiert sich im wissenschaftlichen Ideal herkömmlich als Zweifler (Descartes). Der methodische Zweifel. Wissenschaftliche Thesen (Thesis) sind demnach dazu dazu da, erst einmal bezweifelt, dann sauber widerlegt zu werden. Daraus erfolgt der akademische Diskurs. Welcher so gewünscht ist, denn er treibt die Entwicklung an. Möglicherweise besteht das Umfeld der Autorin verstärkt aus einem solchen Typus. Weiß ich aber nicht.
.
Kann mir also gut vorstellen, dass intelligente Leute, die aus diesem Bereich kommen, den Zweifel - vor allem den fachlichen - hochhalten. Kann sein, dass sie dann auch ihre eigene Person mit einschließen, weil es ihnen a) ins Blut übergegangen ist. Weil b) als untersuchendes Subjekt das untersuchte Objekt immer mit beeinflussend. Sobald das Objekt untersucht wird, verändert es sich. Durch die Anordnung, aber auch durch den untersuchenden Blick.
.
Übergroße Zweifel an sich selbst jedoch sind mit Sicherheit nicht traditionell wissenschaftlicher Natur. Plus übergroßes, unrealistisches Zutrauen in Geistesgaben, die man gar nicht hat, wie man das als Erklärungmuster mit den intelligenten Zweiflern zusammenbringen kann, hat Thorsten Haupts bereits angesprochen: der Wunsch, nicht allzusehr weder nach oben noch nach unten aus der sozialen Gruppe auszuscheren.
.
Ein weiteres Erklärungsmodell könnte sein: psychisch, neurologisch. Viele hochgescheite Leute haben ein hoch-sensibles Antennensystem, eine fast übergroße Wahrnehmung. Intellegere heißt verstehen, wahrnehmen. Wer über so eines verfügt, registriert alles, eben auch kleinste Unstimmigkeiten bei sich selbst, leise fast unausgesprochene Kritik von den anderen. Daher auch größere Zweifel. Eben auch an sich selbst. Geistiges und Seelisches ist schwer zu trennen.
.
Eine klassiche Führungsnatur wird so jemand eher nicht. Dazu braucht es eine graduelle Stumpfheit (zumindest hochsensibel sollte man nicht sein), Mut zur Lücke, ein fast ungebrochenes Selbstvertrauen und hohes Einsteckvermögen. Oder anders gesagt: Ein wahrer Chef muss ein bisschen "dumm" und "unsensibel" sein. Aber nie sozial dumm.
.
Dass einige Führungsgestalten ein übersteigertes, unechtes Selbstvertrauen haben, welches an Neurotizismus und Größenwahn grenzt, steht auf einem anderen Blatt.
.
Bitte um Nachsicht, dass ich vor allem Erklärungsmodelle (Thesen) von Widersprüchlichkeiten am interessantesten finde. Das ist nicht nur in mir, das ist im Menschen drin. Das menschliche Gehirn versucht immer, zu interpretieren. Scio me nihil scire, scio nescio, oder so ähnlich.

darauf Oliver-August Lützenich, 02. Juli 2012, 12:17

@T.I.M.: Sie Glückliches! Geniessen Sie weiterhin die freiere Sicht nach Vorne, weit da Vorne ruft Ernst Mayr und viele Andere unablässig: Weiter, weiter so, Forscher forscht! Keine Blässe soll eure Sinne trügen, keine Schwere eure Schritte aufhalten, aber vergesst mir nicht die UnWissenden, denn Sie sind das Fleisch, auf dem eure Klugheit ruht, Sie sind das Blut, das eure Neugier versorgt, Sie sind der Boden auf dem eure Weisheit wächst, aber das wissen Sie @T.I.M. ja bereits alles und @Vroni, das mit dem Führen ist in Auflösung begriffen, Wir forschen auch, um die Führung abzuschütteln, Mensch-Sein möchte Führerlos-Sein, Mensch-Sein möchte Selbst sein, wenn auch grosse Bereiche der Menschheit noch Führung brauchen und Führung braucht Gewalt, wie Sie beim Blick in die Aktualität und erst recht in die Vergangenheit bemerken, Selbst sein ist Gewalt-los, die Führung los sein ist also die Gewalt los sein, aber wie Sie auch wissen, ist das verdammt viel Arbeit am Selbst und mit und für die anderen Selbst, um diese Führung (Gewalt) abzustreifen, Liebe ist Führer-los sein, daran erkennen Sie, wie weit Wir noch von der Liebe entfernt sind, aber ich bin schon wieder weit vom Thema abgewichen.

darauf wiederum T.I.M.02. Juli 2012, 17:27

@Oliver-August Luetzenich: Interessante Polemik, obschon mir nicht ganz klar ist, wieso Sie Forschung und "Fuehrerschaft" in einen Topf werfen wollen. (Vielleicht wollen Sie das auch gar nicht; Ihren Gedanken waere aber leichter zu folgen, wenn Sie ab und an mal einen neuen Satz begoennen.)

"Intelligenz" (als Faehigkeit zu abstrahieren und logisch konsistente Folgerungen aufzustellen) ist doch noch lange keine hinreichende Bedingung fuer irgend eine Art von Erfolg, aber von ganz wenigen seltsamen Ausnahmen einmal abgesehen zumindest eine notwendige im Bereich der Wissenschaft. Dann gibt es noch Kreativitaet, Empathie, Ueberzeugungsvermoegen und, gar nicht zu unterschaetzen, Glueck/Zufall.  

Und dann gibt es noch diejenigen, bei denen mehrere dieser Faktoren in Fuelle anzutreffen sind. Alles was ich sagen wollte, ist, dass das Treffen solcher Leute (davon gibt's 1:100 000) durchaus eine gewisse Demut lehren kann - die sich dann vielleicht in der "falschen" Bescheidenheit, die Sophia beobachten konnte, ausdrueckt.

wieder Oliver-August Lützenich, 02. Juli 2012, 22:38

@T.I.M.: F, f, fu.., Fue...., f, falls Sie spürten, ich hätte mit Ihnen einen Scherz gemacht, oder hätte sie sogar nicht Ernst genommen, so füge ich nachträglich meinen obigen Einlassungen ein :-) hinzu, vielleicht habe ich gerade um die Ernsthaftigkeit, ja sogar ein wenig Neid, zu betonen, aus all den hervorragenden Forschern, den Ernst Mayr herausgegriffen? Was die Satzzeichen angeht, seien Sie bitte so frei, und setzen Sie sie dort ein, wo es Ihnen passend erscheint. Das Forschen ist der Unsicherheit geschuldet, das Führen ebenso, vielleicht ist das der Zusammenhang; aber eigentlich habe ich nur zwei Begriffe aus Beiträgen, die mir gefallen haben, herausgegriffen und sie in einen Sinnzusammenhang gestellt.

Ja, Wir forschen auch um die Führung abzustreifen, denn geführt wird von allen Seiten, gedrückt, geschoben, gezogen, angehoben und niedergedrückt, von Innen und von Aussen; welches Selbst ist Unabhängig, welche Einzelheit ("ich") ist in der Weite und Vielfalt des DaSein entscheidend?

Was genau bedeutet und braucht Freiheit? Geht es in der Forschung, in welcher Richtung auch immer, um die Festigung von Abhängigkeiten, um die Einengung von Wahrnehmung, um die Hemmung von Bewegung, um die Verhinderung von Gefühl und Gespür? Nein, oder? Was ist Führung, W-Es braucht Führung? Unwissenheit braucht Führung. Orientierungslosigkeit braucht Führung. Selbst-Losigkeit braucht Führung.

So vermute ich, dass das Forschen auch oder sogar hauptsächlich dem Zweck dient, die Lebendigkeit und darin auch Uns Menschen von der engen Führung der Natur und Unserer Vergangenheit zu entbinden. Forscher forscht, um Befreiung zu erreichen! Und Sie sind, soweit Sie das hier eingebracht haben ein Forsches (mir ist Neutralität beim Geschlecht wichtig), also geht es auch Ihnen darum ein klein wenig Führung abzulehnen. Auch. In welche Richtung auch immer?

Quäntchen für Quäntchen mehr Freiheit von Vorgaben, auch der Natur (Gene, Triebe, Traditionen), Bestimmungen der Herkunft (Region, Religion, Klasse, Familie) und auch den Ansprüchen der Person, die ein Selbst so geworden ist; bis die WEITE klar ist und jedes Selbst die AusRichtung und EinRichtung und die BewegungsRichtung entscheidet und verantwortet, stets im Zusammen-Sein mit den vielen Anderen Selbst. Aber das dauert noch. Bis dahin noch Viele gute Tage;-)
-
Antwort von Sophia Amalie Antoinette Infinitesimalia02. Juli 2012, 22:59

Oliver-August Lützenich, nach meiner Erfahrung forschen Forscher aus reiner Neugier - oftmals ganz ohne Hintergedanken zu Kosten und Nutzen in der Realität. Wissen als Selbstzweck...,
.
... oder wie sehen Sie das, T.I.M.?

Antwort von T.I.M.03. Juli 2012, 02:02
L'art pour l'art, da ist auch in der Wissenschaft etwas dran (zumindest in der Grundlagenforschung) - insofern wuerde ich Ihnen zustimmen, Sophia.
.
Ganz abweisen wuerde ich OA Luetzenichs Auslegung dennoch nicht. Wohl ist es (von einigen Ausnahmen wie z.B. Evolutionslehre einmal abgesehen ... da waeren wir wieder bei Mayr) zwar nicht der einzelne Forschungsgegenstand, der den Blick auf das Weite erlaubt, aber die gewonnene Zuversicht in den eigenen Verstand wirkt doch sehr befreiend. Aber das ist vermutlich ein Henne-Ei-Problem. Fuehrt Wissenschaft zur Freiheit oder draengen freie Geister in die Wissenschaft? (Mal davon abgesehen, dass mir zu beiden Thesen spontan einige Gegenbeispiele einfielen... aber das heisst ja nichts)

Ende der "Briefchen" im FAZ-Blog.
.
Kasimir Malewitsch, "Suprematistische Komposition I"
.
Sollte ich @T.I.M. fragen, was für Gegenbeispiele das sind?
Ja klar, gibt es auch Forsches die an Einengungs- und Freiheitsver- und -behinderungs-Möglichkeiten forschen; und auch in jedem Bemühen die Freiheit zu erweitern steckt im Ergebnis auch die Möglichkeit, die Er-Kenntnis zur Einengung und sogar Freiheits-Beraubung einzusetzen, aber ...
Die gesamte Vergangenheit zeigt mir und beweist mir auch, dass jede neue Erkenntnis, selbst die besserer Folterwerkzeuge und Waffen, zu einem mehr an Befreiung und einem mehr an Einsicht und Klarheit im DaSein geführt hat.

"Ge-führt"? Überall steckt die Führung drinn. Die Frage ist also: Wohin führt Uns, die gesamte irdische Lebendigkeit, das DaSein? Möchte Uns das DaSein zur Freiheit von irgendwelchen vorgegebenen Spuren / Schienen (Richtungen, Zielen) und von noch notwendigen Begrenzungen führen?

Ja, Oliver-August Lützenich bin da gewiss, dass in der Entwicklung von ... bis Heute zu erspüren.

Was das Forschen (oder auch die Kunst tun) um des Forschens (um der Kunst) willen angeht, also das im Kreis drehen, oder auch das vermeintliche Tun ohne vorgegebenen, ohne äusseren Anschub oder gar Kontakt ...

Die Leses dieser Blogs wissen, dass ich von den Leibnizschen Monaden nichts halte. Wir sind HOCH-soziale Lebewesen und in Uns steckt und wirkt noch sooo VIEL von dem Wir nur wenig oder gar keine Ahnung haben.
Also zum Beispiel die Antwort auf die Frage: Woher kommen Wir?, und: Was hat Uns in Bewegung gesetzt?, und: Wohin?
Wenn ein-Es behauptet, -Es tue etwas nur um seines-Selbst willen, ohne irgendwelche anderen, gar Äusseren, gesellschaftlichen Gründe, oder wegen der persönlichen Vergangenheit, dann wissen Sie und weiss ich, dass dasjenig-Es nicht Nichts weiss, aber doch ziemlich wenig von den persönlichen Beweggründen; oder diese sogar verdrängt, ablehnt.

Das Kind, das spielt, tut das um seines-Selbst willen, aber es tut es, aus einem inneren Antrieb heraus und dieser Antrieb steckt in den Genen des Kindes, wie jed-Es von Uns es täglich in allen kleinen Lebewesen beobachten kann, das Spielen ist also ein Vorgang des Selbst-Lernens, der aber von der Vergangenheit, von der Herkunft, von der Erfahrung der jeweiligen Spezies verlangt wird und nicht einfach so aus Jux und Dollerei (NUR! seines Selbst willens) des Einzelnes passiert.

Eine Frage, die ich in anderem Zusammenhang schon gestellt habe: Was tut Mensch nur aus und als Mensch?
Was tun Wir nur und wirklich ganz und gar, die ganze restliche Natur, also auch die Mit-Lebewesen völlig ausschliessend, nur aus menschlichem Wunsch und Begehr[en] heraus? Meine Antwort lautet bis Heute: Nichts.
Zumindest fast Nichts.

L'art pour l'art, ist eine seltsame Selbst-Vergessenheit und Selbst-Unwissenheit von den Zusammenhängen und starken Verbindungen, in die wir Alle eingebunden sind.
In der SprechLichtung habe ich dazu die Beiträge: "Nimm Zwei ...", "WeltenRettung" und "Die Grösse des Bewusst-Seins" eingestellt.

Mensch mag "glauben", dass -Es nur so, wegen einer schönen Nacht, einem schönen Akt wegen, gezeugt wurde, aus Liebe oder auch aus Lust, auch wegen einer Vergewaltigung (Sorry, aber auch das kommt oft genug vor), und das wars dann auch, und jetzt könne -Es machen, was -Es wolle; allein, es ist ein Glaube, das Wissen kommt dabei noch stets zu kurz. Finde Oliver-August Lützenich.

Und zu glauben, das sei Alles gewesen, nur so ein schneller oder auch langsamer zärtlicher Akt, oder auch gewalttätiger Akt, ist viel zu kurz gedacht und geglaubt.
Auch in jedem menschlichen Lebewesen stecken mindestens 14,8 Milliarden Jahre der Entwicklung des DaSein. Und die haben den Menschen als Lebewesen erst möglich gemacht und wirken somit auch in jedes Einzeln-Es.
Der Storch war vorgestern, Heute ist die synthetische Biologie (einen Beitrag dazu finden Sie auch hier im Blog: "Die Synthese der Biologie", im Monat Mai 2012), die Nanotechnologie, die AstroBiologie und die QuantenPhysik  und ...

Weiter gehts in dem Beitrag: "Die Natürlichkeit der Existenz und Myxomyceten".

Sonntag, 1. Juli 2012

Zu Alan Turing, von Dietmar Dath

Ich bin ein Liebender der Wissenschaften. Ich bin dem Wissen sehr zugeneigt. Warum? Vielleicht, weil ich so leer bin? Voll von Gefühl, aber wenig Sicherheit und wenig Aussicht. Das Wissen verspricht da AbHilfe und hält sie bis Heute auch ein. Ich fülle in-m ich ein. Ich nehme nicht so sehr auf, wie ich einnehme, was so an Neuem erarbeitet, erschaffen und vor allem erspürt worden ist, also wahrgenommen, von allen Sensoren der Lebendigkeit: ertastet, erschmeckt, errochen, ersehen und erhört worden ist und, um ein wichtiges Teil nicht zu vergessen, was auch erahnt worden ist, von den vielen menschlichen Forsches und auch ganz winzigst und bescheiden von mir. Das Folgende ist von einem weiteren Liebenden des Wissens. Es ist eine schöne Entdeckung und hat mich deshalb sehr erfreut, ich möchte es noch öfter lesen und stelle es deshalb hier ein, vielleicht ist es auch für das Eine oder Andere von Ihnen interessant: Viel Freude beim Lesen.
Wie stets, habe ich ein paar {persönliche Anmerkungen} einfliessen lassen.
.
Alan Turing
.

Aus der Frankfurter Allgemeine Zeitung, vom 23.06.2012.
Titel: Ausgerechnet: Die Grenzen der Wahrheit. Alan Turing, Denkgenie.
Untertitel:  Geboren wurde der britische Logiker und Mathematiker Alan Turing am 23. Juni 1912. Das abstrakte Prinzip des Computers und ein neuer Begriff von Intelligenz sind zwei der Schätze, die sein Erbe birgt.
Von Dietmar Dath

Noch in seinen letzten Wochen war Turing, den die gesetzliche Festschreibung einer krude, eng und grausam bestimmten biologischen Norm um Glück und Gesundheit brachte, damit beschäftigt, die Vielfalt des Biologischen besser zu verstehen. Gerade erst traten die Lebenswissenschaften aus dem beschreibenden ins exakte Stadium, und Turing half an der Universität von Manchester seit 1949 dabei mit. 1952, zwei Jahre vor seinem Tod und im Jahr des Beginns seiner Drangsalierung durch den britischen Staat, skizzierte er in seinem Aufsatz „The Chemical Basis of Morphogenesis“ eine Theorie über Instabilitäten in homogenen chemischen Medien, formgebende Wellenmuster und andere neue Einfälle, die zusammen die Umrisse ganzer Großbezirke heutiger Forschung, von den Nichtgleichgewichts-Phasenübergängen der Synergetik bis zur bioinformatischen Enträtselung der Genetik und Proteomik ahnen ließen.

Um ein abtötendes Reduzieren des Formenreichtums der lebendigen Welt, um normierende Vereindeutigung, ging es bei der Sorte Wissenschaft, für die Turing gelebt hat, keinen Augenblick. Die Grenzen reduktionistischer Zugriffsweisen auf Welt, Leben und Denken abgesteckt zu haben gehört vielmehr zu seinen Hauptverdiensten. Wie Kurt Gödel vor ihm gezeigt hatte, dass es niemals ein formallogisches System geben kann, das zugleich vollständig und widerspruchsfrei ist, fand Turing heraus, dass es notwendig Zahlen gibt, die sich nicht berechnen lassen. Seine Funde wiesen Nachfolgern wie Gregory Chaitin, dem Erfinder der algorithmischen Informationstheorie, den Weg. Chaitin konnte zeigen, dass es selbst tief in der Arithmetik, dem gewöhnlichen Zahlenrechnen mit zehn Fingern, Bleistift und Papier oder Kieselsteinen, irreduzible mathematische Information, also Zufälliges, auf keinen Determinismus zu Zwingendes gibt und dass man nie beweisen kann, dass ein Programm, das aus einer bestimmten Eingabe ein bestimmtes Resultat macht, notwendig das eleganteste, also kürzeste Programm für ebendiese Aufgabe ist.

Quasiphilosophische Überreaktionen

Egal, was du weißt, es bleibt ein Rest, den du ebendeshalb nicht wissen kannst. Rund zweihundert Jahre vergingen zwischen D’Alemberts Vorwort zur „Enzyklopädie“, dem großen Buch der Aufklärung, das dem großen Buch der christlichen Religion die Grenzen seines Gewissheitsanspruchs setzen sollte, und Turings epochalem Aufsatz „On Computable Numbers With an Application to the Entscheidungsproblem“ (1936). Die wertvollste Lektion, die der Menschheit in diesen zweihundert Jahren zugestoßen ist, lautet: Gewissheit ist unwissenschaftlich.

{Einspruch. Die Ungewissheit darf nur der Firnis auf der Gewissheit sein, denn alles DaSein baut auf Gewissheit auf: Etwas ist. Das ist gewiss. Wer aber NUR die Gewissheit sucht und will, wird kein Forscher, das ist auch klar, Forschen ist reiten auf der Firnis der Vergangenheit, Wissenschaft ist "Schaumschlägerei" auf den Blasen der Gewissheit, ich finde, soviel Genauigkeit ist wichtig, aber weiter ...}

Koryphäen der Wissenschaftstheorie des zwanzigsten Jahrhunderts wie Karl Popper, Imre Lakatos, Paul Feyerabend und einige besonders radikale Konstruktivisten zeigten sich von der bis zu dieser Einsicht zurückgelegten Lerngeschichte dermaßen beeindruckt, dass sie sich bei allen sonstigen Differenzen untereinander mit manchen Formulierungen gefährlich nah an einer törichten Idee entlangbewegten: „Wenn Gewissheit unwissenschaftlich ist, dann ist Ungewissheit wissenschaftlich.“ Dieses Fieber wird wohl im 21.Jahrhundert vorübergehen wie einige Exzesse der bürgerlichen, aber auch der forciert antibürgerlichen Wissenssoziologie des letzten Jahrhunderts, die den negativen Abdruck alter metaphysischer Gewissheitssehnsüchte als maßlosen Relativismus kultivierten.

Weil derlei Überreaktionen der quasiphilosophischen Schriftstellerei auf einen neuen Stand menschlicher Erfahrung zumindest kurzfristig erhebliche Verwirrung stiften, hängt das Fortschreiten über sie hinaus entscheidend davon ab, ob Köpfe mit Sinn fürs Abstrakteste die nötige definitorische Kleinarbeit leisten, aus der sich erst das scharf aufgelöste Bild des Neuen schälen kann. Das Doppeljahr 1936 und 1937 erlebte solch ein Fortschreiten mit zwei fast gleichzeitigen Schritten: Der Amerikaner Alonzo Church benutzte das Instrumentarium der sogenannten rekursiven Funktionen - mathematische Gegenstände aus Variablen, Konstanten und Pforten der Selbstreferentialität von Informationsverarbeitungsprozessen - zur präzisen Bestimmung dessen, was wir mit „Berechenbarkeit“ überhaupt meinen. Alan Turing wiederum fand ein geniales anschauliches Bild, das dieser Bestimmung als ihr physisches Modell äquivalent war (und sich daher bauen ließ - als Apparat, den wir heute Computer nennen).

Mathematik ist alles. Wirklich?

In diesem Augenblick kollabierte der Unterschied zwischen den seinerzeit diskutierten drei Sorten von Versuchen, die Mathematik selbst mit mathematischen Mitteln zu beschreiben, also sozusagen einen Knoten in sie zu drehen, der sie vor dem Zerfall bewahren, der ihre Letztbegründung in ihr selbst finden sollte: dem formalistischen Versuch (Mathematik ist alles, aber auch nur das, was mit mathematischen Zeichen nach mathematischen Verfahrensvorschriften gemacht werden kann), dem logizistischen Versuch (Mathematik ist alles, aber auch nur das, was in der Logik steckt) und dem intuitionistischen Versuch (Mathematik ist alles, aber auch nur das, was wir intuitiv erfassen können müssen, um zu rechnen - Beweise unter Berufung auf unendliche Größen scheiden dann zum Beispiel aus, denn die erfasst niemand intuitiv).

{Kann ich allein in und mit mir, allein im und mit dem Selbst, das Selbst gänzlich erfassen und beschreiben? Jeder Versuch eine Einzelheit im DaSein nur mit den Mitteln, Mássen, Formen, der Struktur und den (Bewegungs- und Entwicklungs-) Möglichkeiten dieser Einzelheit, ohne die Einbeziehung des Umfelds in das Jede Einzelheit eingebettet ist, mit der RaumZeit und den Bedingungen und Grössen des gesamten DaSeins und sogar noch etwas mehr, also ganz schön Viel, scheitert. Muss scheitern, weil ... Sie wissen warum? Das heisst, erst wenn die Mathematik das Umgebende des DaSein zur Begründung und Erklärung einbezieht, also die UnBerechenbarkeit, die ZahlenLosigkeit, die UnVerGleichlichkeit, die UnVerbundenheit, wird die Mathematik auf sicherem Grund aufsetzen. Das gilt für Jede Wissenschaft, wie es für Jede Einzelheit erst ein "klares Bild", eine stimmige Antwort auf die Frage: Was ist ich (Was (Sie + Er = Was) ist das einzelne ich, aber auch das allgemeine Ich?)?, ergibt, wenn das ich, das Ich und das drummherum in die Antwort[en] im richtigen Verhältnis einbezieht. Dauert also noch ein wenig ...}

Mit Staunen (und einem Schock, von dem sich manche bis heute nicht erholt haben) sahen die Verfechter der drei Schulen 1937 bei der Geburt einer vierten zu, der automatischen. War sie die als Apparat verwirklichte Erfüllung des alten Leibnizschen Traums von der lingua characteristica universalis, einer buchstäblichen Sprache der Wahrheit, deren Ausdrücke unabhängig von ihrem Inhalt schon äußerlich verraten, was stimmt und was nicht? Im Gegenteil: Sie war, als zivilisationsveränderndes Nebenprodukt von Turings Berechenbarkeitsforschung, der praktische Todesstoß für jede derartige theoretische Bestrebung.

Deren letzter, größter Vorkämpfer vor Gödels, Churchs und Turings dreifachem Vernichtungsschlag war David Hilbert gewesen, als er zunächst die Frage gestellt hatte, ob es ein eindeutiges Verfahren gibt, mit dem man beliebige diophantische Gleichungen, also bestimmte mathematische Ausdrücke mit gewissen Variablen und angenommenen ganzzahligen oder rationalen Lösungen, in jedem Fall lösen kann. 1928 erweiterte Hilbert die Frage zum sogenannten „Entscheidungsproblem“: Gibt es ein Verfahren, in das man einen beliebigen, in Abhängigkeit von einem System mit ein paar unumstößlichen Axiomen formulierten Satz nur einzuspeisen braucht, damit einem dieses Verfahren dann sagt, ob dieser Satz für alle Strukturen wahr oder falsch ist, die sich in derselben Abhängigkeit von denselben Axiomen jemals formulieren lassen? Church und Turing entschieden das Entscheidungsproblem: Nein, so ein Verfahren kann es nicht geben. Rund ein Menschenalter später, in den siebziger Jahren, wurde dann auch die Hoffnung auf einen Lösungsdetektor für diophantische Gleichungen beerdigt - von einer internationalen Gemeinschaft, zu der unter anderen der russische Mathematiker Juri Matjasewitsch, die amerikanische Mathematikerin Julia Bowman Robinson und ihr auch als Philosoph profilierter Kollege Hilary Putnam gehörten. Alle drei, und wer immer sonst noch half, benutzten dazu Turings begriffliche Vorrichtungen, die heute alle Welt als körperliche kennt, mit denen man sogar telefonieren kann.

Mitschüler hänselten den Rätselhaften

Ein Gerät, das einen Eingabetext lesen, nach Regeln manipulieren und so einen Ausgabetext schreiben kann, eignet sich dazu, alles zu berechnen, was wir überhaupt „berechenbar“ nennen dürfen: Diese Überlegung hatte Turing von einer geistigen, eben der Hilbertschen Fragestellung zu einer maschinellen Lösung geführt. Schon als Schulkind beschäftigte ihn das Übersetzen der Gegenstände scheinbar entgegengesetzter Gesichtskreise ineinander: Experimentell verdampfte er stumpfes Wachs zu raffinierten Farbspielen; aus robusten Regeln leitete er zur Verblüffung seiner Lehrer halsbrecherische Zahlenfolgen ab. Was vor seiner Nase lag, die zuhandene Konkretion, interessierte ihn wenig; mit Nachteilen für die Zensuren wie für die Anpassung - Mitschüler hänselten den Rätselhaften.

Die Frage, was Intelligenz eigentlich sei, musste ihn, der seiner eigenen Intelligenz Räusche wie Einsamkeiten verdankte, dazu verlocken, einen weiteren seiner funkensprühenden Kurzschlüsse zwischen dem Griffigen und dem Erhabenen zu riskieren. 1950 veröffentlichte Turing in der Zeitschrift „Mind“ den Aufsatz „Computing Machinery and Intelligence“, der das Wesen des Denkens nicht mehr im Innenraum der Psychologie, im mentalen Hinterland der Unterscheidung „denkend/materiell“ suchte, sondern an der Schnittstelle dieser beiden. Sein „Turing-Test“, mit dem sich sagen lassen sollte, ob eine Maschine denken kann, lebt - wie etwa auch der recht junge Begriff der „emotionalen Intelligenz“ von Peter Salovey und John Mayer - von Kommunikation: Wenn wir uns mit einem Rechner mit Zeichen-Waffengleichheit unterhalten und dabei nicht mehr erkennen können, dass unser Gegenüber kein Mensch ist, haben wir es mit einem denkenden Rechner zu tun.

Dies als reduktionistisches Modell des Mentalen missverstanden zu haben statt als eines, das die Begriffe öffnet und beweglicher macht, ist die Erbsünde, mit der die modernen Kognitionswissenschaften sich derzeit ins zweite Jahrhundert ihrer Existenz schleppen. Dass das Hirn womöglich „nur“ eine Maschine ist, geht als These auch dann, wenn allerlei aus der Physik oder der Neurobiologie zusammengeklaubte Zusatzannahmen über irgendwelche Unschärfen und evolutionäre Parameter als Girlanden darum herumgehängt werden, an Turings tiefem Respekt vor Maschinen vorbei. Was hielte man von einer Literaturwissenschaft, die den Satz als Entdeckung empfände, Gedichte seien „nur“ aus Wörtern gemacht?

Die Maschinen verstehen

Einwände gegen den Turing-Test als Eichmaß des Denkens verirren sich nach wie vor im alten mentalistischen „Innen“; Entgegnungen darauf aber graben sich allzuoft in vulgär-mechanistischen Feuerstellungen ein. Turing indes suchte seine Antworten weder im Subjekt noch im Apparat, sondern in ihrer beider Beziehung.

Als er im Zweiten Weltkrieg die deutsche Enigma-Codemaschine knackte und Geburtshilfe beim Computer-Prototyp Colossus leistete, beschäftigte ihn ein Theorietyp, der heute als „Bayesianismus“ von der Grundlagenphysik bis zur Finanzwelt seine Anwendungen findet.

Thomas Bayes, nach dem diese Denkweise benannt ist, ein Mathematiker des achtzehnten Jahrhunderts, war, während die französischen Enzyklopädisten sich gerade damit abmühten, die alten metaphysischen Gewissheiten durch neue naturwissenschaftliche zu ersetzen, bereits mit dem beschäftigt, was in der seither zu sich selbst gekommenen Wissenschaft den Popanz Gewissheit ersetzen sollte: Wahrscheinlichkeiten. Ihr Schillern, wie die Farben im Waschdampf, mit denen Turing als Junge spielte, vermittelt zwischen den Extremen 1 und 0, ja und nein.

Können wir diese Vermittlung lernen? Turing wollte wissen, ob Maschinen mit Sinn fürs Abstrakteste verstehen können, wie die Menschengemeinschaft denkt. Sein Erbe fordert, umgekehrt, von der Menschengemeinschaft, wenn sie denn eine Zivilisation bleiben will, die Maschinen zu verstehen, die er möglich gemacht hat.
Das wars.
Schön.