Der Workshop zur »Theorie und Begriffsgeschichte des Modells« fand am 3. und 4. September 2015 im Zentrum für Literatur- und Kulturforschung (ZfL) in Berlin statt und hatte den interdisziplinären Austausch über Modell-Begriffe und die Praxis des Modellierens zum Gegenstand. Der Ablauf des Programms war um drei Themenschwerpunkte zentriert: »Mathematische Modellbildung komplexer Systeme« (1), »Modell und (dynamische/lebendige) Form« (2) und »Modell – Zeit – Zukunfts-/Nichtwissen« (3). Organisiert wurde der Workshop von Eva Geulen, Eva Axer und Alexandra Heimes (SPP-Projekt: Zeit und Form im Wandel. Goethes Morphologie und ihr Nachleben in der Theoriebildung des 20. Jahrhunderts) gemeinsam mit Andreas Langenohl und Sebastian Giacovelli (SPP-Projekt: Temporalitäten der Ökonomik. Die Modellform ökonomischer Theorie).
Einsetzend mit dem späten 18. Jahrhundert, deckte der Workshop in historischer Perspektive verschiedene Phasen der Mathematisierung in unterschiedlichen Wissenschaften ab sowie die Einführung computerbasierter Modelle und Simulationen im 20. Jahrhundert. Vor dem thematischen Hintergrund des SPP galt ein besonderes Interesse der zeitlichen Dimension von Modellen. Die Frage, wie Zeit in Modellen konzeptionalisiert und zur Darstellung gebracht wird und welche Eigenzeiten das Modell hervorbringt, unterschied sich je nach Disziplin oder thematischem Kontext. Aber es zeigte sich auch, dass Zeit für alle Modellbildungen ein Grundproblem darstellt. Das darf als exemplarisch für den hier versuchten Umgang mit Interdisziplinarität gelten: Obwohl jede Disziplin ihre eigenen Modelle und entsprechende Verfahren hat, erschloss sich im Aspekt der Zeit ein gemeinsamer Horizont.
Im Zeichen des ersten Blocks zur »Mathematisierung komplexer Systeme« eröffnete der Mathematik- und Wissenschaftshistoriker Moritz Epple (Goethe-Universität Frankfurt a.M.) die Tagung mit einem panoramatischen Vortrag zur »Geschichte abstrakter Repräsentationen in den Naturwissenschaften des 19. Jahrhunderts«. Wie Epple zeigte, war der Begriff »Modell« in der Physik und Mathematik dieser Zeit gegenständlich definiert; ein generalisierter, theoretischer Modellbegriff existierte noch nicht. Stattdessen kursierten verschiedene Varianten von und verschiedene Begriffe für abstrakte Repräsentation, so etwa »Analogien« (W. Thompson, J. Maxwell, H. v. Helmholtz), »Interpretationen« (E. Beltrami) oder »Bilder« (H. Hertz). Diese Ansätze erläuterte Epple mit Blick auf die jeweilige »epistemische Situation« ihrer Herausbildung. Besondere Aufmerksamkeit galt hier der nicht-euklidischen Geometrie: Gegenläufig zur Auffassung, dass diese gleichbedeutend mit einem allgemeinen Wandel hin zum Denken in mathematischen Modellen sei, verwies Epple auf die »allmählichen, verteilten Anfänge« dieser Entwicklung. Erst im 20. Jahrhundert habe sich ein theoretischer Modellbegriff durchgesetzt, möglicherweise initiiert durch die mathematische Ökonomie.
Manuel Scholz-Wäckerle (Wirtschaftsuniversität Wien) schloss mit einer Präsentation über die »Ökonomische Modellierung und Simulation komplexer adaptiver Systeme« an. Im Zentrum stand die auf J.A. Schumpeter und T. Veblen zurückgehende »Evolutionäre Ökonomik«, deren dynamisches Zeit- und Entwicklungskonzept Scholz-Wäckerle vor der Kontrastfolie der neoklassischen Ökonomik erläuterte. Deutlich wurde der enge Zusammenhang der Evolutionären Ökonomik mit einem biologischen Verständnis von Entwicklung und Komplexität. In einem zweiten Schritt stellte Scholz-Wäckerle dar, wie die so gewonnenen Begriffe einer »organized complexity« und der Adaptivität ihrerseits in computersimulierte Modell-Szenarien übersetzt werden können, die mit heterogenen Akteuren operieren.
Über »Formelideale – Die aisthesis mathematischer Formeln in der Mathematik, der Ökonomik und der Ökonomie« sprach im Anschluss Sebastian Giacovelli (Universität Gießen). Sein Ausgangspunkt war das Spannungsverhältnis zwischen Formelidealen in der reinen Mathematik und solchen in der mathematisierten Ökonomik und der Ökonomie. Während die ersteren von Umweltreferenzen und praktischen Zwecken vollständig abstrahieren, sind die ökonomischen Formelideale zwar an der Mathematik ausgerichtet, aber zugleich auch theorie- und anwendungsbezogen orientiert. Giacovelli präzisierte das Konzept des Formelideals im Hinblick auf seine aisthetischen Eigenschaften und sein Potenzial zur Beobachtung des durch die jeweiligen Formelkonzepte generierten Sinnüberschusses. Die jeweiligen Formeln ermöglichen »Beobachtungseffekte durch Sinnüberschüsse«, die in der Wahrnehmung formaler Muster erzeugt werden. In diesem Potenzial zeige sich Giacovelli zufolge die reine Mathematik in dem Sinne als überlegen, insofern der Außenbezug der ökonomischen Formelideale keinen Zuwachs an Problemlösungsmöglichkeiten, sondern deren logische Einschränkung bewirke.
Andreas Langenohl (Universität Gießen) stellte fünf »Thesen zur Rolle algebraischer Modelllogik bei der Konstitution der Neoklassik« vor. Der ersten These zufolge sind es die algebraischen Modelle, die der neoklassischen Ökonomik die Position einer ›exakten‹ Wissenschaft sichern. Damit einher gehen bestimmte Vorgaben, ökonomische Realität abzubilden. Wesentlich wirke sich hier die »Binnenreferenzialität des Modells« aus, die – so die zweite These – aus der Modelllogik selbst resultiere. Sie baue, nach Luhmann’scher Terminologie, eine innersystemische Komplexität und damit Regeln auf, die die Kontingenzen der Umwelt bearbeiten. Aus diesem Befund erwuchs seine These zur Werttheorie: Die Neoklassik verbanne die Frage nach dem Ursprung der Werte in die »Kontingenz der Systemumwelt«, auf die sie mit dem Aufbau von Binnenkomplexität reagiere. Langenohl schloss mit zwei Überlegungen zur zeitlichen Dimension des Modells. Er hielt fest, dass die mechanistisch-reversible Zeit jener Modelle maßgeblich auf die algebraische Formalisierung selbst zurückzuführen sei. Sie leiste einer synchronistischen Betrachtung Vorschub und so letztlich einer »vollkommenen Indifferenz gegenüber historischer Zeit«.
Der Vortrag »Mathematische Modellbildung und musikalische Form – Zur Genese eines neuen Musik- und Zeitwissens im 19. Jahrhundert« von Bettina Schlüter (Universität Bonn) leitete über zum zweiten Themenschwerpunkt »Modell und (dynamische/lebendige) Form«. Ausgehend von Helmholtz’ Experimenten zum Schall zeigte Schlüter, wie Physiologie, musikalische Ästhetik und Mathematik ab Mitte des 19. Jahrhunderts ineinandergreifen und das Verhältnis von Form und Zeit in der Musik neu justieren. Akustische Wahrnehmung lasse sich nun als ein »Wechselspiel« zwischen analytischen (formbezogenen) und synthetischen (zeitbezogenen) Operationen beschreiben, die physiologisch untersucht und mathematisch modellierbar werden. Gleich in mehrfacher Hinsicht, so Schlüter, kommt der mathematischen Modellbildung hier eine entscheidende Rolle zu. Dazu zählt die prägnante Korrelierung von Phänomenen und Wissensgebieten, die nach dem Prinzip einer mehrfachen Übertragung verfährt – so etwa, wenn akustische Phänomene zuerst als Differenzialgleichungen dargestellt und diese wiederum als Kurven in Koordinatensystemen visualisiert werden.
Es folgten drei Kurzvorträge aus dem SPP-Projekt »Zeit und Form im Wandel. Goethes Morphologie und ihr Nachleben in der Theoriebildung des 20. Jahrhunderts«. Eva Axer zeigte anhand von J.W. Goethes osteologischem Typus und D’Arcy W. Thompsons Koordinatentransformationen, dass das Problem der Transformation für den Form-Begriff der Morphologie von zentraler Bedeutung ist. Thompson versuche zentrale Probleme der Biologie als Probleme der Form zu erfassen und zugleich dem Anspruch auf eine exakte Wissenschaft gerecht zu werden. Das wichtigste Medium der Übersetzung der Form in die Sprache der Mathematik, d.h. in mathematische Formeln und Funktionen, sei für Thompson das Koordinatensystem. Einerseits eröffne dies die Möglichkeit Übergänge mathematisch zu erfassen, andererseits hätten diese Modelle auch eine anschauliche Seite und könnten somit Evidenzeffekte zeitigen.
Das Prinzip der morphologischen »Reihenbildung« als Typus einer Modellbildung thematisierte Eva Geulens Beitrag. Seit Goethes Reihen, so Geulen, gehorchten diese zwar dem Kriterium einer inneren Stimmigkeit und Folgerichtigkeit, sie blieben aber konstitutiv unabgeschlossen und vorläufig. Es handele sich um eine offene Anordnung von Gegenständen, die geläufige historische Narrative und disziplinäre Zuständigkeiten unterläuft. Eine exemplarische Reihe führte Geulen mit O. Spengler, A. Jolles und G. Kubler vor Augen. Obgleich diese Positionen zunächst divers erschienen, eröffnete die Reihung doch eine neue Perspektive und lege je andere Akzente und Pointierungen frei. So stellte sich die Frage, ob man die verschiedenen Reihentypen ihrerseits in neue Anordnungen bringen kann, etwa nach dem Kriterium abgeschlossen vs. unabgeschlossen. Autoren wie Spengler, Jolles oder Kubler spekulierten mit dem Ausgriff auf noch unbekannte Zukunft, während Goethe oder D’Arcy Thompson davon absähen.
Abschließend ging Alexandra Heimes auf den Terminus des »gegenständlichen Denkens« bei Goethe ein. Diesem Denken sei ein entwerfender und hervorbringender Charakter eigen und insofern eine Nähe zur modellhaften Konstruktion, was Heimes am Beispiel der Architektur genauer ausführte. Das Interesse galt hier den jüngeren, computerbasierten Entwurfstechniken, die sich eher als Modellierung dynamischer Systeme begreifen denn als Vorgriff auf gebaute Räume. Eine Affinität zur Morphologie bestehe nicht allein darin, dass Formen als verzeitlicht konzipiert werden. Sie sei gerade dort auszumachen, wo solche Prozesse der Formgenese sich von ›organischen‹ oder biomorphen Auffassungen explizit ablösen.
Manfred Drack (Universität Tübingen) stellte »Bertalanffys mathematisches Wachstumsmodell von Tieren und dessen Bezug zur dynamischen Morphologie« vor. Der Biologe Ludwig von Bertalanffy vertrat, wie Drack darlegte, eine dynamische Auffassung von organischer Form, die er mit Hilfe quantitativer Analysen erfassen wollte. Ähnlich wie D’Arcy Thompson stellte er seine mathematisierte Biologie gleichwohl ostentativ in die Tradition Goethes. Er grenzte sich damit von mechanistischen Ansätzen ab, was Drack anhand des Prinzips der Äquifinalität (Prinzip der Erhaltung im dynamischen Gleichgewicht) vertiefte. Da Bertalanffy dieses Prinzip quantitativ nachweisen konnte, ging er auch zu den Vitalisten auf Distanz. Die Äquifinalität wurde zu einem wesentlichen Merkmal von Bertalanffys Modell des ›offenen Systems‹ in seiner späteren Allgemeinen Systemtheorie, mit der er sich jenseits der Alternative von Vitalismus und Mechanismus positionierte.
Am zweiten Tag des Workshops wurde der Themenschwerpunkt »Modell und (dynamische/lebendige) Form« fortgesetzt. Michael Bies (Universität Hannover) befasste sich mit »Struktur, Modell und Kunst bei Claude Lévi-Strauss«. Wie hoch der Stellenwert des Modells in diesem Zusammenhang zu veranschlagen ist, zeigte Bies anhand der engen Verklammerung von Modell- und Strukturbegriff bei Lévi-Strauss. Bies fuhr fort mit Lévi-Strauss’ Unterscheidung zwischen ›mechanischen‹ und ›statistischen‹ Modellen, die mit je verschiedenen Zeitkonzepten einhergehen – einer umkehrbaren, nicht-kumulativen Zeit bzw. einer nicht-umkehrbaren, gerichteten Zeit. Diese Einteilung werde jedoch für Lévi-Strauss zu einem »methodischen Dilemma«: Weder lassen sich beide Modelltypen vereinbaren, noch sind sie je einzeln der ethnologischen Forschung angemessen. Eine andere Herangehensweise stelle das ›modèle réduit‹ dar, das Lévi-Strauss der Kunst zuordnet. Ergiebig sei dieses Konzept, so Bies, weniger im Hinblick auf die letztere, als vor allem durch das »Programm einer sich im Sinnlichen vollziehenden Erkenntnis«.
Von der Theorie und Praxis zeitgenössischer Architektur handelte Carolin Höflers (Fachhochschule Köln) Vortrag über »Reaktive Modelle. Möglichkeitsformen im Computational Design«. Höfler beschrieb die unberechenbare Eigendynamik solcher Modelle, der dadurch zu begegnen sei, dass Modelle sich stets auch selbst enthalten sollten. Die Bedeutung digitaler Technologien für die Architektur präzisierte Höfler anhand der neuen Möglichkeiten, zeitbasierte Raummodelle zu entwerfen. Als Beispiel firmierte der Architekt Greg Lynn, der – inspiriert durch D’Arcy Thompson – in den 1990er Jahren begann, Formen als fortlaufende Koordinatentransformationen zu programmieren. Ein dritter Fokus des Vortrags lag auf dem Einsatz von ›eigensinnigen‹ Modellierungsmaterialien in Architektur und Design. Sie markieren eine Verschiebung hin zu de-auktorialen Entwurfsmethoden, die auf weitgehend selbstgenerierenden Prozessen der Formerzeugung beruhen.
Gabriele Gramelsberger (TU Darmstadt/IKKM Weimar) befasste sich mit dem Verhältnis von Modell, Zeit und (Nicht-)Wissen am Beispiel von Klima-Simulationen und leitete damit den letzten Themenschwerpunkt »Modell – Zeit – Zukunfts-/Nichtwissen« ein. In ihrem Beitrag zu »Temporalen Figurationen des Prospektiven« betonte sie, dass digitale Simulationen eine eigenständige Modellklasse mit eigener Zeitlogik darstellen. Eine direkte Übersetzung des Mathematischen ins Informatische sei daher nicht möglich. Das Thema der Prospektion wurde anhand zweier Auffassungen differenziert: Verstanden als Vorhersage, entspreche Prospektion der mathematischen Extrapolation. Doch kann sie zweitens auch als »Alteration« – mathematisch: Permutation – begriffen werden, als das Erkunden und Entwerfen von Möglichkeiten. Als solche lasse sie sich auf die Zeit selbst zurückwenden, etwa im Hinblick auf Phänomene der Nicht-Rekurrenz oder der diskreten Sprünge. Gleichermaßen eröffne sie, z.B. in der Chemie, die Möglichkeit neuer Entitäten. Dabei kommt einerseits, so Gramelsberger, die »Überschreitungsfunktion von Modellen« zum Tragen, andererseits aber auch das neuartige Problem, dass der Sinnüberschuss von Simulationen vor allem quantitativ kaum zu beherrschen ist.
Mit den Grenzen modellhafter Darstellung befasste sich Stefan Willer (ZfL Berlin/HU Berlin) am Beispiel von Herman Kahns »Thinking about the unthinkable« (1962). Willers Vortrag über »Modell – Szenario – Spiel – Exempel. Zur Abbildbarkeit von Zukünften« ging zunächst auf die epistemische Problemlage ein, die sich mit dem ›Zukünftigen‹ als dem prinzipiell Unbekannten verbindet. Dabei unterschied er zwischen »zukünftigen Gegenwarten«, die schlechthin unverfügbar sind, und »gegenwärtigen Zukünften«: Zwar seien letztere nicht prognostizierbar, doch sie erlaubten Spekulationen über das Mögliche. Welche Funktionen dabei der modellhaften Darstellung zukommen und wo ihre Grenzen liegen, analysierte Willer anhand von Kahns Klassiker aus der Zeit des Kalten Kriegs, welcher mit Modell, Szenario, Spiel und Exempel verschiedene Arten des ›thinking about the unthinkable‹ thematisiert. Anhand von Kahns Beispiel eines möglichen dritten Weltkriegs zeigte Willer, wie in den Modelltyp der »Szenarien« hypothetische Ereignisse und das Wissen um kriegerische Rationalitäten in eine Funktionslogik eingespeist werden können, die der digitalen Simulation vorgreift.
Der Abschluss des Workshops wurde von den Mitarbeiterinnen des SPP-Projekts »Die Zeit des Klimas. Zur Verzeitlichung der Natur in der literarischen Moderne« (Universität Wien) bestritten. Hanna Hamels Vortrag »Klimatologie als Anthropologie. Modellierung von Natur im späten 18. Jahrhundert« diskutierte den symptomatischen Befund, dass die wissenschaftliche Zuständigkeit für das Klima zu jener Zeit ähnlich uneindeutig war wie der Gegenstand selbst. Dies verweise indessen auf ein grundlegendes epistemologisches Problem: die Frage, wie sich »innerhalb der kulturellen Form Natur entwerfen« und modellhaft darstellen lässt. Hamel konkretisierte dies durch eine Gegenüberstellung von I. Kant und J.G. Herder. Kant stelle das Klima in den Kontext einer mathematischen, teleologisch organisierten Naturbetrachtung, die dem Gegenstand nicht gerecht werde. Herder dagegen beschreibt Klima als eine ungeordnete, alles durchwirkende Kraft. Erfasst werden kann es folglich nicht in fixierten Modellen, sondern nur »in einem permanenten Modellieren«. Herders Entwurf jedoch liefere nicht schon die Lösung für die Unzulänglichkeiten bei Kant. Eher stelle er dessen charakteristischen Gegenpol dar, der sich dem Risiko eines formlosen Chaos aussetzt.
»Das große Unsichtbare. Klimawirklichkeiten und -zukünfte zwischen Modell und Literatur« war das Thema des abschließenden Vortrags von Solvejg Nitzke. Anhand von Beispielen aus der zeitgenössischen Literatur (M. Crichton, D. Dath, J. Franzen) arbeitete Nitzke heraus, welche narrativen Strategien jeweils gewählt werden, um der notorischen Unanschaulichkeit und Unverfügbarkeit des Klimas zu begegnen. Literarischen und wissenschaftlichen Klima-Darstellungen sei gemeinsam, dass beide ihren Gegenstand allererst herstellen müssen. Modellwissen, so Nitzke, erweist sich dabei als »primary technology of environmental knowledge« (P. Edwards). Im Folgenden wurden drei Varianten vorgestellt, wie Literatur den Gegenstand Klima modelliert: Erstens stelle sie den Status und die Legitimität von (katastrophalem) Klimawissen in Frage, zweitens exploriere sie Klimazukünfte in experimentellen Szenarios und drittens stelle sie Klimawissen als »Bestandteil von nicht-katastrophischen Biographien« dar.
Verfasserinnen: Eva Geulen, Alexandra Heimes, Eva Axer
Eva Axer · 26. Oktober 2015, 15:28 Uhr