Zwischen der im Eintrag vom 4. Mai 2021 definierten Normalität und der Normativität besteht eine starke empirische Verbindung. Dieser Verbindung hat der Staatsrechtler Georg Jellinek die »normative Kraft des Faktischen« genannt und ihr damit einen prägnanten Namen gegeben. [1] Jellinek dachte dabei nur an soziale Regelmäßigkeiten. Mit dem Faktischen meinte er das soziale Faktum der Übung oder Gewohnheit: Was alle oder jedenfalls die meisten tun, erscheint gut und richtig und wird deshalb befolgt. Aber die normative Kraft des Faktischen reicht weiter. Auch wie alle sind, ohne dass sie es ändern könnten, erscheint erstrebenswert. Im Zusammenhang etwa mit Behinderung und Geschlecht muss man auch die normative Kraft naturhafter Normalität bedenken.
Für die Beobachtung der Normalität waren Menschen über Jahrtausende auf ihre Lebenswelt und Alltagserfahrungen angewiesen. Die Zähl- und Messtechnik der Statistik, wie sie seit dem 18. Jahrhundert mehr und mehr systematisch wird, macht natürliche und soziale Normalität sichtbar. Aber sie produziert auch selbst neue Normalitäten und Standards, weil sie für ihre Arbeit auf Operationalisierungen angewiesen ist, das heißt auf beobachtbare Messgrößen. Vor dem Hintergrund dieser Entwicklung machte der Soziologe Michel Foucault »Normalisierung« zu einem Schlüsselbegriff machtkritischer Gesellschaftstheorie, und darauf baut der (von Jürgen Link angeführte) kritische Normalitätsdiskurs: Normalität »gibt« es nicht, sondern sie wird in den maßgeblichen Diskursen als Abweichung definiert.
Jürgen Links großer »Versuch über den Normalismus« (3. Aufl. 2006) bietet eine sozialphilosophische Theorie, die sowohl in ihrer großen Linie als auch in vielen Details interessant ist, den Leser aber ebenso bewundernd wie ratlos zurücklässt. Link besteht auf einer »kategorialen Differenzierung zwischen Normalität und Normativität« (S. 17), derart, dass er »normativ« für den Bereich intentional gesetzter, also wesenhaft kultureller, teleologischer und präskriptiver, etwa juristischer Normen reserviert« (S. 111). Das entspricht der hier verwendeten Unterscheidung von Normalität und Normativität.
Links Thema ist aber nicht ein überzeitliches (analytisches oder empirisches) Konzept von Normalität und Normativität. Seine Aufmerksamkeit gehört vielmehr der unendlichen Vielfalt, mit der von Normalität geredet wird. Hier kommt der Literaturwissenschaftler zum Vorschein. So widmet Link sich den verschiedenen Haupt- und Nebendiskursen, in denen »Normalität« eine Rolle spielt, um schließlich die Moderne mit kritischem Unterton als Zeitalter des Normalismus zu interpretieren und den Normalismus als Dispositiv im Sinne Michel Foucaults einzuordnen. Normalismus ist mithin der Gesamtkomplex der Verfahren und Institutionen, durch die Normalitäten und entsprechend Anormalitäten produziert und reproduziert werden. Link teilt die Epoche des Normalismus in eine ältere, die er protonormalistisch nennt, und in eine jüngere, die als flexibel normalistisch charakterisiert wird. In der jüngeren Epoche, die mit dem Ende des zweiten Weltkriegs einsetzt, hat die Starrheit der Normierungen und Einteilungen abgenommen, exemplarisch erkennbar etwa an den Kinsey-Reports, die als »diskursives Ereignis« zum Durchbruch des flexiblen Normalismus geführt haben sollen. Der Protonormalismus dagegen kannte relativ scharfe Normalitätsgrenzen. Der flexible Normalismus ist toleranter. Die immerhin vorhanden Grenzen verschieben sich laufend. Doch aufs Ganze gesehen wird Normalität zum normativen Leitbild und löst die Orientierung durch materielle Ideologien ab.
Wiewohl Foucault und Link das empirische Phänomen der Normalität nicht in Abrede stellen, werden sie doch weitgehend dahin rezipiert, dass »Normalität« nicht über die kognitive Wahrnehmung eines empirischen Phänomens wirkt, sondern der Gesellschaft als diskursgeprägte soziale Konstruktion[2] ihren Stempel aufdrückt.
Eine Parallele (die aber selten ausgezogen wird) hat dieser Konstruktivismus in der Labeling-Theorie der Kriminologie. Sie hält eine ätiologische Betrachtung von Kriminalität für veraltet und setzt an ihre Stelle die Untersuchung von Interaktionen, Zuschreibungs- und Selektionsprozessen. Aktueller sind Theorien der Geschlechterforschung und der Disability Studies, welche die Diskriminierung ihrer Klientel als ein Ergebnis gesellschaftlicher Normalisierungsprozesse erklären, denen sie mit Dekategorisierungsstrategien begegnen.
Die (Un-)Möglichkeit der Differenzierung von Normalität und Anormalität
Die These von der sozialen Konstruktion von Normalität wird unter anderem darauf gestützt, dass die Wirklichkeit nur gleitende Übergänge kenne, während Normalität eine künstliche Rechengröße sei. Dahinter steht eine Kontinuitätsthese, die besagt, dass der Unterschied Normalität und Anormalität nur quantitativer Natur sei. Die These lässt mit Hilfe der Gauß’schen Glockenkurve anschaulich machen. Mit dieser Kurve werden statistisch ermittelte Werte dargestellt, die die sogenannte Normalverteilung aufweisen. Dazu ein Beispiel von der Webseite »Mathe-Guru« von Wanja Hemmerich:
»Die Körpergröße des Menschen ist für ein Geschlecht betrachtet normalverteilt. Laut einer Statistik des sozio-oekonomischen Panels (SOEP) aus dem Jahr 2006 liegt der Erwartungswert der Durchschnittsgröße µ bei Frauen in Deutschland bei 165,4cm, und die Standardabweichung σ bei 4,5cm. Aus der 68-95-99,7-Regel folgt, dass 68% aller deutschen Frauen eine Körpergröße zwischen 160,9cm (µ-σ) und 169,9cm (µ+σ) haben 95% aller deutschen Frauen eine Körpergröße zwischen 156,4cm (µ-2σ) und 174,4cm (µ+2σ) haben 99,7% aller deutschen Frauen eine Körpergröße zwischen 151,9cm (µ-3σ) und 178,9cm (µ+3σ) haben.«
Was ist da noch normal?
Man kann sich schnell darauf einigen, dass Normalität nicht einfach der Durchschnitt oder der Median ist, wiewohl beide Werte im Bereich des Normalen liegen. Irgendwann, irgendwie, irgendwo scheint Quantität in Qualität umzuschlagen. Aber eine Normalitätsschwelle ist aus den Zahlen nicht erkennbar, und deshalb liegt die Annahme nahe, dass Normalität eben doch sozial konstruiert sei. Dagegen steht eine Diskontinuitätsthese. Sie kann zunächst darauf verweisen, dass längst nicht alle Werte »normalverteilt« sind, sondern oft qualitative Unterschiede bestehen wie bei der Händigkeit, die in der Regel eindeutig ausgeprägt ist. Sie behauptet aber auch, dass Werte, die als kontinuierlich gemessen werden können, in der sozialen Praxis als diskontinuierlich wahrgenommen werden. So hat man in der Regel keine Probleme, andere Menschen als groß, klein oder normal einzuordnen. Phänomenologen würden sagen, dass die Einheit der Lebenswelt eine intersubjektiv geteilte Normalitätssphäre begründet. »Normalerweise« kommt es auf eine scharfe Abgrenzung gar nicht an, weil die Kandidaten in einem sicheren Bereich liegen. Insoweit haben wir es mit dem bekannten Phänomen der Vagheit zu tun. Man hilft sich mit Typenbildung oder dem Erkennen von Familienähnlichkeiten. Computer haben inzwischen gelernt, Muster zu erkennen. Kommt es doch einmal darauf an, so muss der Beobachter bei kontinuierlichen Phänomenen die fehlende Grenze durch sein Werturteil ersetzen.
[Fortsetzung folgt.]
[1] Georg Jellinek, Allgemeine Staatslehre, 3. Aufl. 1914, S. 337ff.
[2] Bei Springer Nature erschien ab 2001 eine Buchreihe mit dem Titel »Konstruktionen von Normalität«, die es allerdings nur auf fünf Bände gebracht hat.