Von der Erdös-Zahl über die Kevin-Bacon-Zahl zur Gunther-Teubner-Zahl

Paul Erdös war ein ungarischer Mathematiker, der zur Netzwerkforschung Überlegungen zur Wahrscheinlichkeitsverteilung von Verknüpfungen in einem Zufallsnetzwerk beigetragen hat. [1]Paul Erdös Alfred Rényi, On the Evolution of Random Graphs, Publications of the Mathematical Institute of the Hungarian Academy of Sciences 5, 1959, 17–61. Erdös war mit etwa 1.500 Veröffentlichungen ungewöhnlich produktiv. Da er die meisten Arbeiten zusammen mit anderen Forschern veröffentlich hatte, kamen Kollegen auf die Idee, [2]Die Idee stammt von von Casper Goffman: And What Is Your Erdos Number?, The American Mathematical Monthly, 76, 1969, 791. ihre Wertschätzung des Autors mit einem Spaß zu verbinden, indem sie das um Erdös entstandene Kooperationsnetzwerk als Netzwerk beschrieben. Wer mit Erdös zusammen veröffentlicht hatte, erhielt die Erdös-Zahl 1. Wer nicht selbst mit Erdös, aber doch mit einem seiner Koautoren publiziert hatte, erhielt die Erdös-Zahl 2, usw. Als Hommage an den Namensgeber wird die Bestimmung der Erdös-Zahl für Mathematiker auf einer besonderen Internetseite bis in die Gegenwart fortgeführt.
Populär geworden ist die Netzwerkanalyse von Kooperationsbeziehungen mit der Kevin-Bacon-Zahl. 1994 erfanden vier College-Studenten das Bacon-Spiel. Kevin Bacon (* 8. Juli 1958) ist ein prominenter amerikanischer Filmschauspieler. Die Studenten behaupteten, Bacon sei der wahre Mittelpunkt Hollywoods, und erboten sich, in einer Fernsehshow für jeden Schauspieler X einen Film zu nennen, in dem dieser zusammen mit Bacon gespielt hatte. Immerhin war Bacon in über 50 Filmen rund 1800 Schauspielerkollegen begegnet. Sollte es aber keinen gemeinsamen Film geben, wollten sie einen Film nennen, in dem Bacon mit einem anderen Schauspieler C zusammen aufgetreten war, der wiederum zusammen mit X gefilmt hatte. Sollte es selbst daran fehlen, würden sie auf die Filme verweisen, in denen B mit C, C mit D und schließlich D zusammen mit X ausgetreten waren, usw. Als Ausgangsknoten des Netzwerks hat Bacon selbst die Kevin-Bacon-Zahl (KBZ) 0. Als Kanten dienen die Filme, in denen zwei Schauspieler zusammen gespielt haben. Schauspieler, die mit Bacon zusammen in einem Film aufgetreten sind, erhalten die KBZ 1. Wer nicht selbst mit Bacon zusammen gefilmt hat, sondern nur mit einem Schauspieler, der zusammen mit Bacon aufgetreten ist, hat KBZ 2, usw. Auf der Internetplattform The Oracle of Bacon kann man das für beliebige Namen ausprobieren. So hat z. B. Gwyneth Paltrow die KBZ 2, denn sie war 1998 zusammen mit William Bogert in »A Perfect Murder« aufgetreten, der wiederum 1980 in »Hero at Large« mit Bacon zusammengespielt hatte.

Das bedeutet also, dass 2.511 Schauspieler mit Bacon zusammen aufgetreten sind, 26.2544 zusammen mit einem, der mit Bacon in demselben Film war usw. Ein Durchschnitt für die KBZ lässt sich folgendmaßen errechnen:
[(01)+(1∙2.511)+(2∙26.2544)+(3∙83.9562)+(4∙20.4764)+(5∙15.344)+(6∙1.397)+(7∙204)+(8∙32)]
./.
(1+2.511+26.2544+839.562+204.764+15.344+1.397+204+32)
= 3.952.127 ./. 1.326.359 = 2,980. [3]Tabelle und Berechnung nach dem Stand vom 24. Juni 2011 auf der Seite http://oracleofbacon.org/center.php die ihre Daten aus der Movie Data Base entnommen hat.
Natürlich war oder ist Bacon nicht das Zentrum Hollywoods. Die Pfadlänge von durchschnittlich 2,980 ist nur das Ergebnis des Kleine-Welt-Phänomens. Dennis Hopper liegt mit einer durchschnittlichen Pfadlänge von 2,802166 an erster Stelle. Bacon folgt erst auf Platz 444. Der relativ kurze Pfad zwischen je zwei Filmschauspielern deutet auf einen hohen Clusterkoeffiienten hin. Im Übrigen ist ihr Aussagewert begrenzt. Die Netzwerkanalyse stellt jedoch Methoden bereit, die gehaltvollere Angaben über Cliquenbildung, Einflüsse, Prestige oder gar Autorität, Zentralität oder Hierarchien gestatten. Dazu wären allerdings weitere Daten notwendig, insbesondere zu der Frage, wie oft kooperiert worden ist.
Analog kann man für alle Personen – Politiker, Wissenschaftler, Facebookmitglieder usw. ihre Nähe zu anderen bestimmen, soweit man über die notwendigen Daten verfügt. So haben die Düsseldorfer Psychologen Jochen Musch und Dennis Winter mit Hilfe einer Literatur-Datenbank eine Koautorenanalyse für 51.808 Psychologen errechnet und so die »Die kleine Welt der Psychologie« abgebildet. Dort misst der kürzeste durchschnittliche Pfad 4,33, der längste 15,02, und der Durchschnittwert beträgt 6,71.
Juristen publizieren verhältnismäßig selten gemeinsam. Der Pfad zwischen zwei Autoren wäre daher vermutlich länger. Um realistischere Zahlen zu erhalten, könnte man außer gemeinsamen Veröffentlichungen auch zählen, ob sie gemeinsamen an Sammelbänden und Festschriften beteiligt waren. Ich wollte wetten, dass sich Gunther Teubner als Mittelpunkt der Rechtstheorie herausstellen würde. Zum Beweis wären also zunächst alle direkten Koautoren (in dem eben genannten weiteren Sinne) zu zählen. Sie erhalten die GTZ (Gunther Teubner Zahl) 1. Ich schätze diesen Kreis auf etwa 100. Sodann wären die Koautoren der Koautoren mit der GTZ 2 zu ermitteln usw. Die Datensammlung ist nicht einfach, da sie sich mit dem vorhandenen bibliographischen Material schwerlich automatisieren lässt. Aber für die nächste Teubner Festschrift wäre das vielleicht eine lohnende Aufgabe, lohnend insbesondere dann, wenn man der Schwierigkeit, die Grundmenge der Rechtstheoretiker zu definieren dadurch ausweicht, dass man nur Autoren mit einer GTZ unter drei zu Rechtstheoretikern erklärt.

Anmerkungen

Anmerkungen
1 Paul Erdös Alfred Rényi, On the Evolution of Random Graphs, Publications of the Mathematical Institute of the Hungarian Academy of Sciences 5, 1959, 17–61.
2 Die Idee stammt von von Casper Goffman: And What Is Your Erdos Number?, The American Mathematical Monthly, 76, 1969, 791.
3 Tabelle und Berechnung nach dem Stand vom 24. Juni 2011 auf der Seite http://oracleofbacon.org/center.php die ihre Daten aus der Movie Data Base entnommen hat.

Ähnliche Themen

Wo bleibt »Die dunkle Seite der Netzwerke«?

Volker von Prittwitz hat sie ans Licht gezogen. Anscheinend ist von Prittwitz schlecht vernetzt. Ich habe seinen nur online veröffentlichten Aufsatz [1]Volker von Prittwitz, Die dunkle Seite der Netzwerke. Strategien gegen Vermachtung und Korruption: Grundlagen kritischer Netzwerktheorie, 2001; … Continue reading erst jetzt gefunden. Von unseren Rechtstheoretikern wird er schon gar nicht zur Kenntnis genommen. Aber die Lektüre lohnt sich.
Von Prittwitz befasst sich mit Policy-Netzwerken. Zunächst konstatiert er eine »sozialwissenschaftliche Netzwerkeuphorie«. In der Politikwissenschaft werde eine zunehmende Verbreitung von Policy-Netzwerken konstatiert und ihnen dabei wundersame Funktionen zugeschrieben:

»Informale Netzwerke fördern demnach unter den Beteiligten vertrauensvolle Zusammenarbeit und schnellen, ungehinderten Informationsfluss (Marin/Mayntz (Hrsg.) 1991; Fukujama 1999). Vernetzte Akteure teilen, etwa in Verhandlungen, Güter untereinander optimal auf, ein Potenzial der Wohlfahrtssteigerung (Scharpf 1993, 2000). In Netzen von Regulierern und Regulierten lassen sich Beschlüsse effizienter umsetzen (Benz 1994), und selbst innovative Prozesse, etwa der ökologischen Modernisierung, werden in vernetzten Strukturen besonders häufig festgestellt (Jänicke/Kunig/Stitzel 1999).«

Sein Fazit:

»Zusammenfassend stellen sich informelle Akteursnetzwerke unter Gerechtigkeits-, Leistungs- und Demokratiegesichtspunkten als prekär dar. Sie sind zwar für die unmittelbar Beteiligten mit Vorteilen verbunden, tendieren aber zur Ausbeutung der Allgemeinheit, verkehren regelgebundene Leistungslogik in machtorientierte Tauschlogik und konterkarieren vitale Demokratie eher als diese zu fördern.«

Dieses Fazit macht er an drei Beispielen plausibel, an den Aktivitäten der Landwirtschaftslobby vor dem und während des BSE-Skandals, an der Macht akademischer Netzwerke bei Steuerung von Forschungsthemen, Forschungsgeldern und Stellenbesetzungen und schließlich am »Netzwerk Parteienstaat«, mit dem die Parteieneliten am Parlament vorbei auf Regierung, Verwaltung und selbst auf die Justiz einwirken.

Anmerkungen

Anmerkungen
1 Volker von Prittwitz, Die dunkle Seite der Netzwerke. Strategien gegen Vermachtung und Korruption: Grundlagen kritischer Netzwerktheorie, 2001; http://www.volkervonprittwitz.de/die_dunkle_seite_der_netzwerke.htm.

Ähnliche Themen

Der späte Start der harten Netzwerkforschung

Die harte Netzwerkforschung ist ein Spätstarter. Der folgende Überblick dient nur zur Erläuterung der These, dass die Rechtstheorie den Anschluss verpasst hat, weil sie sich mit dem Netzwerkbegriff bereits eingerichtet hatte, bevor die Netzwerkforschung etwa ab 1998 abzuheben begann.
Es ist nicht die Absicht, hier die Basics der Netzwerkanalyse darzustellen. Das relevante Wissen ist inzwischen weitgehend konsentiert und geläufig. Das meiste im im Internet zu finden. Wikipedia allerdings enttäuscht. Zur Einführung gibt es bessere Quellen, z. B. Rainer Diaz-Bone, Eine kurze Einführung in die sozialwissenschaftliche Netzwerkanalyse. Eine anspruchsvolle Einführung, die für Rechtstheorie und Rechtssoziologie gedacht ist, Juristen aber am Ende überfordert, bietet das »Network Analysis and Law Tutorial« von Daniel Martin Katz, Michael Bommarito und Jonathan Zelner. Viel gelernt und entnommen habe ich aus dem ersten Teil von Juan Aantonio Almendral, Dynamics and Topology in Complex Networks (Ph.D.Thesis 2006). Auch viele der inzwischen klassischen Originalarbeiten, z. B. von Granovetter, Powell, Milgram, Barabási/Albert und Watts/Strogatz, stehen frei im Internet.
Vorläufer gibt es immer. Das Netzwerk ist ein Ausdruck der Alltagssprache, der schon, bevor er zum Terminus wurde, auch in der Wissenschaft genutzt wurde. Als Vorläufer der exakten Netzwerkanalyse kann die Erfindung des Soziogramms durch Moreno 1934 gelten. [1]Jakob L. Moreno, Who Shall Survive?, Washington, DC 1934 (Die Grundlagen der Soziometrie. Wege zur Neuordnung der Gesellschaft, Köln 1954). Als Terminus wurde der Netzwerkbegriff in den 1960er Jahren in der Sprachwissenschaft geläufig. Dort wurde die Vorstellung von Sprache als einem semantischen Netz entwickelt. Als Autor wird oft Ross Quillian genannt. In den 1970er Jahren tauchte der Begriff häufiger in sozialwissenschaftlichen Arbeiten auf, so in einem Buch von Jeremy Boissevain, Friends of Friends: Networks, Manipulators and Coalitions. In den 1980er Jahren diente der Begriff des neur(on)alen Netzwerks zur Modellierung von künstlicher Intelligenz z. B. durch Rumelhart, Hinton und Williams. 1990 veröffentlichte Walter W. Powell seinen Aufsatz »Neither Market nor Hierarchy: Network Forms of Organization« [2]Research in Organizational Behavior 12, 1990, 295-336. Dazu der Artikel von Andreas Wald/Dorothea Jansen, Netzwerke, in: Arthur Benz u. a. (Hg.): Handbuch Governance, 2007, 93-105., der lange die Forschungsagenda von Wirtschafts- und Politikwissenschaft bestimmt hat. Schließlich führte Manuel Castells 1996 den Begriff der Netzwerkgesellschaft ein. [3]The Rise of the Network Society, 1996. Aber erst kurz vor der Jahrtausendwende begann die Netzwerkforschung, richtig abzuheben, und nach fünf Jahren war sie auf Ihrem Gipfel angekommen.
Das Interesse an der soziologischen Netzwerkforschung wurde durch Stanley Milgram und Mark S. Granovetter angefacht. Von 1967 stammt Stanley Milgrams erstes Briefexperiment, mit dem er das Small-World-Problem populär machte. [4]Stanley Milgram, The Small World Problem, Psychology Today 1, 1967, 61-67; Jeffrey Travers/Stanley Milgram, An Experimental Study of the Small World Problem, Sociometry 32, 1969, 425-443. Zur Kritik … Continue reading Die Welt, so seine These, sei insofern klein, als jeder mit jedem über sechs Ecken bekannt sei (»six degrees of separation«). Milgram ging davon aus, dass jeder Mensch selbst bis zu 150 Menschen kennt, so dass sich die Zahl der indirekten Bekannten sehr schnell multipliziert. Wenn ich 150 Bekannte habe, die jeder wiederum 150 Menschen kennen, folgt daraus allerdings nicht, dass ich über 150 x 150 = 7.500 indirekte Bekannte verfüge, denn sehr wahrscheinlich sind die meisten Bekannten meiner Bekannten auch mit mir und ebenso untereinander bekannt. Das ist das Phänomen der Clusterbildung. Außerdem bilden die Bekannten einer Person kein einheitliches Netzwerk. Aus Familie, Nachbarschaft, gemeinsamer Schulzeit oder berufliche Kontakten usw. wachsen verschiedene, oft durch soziale Schranken separierte Netzwerke. Dennoch erwies sich Milgrams These empirisch als mindestens halbwegs zutreffend.
Diese Mehrfachbekanntschaften im Cluster bilden die strong ties im Gegensatz zu den relativ wenigen weak ties, nämlich den Beziehungen, die aus der engeren Gruppe herausführen. Deren Bedeutung zeigte Granovetter 1973 in seinem viel zitierten Aufsatz »The Strength of Weak Ties«. [5]Mark S. Granovetter, The Strength of Weak Ties: A Network Theory Revisited, Sociological Theory 1, 1983, 201-233. Ihm lag eine empirische Untersuchung über den unterschiedlichen Erfolg der Jobsuche entweder über enge Freunde, entferntere Bekannte oder auf dem förmlichen Weg zugrunde mit dem Ergebnis, dass entferntere Bekannte bei der Jobsuche besonders hilfreich sein können. Dieser Effekt ist immer wieder für Folgeuntersuchungen [6]Martina Brandt, Soziale Kontakte als Weg ausw der Erwerbslosigkeit, KZfSS 58,2006, 468-488; (darüber Jürgen Kaube, Wer Freunde hat, findet leichter Arbeit, Frankfurter Allgemeine Sonntagszeitung v. … Continue reading und Pressemeldungen gut.
Grundlage der harten Netzwerkforschung ist die mathematische Graphentheorie. Sie versteht unter einem Netzwerk die Repräsentation beliebiger Objekte wie Menschen, Institutionen, Begriffe oder Internetadressen durch Graphen und Matrizen. Auf dieser Grundlage ist ein ganzer Strauß von Begriffen und Methoden zur Analyse der Struktur von Netzen gewachsen. Die wichtigsten Begriffe sollen hier jedenfalls genannt werden.
Die Elemente oder Objekte, die das Netz bilden, werden gewöhnlich als Knoten bezeichnet, die zwischen ihnen bestehenden Beziehungen als Kanten. Die Kanten können symmetrisch sein wie zum Beispiel die Distanzen zwischen Punkten auf einer Landkarte. Oder sie sind gerichtet, entweder einseitig wie die Beziehung zwischen Kirchenglocken und der Gemeinde oder bidirektional wie das Gespräch am Telefon. Die Kanten können auch gewichtet sein, je nachdem, ob die Beziehung intensiv oder weniger intensiv ist (strong und weak ties).
Gefragt wird weiter nach der Pfadlänge zwischen den Knoten, also danach, wie viele Zwischenschritte über andere Knoten notwendig sind, um die Distanz zwei bestimmten Knoten zu überwinden. So gibt es in jedem Netzwerk eine maximale und eine durchschnittliche Pfadlänge.
Besonderes Interesse gilt dem Grad eines Knotens, der Frage nämlich, wie viele Verbindungen zu anderen Knoten er auf sich zieht.
Die Verclusterung eines Netzwerks bildet ein Maß dafür, wieweit alle theoretisch denkbaren Verbindungsmöglichkeiten ausgeschöpft sind, wieweit also jeder mit jedem im Netz in Beziehung steht. Ähnlich, aber nicht identisch ist die Transitivität der Beziehungen. Die Idee kommt ursprünglich aus der Soziologie. Wenn von zwei Freunden, Primus und Secundus, Primus mit einer dritten Person (Tertius) befreundet ist, dann bilden sie ein kleines Netzwerk. Oft liegt es dann aber so, dass nicht nur Primus, sondern auch Secundus mit Tertius befreundet ist. Dann ist das Triple, so sagt man, transitiv. Vollständige Transitivität ist in einem sozialen Netzwerk eher der Ausnahmefall.
Netzwerke können von vornherein kettenförmig, sternförmig oder pyramidal angelegt sein. Sie können auch im Verlauf Konnektivitätsmuster entwickeln, aus denen sich die Zentralität eines oder mehrerer Knoten ergibt. Es sind dazu Zentralitätsmasse entwickelt worden, die den Verknüpfungsgrad, Pfadlängen und das Gewicht von Beziehungen kombinieren, um die Zentralisierung von Netzen vergleichbar zu machen.
Die typische Vorstellung geht wohl dahin, dass ein Netz aus gleichartigen Elementen besteht. Viele soziale Netzwerke bestehen aber aus zweierlei (oder gar mehr) Elementen. Das gilt etwa für Mitgliedschaftsnetzwerke. Individuen sind Mitglied vieler Gruppen. Sie haben nicht nur ein persönliches Egonetzwerk, also Beziehungen zu anderen Individuen, sondern auch ein Netzwerk von Mitgliedschaften (Sportverein, Kirchengemeinde, Partei, Gewerkschaft usw.) Wenn man die Beziehungen zwischen unterschiedlichen Elementtypen betrachtet, spricht man von bipartiten Netzwerken.
Weil in der Rechtstheorie vom Netz der Netzwerke geschrieben wird, ist schließlich erwähnenswert, dass sich Teile als Netzes als Subnetz darstellen lassen. Die Subnetze sind dann Cluster in einem größeren Netz, die untereinander nur schwach verbunden sind. Das hat etwa zur Folge, dass der Zusammenbruch eines Subnetzes nicht zum Zusammenbruch des ganzen Netzes führen muss. Soviel zur Terminologie.
Ein entscheidender Fortschritt ergab sich aus der Behandlung der von der Soziologie aufgeworfenen Fragen mit mathematischen Methoden. Der Soziologe Duncan J. Watts und der Mathematiker Steven H. Strogatz wollten eigentlich erklären, wie sich Epidemien ausbreiten oder wie ein Schwarm von Baumheuschrecken es schafft, dass alle gleichzeitig zirpen. [7]Duncan J. Watts/Steven H. Strogatz, Collective Dynamics of “Small-World” Networks, Nature 393, 1998, 440-442. Sie ließen sich dabei von Milgrams Small-World-Problem inspirieren. So gelang ihnen 1998 die Verbindung bestimmter Netzwerkeigenschaften mit dynamischen Systemvorgängen wie der Verbreitung von Informationen, von Krankheiten oder von cascading failures. Watts und Strogatz verglichen zunächst in Modellrechnungen Zufallsnetzwerke mit solchen mit starkem Clustering. Bereits 1960 hatten Paul Erdös und Alfred Rényi sich mit der Verteilung der Kanten zwischen den Knoten in einem Zufallsnetzwerk befasst. [8]Paul Erdös Alfred Rényi, On the Evolution of Random Graphs, Publications of the Mathematical Institute of the Hungarian Academy of Sciences 5, 1959, 17–61. Watts und Strogatz fanden nun, dass sich beispielsweise eine Infektion in einem Zufallsnetzwerk schnell in alle Richtungen ausbreitet und alle Knoten erreicht. Dagegen zeigte sich, dass Krankheiten in geclusterten Netzwerken mit kurzen Pfadlängen sich kaum über das Cluster hinaus verbreiten. Das war eigentlich nicht anders zu erwarten. Aber neu war die Erkenntnis, dass es ausreicht, wenn nur wenige Knoten aus dem Cluster heraus mit anderen verbunden sind, um eine Krankheit beinahe genauso schnell zu verbreiten wie in einem Zufallsnetzwerk. Damit hatten sie eine mathematische Lösung des Small-World-Problems gefunden, die sie an empirischen Untersuchungen bestätigen konnten. Die Lösung liegt darin, dass in den meisten Clustern eine oder wenige Personen zugleich an weit ausgreifenden Netzwerken beteiligt sind. Sie unterhalten die weak ties, sind in ihrer Umgebung sozusagen als Kosmopoliten bekannt und werden für die Weiterleitung angesprochen.
Auch Watts und Strogatz gingen, wie bis dahin üblich, davon aus, dass die Verbindungen in komplexen Netzwerken einer Zufallsverteilung folgen (die als Poisson-Verteilung geläufig ist). Die Graphik zeigt eine Glockenkurve. Die meisten Knoten verfügen etwa über die gleiche Anzahl von Kanten. Nur wenige Knoten haben überdurchschnittlich viele oder sehr wenige Verbindungen. Die Konnektivität in modellhaften Small-World-Netzwerken, die wie gesagt starke Clusterbildung und kurze durchschnittliche Pfadlängen aufweisen, zeigt eine exponentielle Wahrscheinlichkeitsverteilung, denn die Wahrscheinlichkeit, dass ein Knoten eine Verbindung zu einem bestimmten anderen hat, fällt exponentiell mit der Größe des Netzwerks.
Als Barabási und Albert 1998 begannen, das Internet als Netzwerk zu analysieren, erwarteten sie auch dort eine entsprechende Verteilung der Links. [9]Albert-László Barabási/Réka Albert, Emergence of Scaling in Random Networks, Science 286, 1999, 509-512. Ferner Statistical Mechanics of Complex Networks, Revue of Modern Physics 74, 2002, 47-97, … Continue reading Sie vermuteten, dass jeder User bei der Verlinkung seiner Seite seinen individuellen Interessen folgen und sich daraus eine Zufallsverteilung der Links über die riesige Anzahl verfügbarer Knoten ergeben würde. Im Internet stießen Barabási und Albert jedoch auf ein anderes Verteilungsmuster. Über 80 % der Webseiten waren höchstens vier Mal verlinkt. Eine winzige Minderheit dagegen, nämlich weniger als 0,01 % aller Knoten, hatten mehr als 1000 Links auf sich gezogen. (Später wurden sogar Webseiten mit mehr als 2 Millionen Links gefunden.) Die Auswertung der Zahlen zeigte, dass die Verteilung der Links einem Potenzgesetz (power law) folgt. Sie unterscheidet sich von der Normalverteilung dadurch, dass die Masse der Werte sich nicht in der Nähe des Durchschnitts hält, sondern dass Extremwerte auftreten, die Masse der Werte aber weit unter dem Durchschnitt liegt. Ein Beispiel ist die Vermögensverteilung in den Industriestaaten. 2007 verfügten in Deutschland 10 % der Erwachsenen über 61,1 % des Gesamtvermögens, die obersten 5 % über 46 % und das oberste Prozent über etwa 23 %. Dagegen lag die große Masse der Bevölkerung weit unter dem Durchschnittswert von 88.000 Euro. [10]Nach Bundeszentrale für politische Bildung (10.11.2008), Die soziale Situation in Deutschland. Die Vermögensverteilung ist also keine Normalverteilung, bei der – wie z. B. bei der Größe von Bäumen oder von Menschen – die Mehrheit nahe am Durchschnitt liegt, und die keine Ausreißer kennt. Im Internet dagegen gibt es wenig Durchschnittsknoten. Die Zahl der eingehenden Links fällt extrem stark ab. Wenige Hubs ziehen die Masse der Verbindungen auf sich und die andern bilden den so genannten long tail.
Ähnliche Verteilungsmuster fanden Barabási und Albert bei anderen realen Netzwerken, etwa unter Hollywood-Schauspieler oder bei Zitationsnetzwerken von Wissenschaftlern. Netze mit dieser Eigenschaft werden scale-free (skalenfrei oder skaleninvariant) genannt, weil die Verteilung unabhängig von einem inneren Maßstab des Netzwerks ist. Dazu muss man sich vorstellen, dass manche Systeme nicht mehr funktionieren, wenn sie zu groß werden. Menschen wiegen selten mehr als 150 kg. Steigt das Gewicht weiter, werden sie bewegungsunfähig und schließlich versagen die Körperfunktionen. Statistisch gesehen gibt für das Körpergewicht von Erwachsenen eine Art Normalverteilung. Analog liegt es mit Bäumen oder Hochhäusern. Bäume wachsen nicht in den Himmel, und Häuser kann man nicht beliebig hoch bauen. Irgendwann würden unter ihrem Eigengewicht zusammenbrechen. Dagegen scheint dem Wachstum von Städten oder Staaten – und auch des Internet – keine natürliche Grenze gesetzt zu sein. Sie sind größenordnungsunabhängig = skalenfrei.
Die Frage ist natürlich, warum sich in realen Netzen die Masse der Verbindungen auf wenige Superknoten konzentriert. Dafür gibt es zwei Erklärungen, deren zweite das Gewicht der ersten verstärkt. Die Modellvorstellung von Zufallsnetzwerken geht davon aus, dass das Netz fertig ist. Reale Netze wachsen jedoch meistens aus sehr kleinen Anfängen. Das hat zur Folge, dass die älteren Knoten größere Chancen haben, Verbindungen von neuen Teilnehmern auf sich zu ziehen. Die zweite Erklärung ergibt sich daraus, dass die Netzknoten unterschiedliche »Tauschwerte« besitzen. Die Beziehung zu einem prominenten Knoten verspricht größeren Gewinn als die Anknüpfung bei einem Nobody und wird deshalb vorgezogen (preferential attachment). Die Prominenz eines Knotens steigt nicht zuletzt mit der Zahl seiner Verbindungen. Daraus ergibt sich, dass die Großen noch größer werden (the rich get richer). Es gilt das Prinzip der Vorteilsakkumulation (accumulated advantage; Matthäus-Prinzip). [11]Robert K. Merton, The Matthew Effect in Science, Science, 1968, 56-63; vgl. auch den Eintrag Nachlese: Wie wirkt Recht? vom 29. 6. 2010.
Viele, aber nicht alle realen Netze sind in diesem Sinne skalenfrei. Künstlich aufgebaute Netze (Autobahnnetze, Eisenbahnnetze oder Elektrizitätsnetze) zeigen meistens eine Normalverteilung. Die Frage ist natürlich, was für soziale Netzwerke gilt. Eine allgemeine Regel gibt es anscheinend nicht, denn was für das Internet gilt, wenn man es denn als soziales Netzwerk ansieht, gilt kaum für Kleingruppen.
Mit einer zusammenfassenden Arbeit von Réka Albert und Albert-László Barabási von 2002 [12]Statistical Mechanics of Complex Networks, Revue of Modern Physics 74, 2002, 47-97. war die Entwicklung der harten Netzwerkforschung zunächst abgeschlossen. Schnell folgten einige Bücher, welche die Ergebnisse popularisierten. [13]Duncan J. Watts, Six Degrees: The Science of a Connected Age, W. W. Norton and Company. 2003; Albert-László Barabási, Linked: The New Science of Networks, Perseus, Cambridge, MA, 2002; Mark … Continue reading
Auf der Grundlage der soweit konsolidierten Netzwerktheorie starteten Christakis und Fowler 2002 eine groß angelegte empirische Untersuchung an Hand der Daten der Framingham-Studie, die sie 2009 in einem Buch dokumentierten, das dem Interesse an Netzwerken noch einmal neuen Schub gab. [14]Nicholas A. Christakis/ James H. Fowler, Connected. The Surprising Power of Our Social Networks and How They Shape Our Lives, Little, Brown & Company. Die Autoren stellen ihr Buch ausführlich … Continue reading Ein wichtiges Ergebnis: Der persönliche Einfluss reicht nur über drei Grade der Bekanntschaft. Die Untersuchung bietet damit eine gewisse Bestätigung für die so genannte Dunbar-Zahl, die besagt, dass die Evolution den Menschen so ausgestattet hat, dass er nur zu etwa 150 anderen persönliche Beziehungen unterhalten kann. [15]Robin I. M. Dunbar, Coevolution of Neocortical Size, Group Size and Language in Humans, Behavioral and Brain Sciences 16, 1993, 681-735. Vor dem Hintergrund der neuen Netzwerkforschung entdeckte man nun aber auch die Bedeutung der Arbeiten von Oliver Williamson und vor allem von Elinor Ostrom, die eigentlich schon aus den 1980er und den 1990er Jahren stammen. Der Nobelpreis für Williamson und Ostrom und die Veröffentlichung des Buches von Christakis und Fowler löste 2009 noch einmal eine Popularisierungswelle aus. [16]z. B M. E. J. Newman/Albert-László Barabási/Duncan J. Watts, The Structure and Dynamics of Networks, Princeton, N.J. , Oxford 2006; David Easley/Jon Kleinberg, Networks, Crowds, and Markets. … Continue reading
In der Rechtstheorie ist die harte Netzwerkforschung bislang kaum rezipiert worden. Volker Boehme-Neßler hat es versucht. [17]Unscharfes Recht. Überlegungen zur Relativierung des Rechts in der digitalisierten Welt, 2008. Das Ergebnis überzeugt mich nicht. Darüber mehr in einem neuen Eintrag. Vorher müsste ich eigentlich über ein ganzes Bündel von empirischen Untersuchungen berichten, welche die Methoden der Netzwerkforschung auf Rechtsthemen anwenden. Wenn ich dazu keine Zeit oder Lust habe, werde ich mich mit Fundstellennachweisen begnügen.
Nachtrag vom 22. 6. 2012:
Aus einer Pressemitteilung vom 21. 5. 2012 erfährt man aus der Universität des Saarlandes, dass sich die Informationen in sozialen Netzwerken noch schneller verbreiten, als in Netzwerken, in denen jeder mit jedem kommuniziert, oder deren Struktur völlig zufällig gewachsen ist.« Der Grund dafür, heißt es, »sei das Zusammenspiel zwischen sehr gut und gering vernetzten Personen. »Eine gering vernetzte Person hat natürlich viel schneller ihre wenigen Kontakte informiert«, so Friedrich. Es sei jedoch auch nachweisbar, dass sich unter solchen Kontakten immer sehr gut vernetzte Personen befinden, die wiederum von sehr vielen Personen angefragt würden. Auf diese Weise werde in rasender Geschwindigkeit jeder über die Neuigkeit informiert, so Friedrich. Um das Beziehungsgeflecht in einem realen sozialen Netzwerk zu abstrahieren, nutzten die Forscher sogenannte ›Preferential Attachment Graphs‹ als Netzwerk-Modell. Es beruht auf der Annahme, dass sich neue Mitglieder eher mit bereits bekannten Personen vernetzten als mit unbekannten.« So schrecklich neu klingt das nicht.

Anmerkungen

Anmerkungen
1 Jakob L. Moreno, Who Shall Survive?, Washington, DC 1934 (Die Grundlagen der Soziometrie. Wege zur Neuordnung der Gesellschaft, Köln 1954).
2 Research in Organizational Behavior 12, 1990, 295-336. Dazu der Artikel von Andreas Wald/Dorothea Jansen, Netzwerke, in: Arthur Benz u. a. (Hg.): Handbuch Governance, 2007, 93-105.
3 The Rise of the Network Society, 1996.
4 Stanley Milgram, The Small World Problem, Psychology Today 1, 1967, 61-67; Jeffrey Travers/Stanley Milgram, An Experimental Study of the Small World Problem, Sociometry 32, 1969, 425-443. Zur Kritik Judith S. Kleinfeld, The Small World Problem, Society 2002, 61-66. In einer Nachfolgeuntersuchung haben Peter Sheridan Dodds, Roby Muhamad und Duncan J. Watts 60.000 Email-User veranlasst, 18 Zielpersonen in 13 Ländern zu erreichen, indem sie eine Nachricht jeweils an einen Bekannten weitersandten. Sie kamen zu dem Ergebnis, dass es grundsätzlich wohl möglich sei, auch im globalen Maßstab beliebig Zielpersonen über persönliche Netzwerke zu erreichen, und schätzten, dass dazu durchschnittlich fünf Vermittlungsschritte notwendig seien. Die Probanden waren dabei sehr verschieden erfolgreich. Der Erfolg war von sozialen Merkmalen (von denen indirekt die verfügbaren Netzwerke abhängen) und von der Suchstrategie. Bei den ersten Schritten wurde vor allem nach Personen gesucht, die der Zielperson geographisch nahe war. Bei den letzten Schritten wurde vor allem nach Vermittlern gesucht, die aus einem ähnlichen Berufsfeld kamen wie die Zielpersonen. Am erfolgreichsten Probanden, die professionelle Beziehungen nutzen konnten. An Experimental Study of Search in Global Social Networks, Science 301, 29003, 827-829.
5 Mark S. Granovetter, The Strength of Weak Ties: A Network Theory Revisited, Sociological Theory 1, 1983, 201-233.
6 Martina Brandt, Soziale Kontakte als Weg ausw der Erwerbslosigkeit, KZfSS 58,2006, 468-488; (darüber Jürgen Kaube, Wer Freunde hat, findet leichter Arbeit, Frankfurter Allgemeine Sonntagszeitung v. 17. 12. 2006, S. 76); Johan Ugander/Lars Backstrom/Cameron Marlow/Jon Kleinberg, Structural Diversity in Social Contagion, PNAS vom 17. April 2012 (Bd. 109 Nr. 16, 5962-5966.
7 Duncan J. Watts/Steven H. Strogatz, Collective Dynamics of “Small-World” Networks, Nature 393, 1998, 440-442.
8 Paul Erdös Alfred Rényi, On the Evolution of Random Graphs, Publications of the Mathematical Institute of the Hungarian Academy of Sciences 5, 1959, 17–61.
9 Albert-László Barabási/Réka Albert, Emergence of Scaling in Random Networks, Science 286, 1999, 509-512. Ferner Statistical Mechanics of Complex Networks, Revue of Modern Physics 74, 2002, 47-97, sowie Albert-László Barabási/Eric Bonabeau, Scale-Free Networks, Scientific American, Mai 2003; deutsche Fassung: Skalenfreie Netzwerke, Spektrum der Wissenschaft Juli 2004, S. 62-69.
10 Nach Bundeszentrale für politische Bildung (10.11.2008), Die soziale Situation in Deutschland.
11 Robert K. Merton, The Matthew Effect in Science, Science, 1968, 56-63; vgl. auch den Eintrag Nachlese: Wie wirkt Recht? vom 29. 6. 2010.
12 Statistical Mechanics of Complex Networks, Revue of Modern Physics 74, 2002, 47-97.
13 Duncan J. Watts, Six Degrees: The Science of a Connected Age, W. W. Norton and Company. 2003; Albert-László Barabási, Linked: The New Science of Networks, Perseus, Cambridge, MA, 2002; Mark Buchanan, Nexus: Small Worlds and the Groundbreaking Theory of Networks, W. W. Norton and Company, 2002.
14 Nicholas A. Christakis/ James H. Fowler, Connected. The Surprising Power of Our Social Networks and How They Shape Our Lives, Little, Brown & Company. Die Autoren stellen ihr Buch ausführlich in einem Vortrag vor vor, der auf der Webseite von Microsoft zu finden ist. Eine ausführliche Besprechung in The New York Times Sunday Book Review vom 1. 1. 2009.
15 Robin I. M. Dunbar, Coevolution of Neocortical Size, Group Size and Language in Humans, Behavioral and Brain Sciences 16, 1993, 681-735.
16 z. B M. E. J. Newman/Albert-László Barabási/Duncan J. Watts, The Structure and Dynamics of Networks, Princeton, N.J. , Oxford 2006; David Easley/Jon Kleinberg, Networks, Crowds, and Markets. Reasoning about a Highly Connected World, New York 2010; Science Special Issue vom 24 July 2009: Complex Systems and Networks, Bd. 325 no. 5939 pp. 412-413. Darin finden sich zwei für die Rechtssoziologie relevante Aufsätze: John Bohannon, Counterterrorism’s New Tool: ‘Metanetwork’ Analysis (S. 409-411), sowie Elinor Ostrom, A General Framework for Analyzing Sustainability of Social-Ecological Systems, Science 2009, 325, 419-422.
17 Unscharfes Recht. Überlegungen zur Relativierung des Rechts in der digitalisierten Welt, 2008.

Ähnliche Themen

Castells Hitliste

Bei den Recherchen zur Netzwerkforschung bin ich auf eine Hitliste der am häufigsten zitierten Soziologen gestoßen, die Manuel Castells zusammengestellt hat. Da er selbst in der Spitzengruppe erscheint, wird er es akzeptieren, wenn ich sie hier wiedergebe:

Relative Ranking of a Selected Pool of Leading Scholars in the Social Sciences by Number of Citations in the Social Science Citation Index, 2000-2010

Quelle: http://www.manuelcastells.info/en/SSCIsocialranking_eng.pdf

Bemerkenswert, dass Luhmann in dieser Liste nicht erscheint.

Ähnliche Themen

Die Rechtstheorie ist schlecht vernetzt.

Der Netzwerkbegriff, so Ino Augsberg [1]Ino Augsberg, The Relevance of Network Models within the Juridic Discourse, German Law Journal 10, 2009, 383-394, S. 383., hat auch in der Rechtstheorie einen »Bullenmarkt«. Dort handeln die Flachmänner. Erstens halten sie den Netzwerkbegriff flach, und zweitens verwenden sie die Netzwerkrhetorik, um Hierarchien flachzulegen.
Der Netzwerkbegriff der Rechtstheorie ist flach, denn ihm liegt kein gehaltvolles Konzept zugrunde. In Mathematik, in den Ingenieurswissenschaften und in der Soziologie gibt es handfeste Netzwerkkonzepte. [2]Vgl. pars pro toto die Darstellung einer Autorin, die auch als Rechtsoziologin ausgewiesen ist: Dorothea Jansen, Theoriekonzepte in der Analyse sozialer Netzwerke, 3. Aufl. 2006. In der Rechtstheorie ist davon wenig angekommen. Sie verwendet den Netzwerkbegriff als Ausdruck der Alltagssprache und profitiert von Konnotationen, die auf die Netzwerkforschung verweisen. Man kann soziale Netzwerke als Parasiten etablierter Strukturen ansehen. [3]Veronika Tacke, Systeme und Netzwerke – oder: Was man an sozialen Netzwerken zu sehen bekommt, wenn man sie systemtheoretisch beschreibt, Netzwerke, Systemtheorie und Soziale Arbeit. Journal der … Continue reading Die Rechtstheorie wird zum Parasiten der Netzwerkforschung, indem sie durch die Verwendung des Netzwerkbegriffs Interdisziplinarität simuliert.
Für den flachen Netzwerkbegriff der Rechtstheorie bieten sich zwei Erklärungen an. Zunächst handelt es sich um Erblast der Systemtheorie. [4]Tacke a. a. O.; Jan A. Fuhse, Der Netzwerkbegriff in der Systemtheorie, in: Johannes Weyer, Soziale Netzwerke, 2. Aufl. 2011, S. 301-324. In Luhmanns Welt fanden Netzwerke keinen Platz. Wichtiger noch, Luhmann verwendete den Begriff als Ausdruck der Alltagssprache, indem er die systeminternen Operationen der Sinnverarbeitung durch aneinander anschließende Kommunikationen als rekursive Vernetzung beschrieb. [5]Z. B. »Als operativ geschlossen sollen Systeme bezeichnet werden, die zur Herstellung eigener Operationen auf das Netzwerk eigener Operationen angewiesen sind …« (Das Recht der Gesellschaft, … Continue reading Dieser Sprachgebrauch wirkt etwa bei Vesting nach, wenn er schreibt: »Wir haben dann ein rekursiv geknüpftes Netzwerk von Kommunikationen vor uns, und genau das ist ein ›soziales System‹ im Sinne der Systemtheorie.« [6]Thomas Vesting, Kein Anfang und kein Ende. Die Systemtheorie des Rechts als Herausforderung für Rechtswissenschaft und Rechtsdogmatik, JURA, 2001, 299-305; hier zitiert nach der ausführlicheren … Continue reading Die zweite Erklärung: Die Netzwerker unter den Rechtstheoretikern sind um zwei Hubs, um Gunther Teubner und Karl-Heinz Ladeur, verclustert. Teubner und Ladeur waren schneller als die Netzwerkforschung, und sie sind ihr nicht nachgelaufen.
Luhmann [7]Die Gesellschaft der Gesellschaft, 1997, S. 846 bei Fn. 444. lobt Ladeur für ein anregendes Netzwerk-Konzept, das »an die Stelle einer hierarchischen Konzeption des Verhältnisses von Funktionssystem und Organisationen« treten könnte. Gemeint waren die Seiten 176 ff in Ladeurs »Rechtstheorie« von 1992. Von Netzwerken war da allerdings noch kaum die Rede, umso mehr dafür vom Wandel zur »Informations-« oder »Wissensgesellschaft« (S. 185) und von den Modi der Wissenserzeugung unter der Bedingung ubiquitärer und permanenter Reflexivität oder Selbstreferenz. Dabei ging es zunächst um »die Eigentümlichkeit der Organisation als eines kollektive Lernfähigkeit institutionalisierenden Netzwerks von Handlungen« (S. 192). Aus der Gesellschaft der Individuen sei die Gesellschaft der Organisationen geworden. »Die Organisation kann mehr oder anderes Wissen speichern als das Netzwerk der Individuen, sie bildet eine neue Form des Gedächtnisses aus …« (S. 196). Sodann werden Markt und Organisation »als zwei unterschiedliche Weisen der Wissensgenerierung« (S. 200) einander gegenüber gestellt (und dabei auch auf Oliver Williamson verwiesen, dessen Arbeiten später zur Grundlage der Governance-Diskussion um Netzwerke als Typus der Koordination ökonomischer und politischer Prozesse [8]Dazu Andreas Wald/Dorothea Jansen, Netzwerke, in: Arthur Benz u. a. (Hg.): Handbuch Governance, 2007, 93-105. geworden sind). Aus der Gesellschaft der Organisationen wird bei Ladeur ohne klare Markierung [9]Vgl. etwa Der Staat gegen die Gesellschaft, 2006, S. 296 ff. die Gesellschaft der Netzwerke. Der Bezug auf real vorhandene Netzwerke fehlt. Öfter ist von privaten Beziehungsnetzwerken die Rede [10]Z. B. Kritik der Abwägung in der Grundrechtsdogmatik, 2004, S. 62. Meistens geht es aber um unbenannte »inter- und intraorganisationale Netzwerke«. [11]Der Staat gegen die Gesellschaft, 2006, S. 4, 296 ff und öfter. Im »Umweltrecht der Wissensgesellschaft« (1995) lernen wir, dass »gemeinsames Wissen« durch »überlappende Netzwerke« generiert wird (S. 31 ff, 37), und zwar soll es sich um Netzwerke von »Relationen« oder »Beziehungen« handeln«. Wer oder was da relationiert wird, kann ich nicht erkennen. Auch ein Aufsatz, der die »Logik der Netzwerke« im Titel trägt [12]Karl-Heinz Ladeur, Die Regulierung der Selbstregulierung und die Herausbildung einer »Logik der Netzwerke«, Die Verwaltung, Beiheft 4, 2001, 57-77., bringt darüber keinen Aufschluss. Über die Technik der Wissensproduktion, der Wissensspeicherung und des Wissensmanagements in Organisationen und/oder Netzwerken erfährt man wenig oder gar nichts außer dass es sich um laufende Prozesse der Selbst- und Fremdbeobachtung handelt, die auf Selbständerung angelegt sind. [13]Am deutlichsten vielleicht noch Der Staat gegen die Gesellschaft, 2006, S. 296 ff. Es gilt, was Wald und Jansen über den Umgang mit Policy-Netzwerken gesagt haben. Die verwendeten Netzwerkkonzepte »sind schwer operationalisierbar. Die weitreichenden Implikationen werden in der Regel weder empirisch überprüft noch theoretisch konsistent hergeleitet. So trifft beispielsweise die Annahme, das Policy-Netzwerke notwendig mit einem ›schwachen Staat‹ einhergehen, so nicht zu.« [14]Andreas Wald/Dorothea Jansen, Netzwerke, in: Arthur Benz u. a. (Hg.), Handbuch Governance, 2007, S. 93-105, S. 93. Vornehm, aber noch deutlich wird solche Kritik von Poul J. Kjaer formuliert. [15]Poul F. Kjaer, Embeddedness through Networks: A Critical Appraisal of the Network Concept on the Oeuvre of Karl-Heinz Ladeur, German Law Journal 10 , 2009, 483-499. Kjaer bringt selbst einigen Grund in die Debatte ein, indem er am Beispiel real existierender Politiknetzwerke in der EU die »embeddedness«, die Einbettung formaler Organisationen in informale Beziehungen darstellt. Dabei bleibt er aber auf halber Strecke stehen, denn wiewohl embeddedness im Titel steht, macht er doch von dem durch Granovetter begründeten und hier einschlägigen Konzept der strukturellen Einbettung [16]Mark S. Granovetter, Economic Action and Social Structure. The Problem of Embeddedness, American Journal of Sociology 91 , 1985, 481-510. keinen Gebrauch. [17]Anscheinend hat Kjaer einen anderen Begriff von embeddedness vor Augen, der einen Zustand vor der funktionalen Differenzierung der Gesellschaft bezeichnet und den er auf karl Polanyi zurückführt … Continue reading
In den Texten Ladeurs bilden Netzwerke oder vielmehr das in ihnen verteilte Wissen den Gegenpol zur individuell-subjektiven Vernunft, die sich zutraut, auf einer Basis objektiven Wissens und mit Hilfe diskurserprobter Werturteile den politischen Prozess zu gestalten. Die Wissensgesellschaft, die von Ladeur immer wieder beschworen wird, ist eine Unwissensgesellschaft, weil Entscheidungen, die ja immer in die Zukunft gerichtet sind, notwendig auf unvollständigem Wissen und auf Wahrscheinlichkeitsannahmen gestützt werden müssen. [18]Rechtstheorie 1992, 22ff. Das immerhin vorhandene Entscheidungswissen, so jedenfalls Ladeur, lässt sich nicht objektivieren und zentralisieren. Das Wissen ist vielmehr über Netzwerke verteilt, wo es auch produziert wird. [19]Z. B. Das Umweltrecht der Wissensgesellschaft, S. 31 ff, 37, 168 ff. Ladeur beruft sich auf Michael Polanyi (The Tacit Dimension, 1966), der, modern gesprochen, die Frage nach der Qualitätskontrolle … Continue reading Damit verliert der Anspruch des Staates auf eine hierarchische = staatliche Regulierung die Basis. Stattdessen sind »Selbstorganisation, Selbstkoordination und Selbstbeobachtung von produktiven Beziehungsnetzwerken zwischen Privaten« angesagt. So dient der Netzwerkbegriff Ladeur als Kontrast zur Hierarchie (des Staates), und zwar ohne eine Bezugnahme auf die von Williamson und Powell ausgelöste Governance-Diskussion. Für Ladeur leisten Netzwerke auf höherer Ebene (»Prozeduralität zweiter Ordnung« (Rechtstheorie S. 202) dasselbe, wie für v. Hayek der Markt. [20]Vgl. Ladeur, Rechtstheorie 1992, 194. Netzwerkteilnehmer wissen mehr als Drittbeobachter und können sich deshalb mit ihren Entscheidungen wechselnden Umweltbedingungen anpassen. Als Informationsträger, die auf Netzwerkebene an die Stelle des Marktpreises treten, dienen Eigentumsrechte und Kapital. [21]Der Staat gegen die Gesellschaft, 2006, S. 300 f. Aus transaktionskostentheoretischer Sicht – Schande über diesen Ausdruck – wäre eigentlich Vertrauen die Koordinationsform, die im Netzwerk an … Continue reading Netzwerke setzen damit neue Formen der Selbstorganisation in Wirtschaft und Gesellschaft aus sich heraus. Die internen Ordnungen der Netzwerke, die die Forschung beschrieben hat, interessieren da nicht. Als neues Ordnungsmuster wird ein »Netzwerk von Netzwerken« unterschiedlicher sozialer Beziehungen vorgestellt. [22]Vorbild ist das »Network of Networks«, das Noam als neue Organisationsform der Telekommunikation vorstellte, nachdem die zentralen Telefonnetze ihr Monopol verloren hatten (Eli M. Noam, … Continue reading Als Schnittstellen zwischen den Netzwerken sollen Kollisionsregeln nach dem Vorbild des Internationalen Privatrechts dienen. [23]Dazu mit Fundstellen Lars Viellechner, The Networks of Networks: Karl-Heinz Ladeur’s Theory of Law and Globalization, German Law Journal 2009, 515-536, S. 524.
Vieles von dem, was Ladeur als Netzwirkerei vorstellt, wird von anderen als regulierte Selbstregulierung behandelt. In einer neueren Monographie zum Thema kommen Netzwerke weder in der Gliederung noch im Sachverzeichnis vor. [24]Petra Buck-Heeb/Andreas Dieckmann, Selbstregulierung im Privatrecht, 2010. Anscheinend ist der Netzwerkbegriff in diesem Zusammenhang überflüssig. Vielleicht ist er sogar schädlich. Eine typische Konnotation des Netzwerkbegriffs ist die spontane Ordnungsbildung. Spontan heißt dabei, dass Ordnung als nicht intendierte Nebenfolge intendierten Handelns entsteht. Darauf spielt Ladeur immer wieder an, etwa durch die häufige Bezugnahme auf v. Hayek oder die Betonung der »emergenten Effekte« von Selbstorganisation. [25]Z. B. Das Umweltrecht der Wissensgesellschaft S. 37. In die gleiche Richtung deutet die Charakterisierung von Netzwerken als evolutionär. [26]Vgl. Teubner, The Diabolics of Network Failure, German Law Journal 2009, 409. Teubners Verweis auf Karl-Heinz Ladeur, Was leistet der Netzwerkbegriff für die Verwaltungswissenschaft? in Grundlagen … Continue reading Spontaneität, Emergenz und Evolution decken sich nicht, kommen aber mit derselben positiven Konnotation daher. In den intraorganisationalen Netzwerken, die Ladeur vornehmlich im Blick hat, etwa wenn er die Zukunft der Globalisierung bedenkt, sind jedoch Akteure am Werk, die strategisch planen und dazu Regelungen entwerfen und durchzusetzen versuchen. Lässt man ihre Anstrengungen als spontan durchgehen, werden sie als quasi natürlich aufgewertet.
Damit ist man bei der Legitimitätsfrage. [27]Zu dieser Tacke a. a. O. S. 16ff. Sie stellt sich, sobald soziale Netzwerke nicht bloß empirisch beschrieben und analysiert werden. »Dass Netzwerke einen mindestens latenten Schatten der Illegitimität hinter sich her ziehen« [28]Tacke a. a. O. S. 10., liegt wohl daran, dass die Transaktionen, um die es eigentlich geht, in unsachliche soziale Beziehungen eingebettet sind. Wenn man alle die positiven Prädikate zusammen nimmt [29]Z. B. Das Umweltrecht der Wissensgesellschaft S. 37; Can Democracy Survive, S. 113 f. , mit denen Ladeur die Netzwerke ausstattet – sie sind Ordnungsbildner und Wissensträger, sie sind autonom und flexibel, produktiv und innovativ und nicht zuletzt kooperativ, pluralistisch und heterarchisch = egalitär und antiautoritär – dann steckt im Netzwerkbegriff doch ein ähnliches Ideologiepotential wie im Staatsbegriff. Ladeur begnügt sich mit der Berufung auf die Privatautonomie. [30] Der Staat gegen die Gesellschaft, 2006, S. 257. Das ist gute alte soziologisch unaufgeklärte Jurisprudenz.
Ladeurs Anspruch, den Dialog mit den Forschungsergebnissen der Nachbarwissenschaften zu suchen [31]Ino Augsberg/Tobias Gostomzyk/Lars Viellechner, Denken in Netzwerken, Zur Rechts- und Gesellschaftstheorie Karl-Heinz Ladeurs, 2009, 66., bleibt hinsichtlich der Netzwerkforschung unerfüllt. Der darüber hinaus gehende Anspruch, mit dem »Denken in Netzwerken« eine neuartige Epistemologie zu begründen [32]Vgl. Ino Augsberg/Lars Viellechner/Peer Zumbansen, Introduction to the Special Issue: The Law of the Network Society. A Tribute to Karl-Heinz Ladeur, German Law Journal 2009, 305-309, S. 308., sei hier nur zur Kenntnis genommen. Ino Augsberg hat einen lustigen Versuch unternommen, das Netzwerkkonzept im Werk Ladeurs auch als soziologisches zu retten: Die Gesellschaft ändere sich rasant und die Welt sei äußerst komplex geworden. Da sei das Netzwerkkonzept adäquat, weil es praktisch keinen Inhalt habe. [33]The Relevance of Network Models within the Juridic Discourse, German Law Journal 10, 2009, 383-394, S. 387f.
Teubner ist vergleichsweise besser, wenn auch nur selektiv, mit der Netzwerkforschung vernetzt. Teubner hatte seine Position schon 1992 und 1993 in zwei wichtigen Aufsätzen markiert: »Die vielköpfige Hydra: Netzwerke als kollektive Akteure höherer Ordnung« [34]In: Wolfgang Krohn und Günter Küppers (Hg.), Emergenz: Die Entstehung von Ordnung, Organisation und Bedeutung, 1992, 189-216, ferner und in: Peter Hejl und Heinz Stahl (Hg.), Management und … Continue reading und »Den Schleier des Vertrags zerreißen? Zur rechtlichen Verantwortung ökonomisch ›effizienter‹ Vertragsnetzwerke« [35]Kritische Vierteljahresschrift für Gesetzgebung und Rechtswissenschaft 76, 1993, 367-393. Sein Blick richtete sich dabei auf zwei sehr spezielle Netzwerkarten, nämlich auf »Organisationsnetzwerke« vom Typ dezentralisierter Konzern (Beispiel Daimler-Benz) und auf »Marktnetzwerke« vom Typ des Franchising (Beispiel MacDonalds). Beide Netzwerktypen subsumierte er zunächst unter den systemtheoretischen Hyperzyklus, um ihnen die Eigenschaft eines kollektiven Akteurs zuzusprechen. In dem Aufsatz »Das Recht hybrider Netzwerke« von 2001 [36]Gunther Teubner, Das Recht hybrider Netzwerke, Zeitschrift für das gesamte Handels- und Wirtschaftsrecht , Zeitschrift für das gesamte Handels- und Wirtschaftsrecht, 2001, 550-575. und vollends in der Monographie von 2004 (Netzwerk als Vertragsverbund) hat Teubner aber die ökonomische Netzwerkanalyse von Oliver Williamson und Walter W. Powells Aufsatz »Neither Market nor Hierarchy« [37]Walter W. Powell, Neither Market nor Hierarchy: Network Forms of Organization, Research in Organizational Behavior 12, 1990, 295-336. (in der deutschen Version von 1996) rezipiert, um für »das Recht eine autonome und zugleich ›netzwerkgerechte‹ Begrifflichkeit herauszubilden, die die eigentümliche Handlungslogik von Netzwerken sich anverwandelt.« (S. 10). Zu diesem Zweck soll »die institutionelle Eigenlogik der Netzwerke« herausdestilliert werden. Teubner findet sie darin, dass die »Vernetzung … über bloße lokale bilaterale Einzelkontakte zustande« kommt, dass dennoch aber jeder Netzteilnehmer im Hinblick auf einen Gesamtzweck des Netzwerks verbunden ist. Das Ergebnis sind dann »Widersprüche der Verhaltensanforderungen zwischen bilateralem Austausch und multilateralem Verbund, zwischen Kooperation und Konkurrenz, zwischen Hierarchie und Heterarchie und zwischen unterschiedlichen Rationalitäten innerhalb ein und derselben Institution«. Diesen »paradoxen Charakter der Netzwerke (S. 77) soll das Recht einfangen.
Teubner übersieht nicht, dass er mit den von ihm behandelten »Organisationsnetzwerke« und »Marktnetzwerken« zwei sehr spezielle Netzwerktypen behandelt. Sie zeichnen sich beide durch ihre Zentralisierung aus. Mir ist nicht klar geworden, wie in derart zentralisierten Netzwerken »generalisierte Reziprozität« über die bilateralen Vertragsbeziehungen hinaus zum »normativen Gehalt des Vertragsverbundes« (S. 10) wird. Teubner zitiert u. a. Powell für die Annahme, generalisierte Reziprozität sei das zentrale Kennzeichen von sozialen Netzwerken. (S. 11). Powell verweist eigentlich nur allgemein auf die Austauschtheorie und betont, dass im Netz nicht nach jeder Interaktion abgerechnet wird, sondern dass Kreditbeziehungen aufgebaut werden. Nach Teubners Vorstellung soll der Kredit nicht bloß konkreten Tauschknoten, sondern dem ganzen Netz zugutekommen soll, weil »Eigenleistungen an das Netz mit der unbestimmten Erwartung künftiger Netzvorteile« verbunden werden (S. 121). Das ist wohl ein guter aber zugleich ein kritischer Punkt. Die Annahme, dass »generalisierte Reziprozität der grundlegenden Mechanismus spontaner Ordnungsbildung im Netzwerk« sei (S. 125), ist zu pauschal. Solche Reziprozitätserwartungen sind, tragen wohl normalerweise die Expansion und den Fortbestand von Netzwerken. Aber sobald Netzwerke sich asymmetrisch entwickelt haben oder gar strategisch zentralisiert sind, wie es bei den von Teubner behandelten Netzwerken der Fall ist, treten dominierende Knoten als Ordnungsbildner auf den Plan. Diesem Problem nähert sich Teubner 2009 in einem » Essay on the Diabolics of Network Failure«. [38]Gunther Teubner, »And if I by Beelzebub cast out Devils, …«: An Essay on theDiabolics of Network Failure, German Law Journal 10 , 2009, 395-416. Dennoch lässt sich bezweifeln, ob Teubner der Einstieg in die soziologische Netzwerkanalyse gelungen ist, denn Williamson und Powell stufen Netzwerke lediglich als Typus der Koordination ökonomischer Prozesse ein, und selbst insofern sind die asymmetrisch und zentralistisch angelegten Vertragsverbünde, die Teubner behandelt, mindestens sehr speziell. Powell ordnet sie gar dem Hierarchiepol zu. [39]Walter Powell, Weder Markt noch Hierarchie: Netzwerkartige Organisationsformen, in: Patrick Kenis/Volker Schneider (Hg.), Organisation und Netzwerk, 1996, 213-271, S. 216.
Teubner und Ladeur (und die Cluster, die sich um sie herum gebildet haben) richten ihre Aufmerksamkeit zunehmend auf transnationale oder gar globale Netzwerke, die sich im Prozess der Globalisierung entwickelt haben. [40]Karl-Heinz Ladeur, Globalization and the Conversion of Democracy to Polycentric Networks: Can Democracy Survive the End of the Nation- State?, in: Karl-Heinz Ladeur (Hg.), Public Governance in the … Continue reading Sie sparen jedoch in ihren Arbeiten nach wie vor die moderne Netzwerkforschung aus, natürlich nicht, weil sie sie nicht kennen, sondern weil sie dafür keine Verwendung haben. So entsteht der Eindruck, dass der Netzwerkbegriff in der Rechtstheorie nur als Metapher und zum Zwecke der Interdisziplinaritätsrhetorik verwendet wird. Kritisch und überspitzt könnte man formulieren, durch ihren Frühstart mit der Verwendung des Netzwerkbegriffs habe die Rechtstheorie den Anschluss an die (harte) Netzwerkforschung verpasst.

Anmerkungen

Anmerkungen
1 Ino Augsberg, The Relevance of Network Models within the Juridic Discourse, German Law Journal 10, 2009, 383-394, S. 383.
2 Vgl. pars pro toto die Darstellung einer Autorin, die auch als Rechtsoziologin ausgewiesen ist: Dorothea Jansen, Theoriekonzepte in der Analyse sozialer Netzwerke, 3. Aufl. 2006.
3 Veronika Tacke, Systeme und Netzwerke – oder: Was man an sozialen Netzwerken zu sehen bekommt, wenn man sie systemtheoretisch beschreibt, Netzwerke, Systemtheorie und Soziale Arbeit. Journal der dgssa 2 , 2011, 6-24, S. 8, 16f. [http://www.uni-bielefeld.de/soz/forschung/orgsoz/pdf/Tacke-Veronika-2011-Systeme-und-Netzwerke-.pdf]
4 Tacke a. a. O.; Jan A. Fuhse, Der Netzwerkbegriff in der Systemtheorie, in: Johannes Weyer, Soziale Netzwerke, 2. Aufl. 2011, S. 301-324.
5 Z. B. »Als operativ geschlossen sollen Systeme bezeichnet werden, die zur Herstellung eigener Operationen auf das Netzwerk eigener Operationen angewiesen sind …« (Das Recht der Gesellschaft, 1995, 44).
6 Thomas Vesting, Kein Anfang und kein Ende. Die Systemtheorie des Rechts als Herausforderung für Rechtswissenschaft und Rechtsdogmatik, JURA, 2001, 299-305; hier zitiert nach der ausführlicheren Internetfassung, S. 4.
7 Die Gesellschaft der Gesellschaft, 1997, S. 846 bei Fn. 444.
8 Dazu Andreas Wald/Dorothea Jansen, Netzwerke, in: Arthur Benz u. a. (Hg.): Handbuch Governance, 2007, 93-105.
9 Vgl. etwa Der Staat gegen die Gesellschaft, 2006, S. 296 ff.
10 Z. B. Kritik der Abwägung in der Grundrechtsdogmatik, 2004, S. 62
11 Der Staat gegen die Gesellschaft, 2006, S. 4, 296 ff und öfter.
12 Karl-Heinz Ladeur, Die Regulierung der Selbstregulierung und die Herausbildung einer »Logik der Netzwerke«, Die Verwaltung, Beiheft 4, 2001, 57-77.
13 Am deutlichsten vielleicht noch Der Staat gegen die Gesellschaft, 2006, S. 296 ff.
14 Andreas Wald/Dorothea Jansen, Netzwerke, in: Arthur Benz u. a. (Hg.), Handbuch Governance, 2007, S. 93-105, S. 93.
15 Poul F. Kjaer, Embeddedness through Networks: A Critical Appraisal of the Network Concept on the Oeuvre of Karl-Heinz Ladeur, German Law Journal 10 , 2009, 483-499.
16 Mark S. Granovetter, Economic Action and Social Structure. The Problem of Embeddedness, American Journal of Sociology 91 , 1985, 481-510.
17 Anscheinend hat Kjaer einen anderen Begriff von embeddedness vor Augen, der einen Zustand vor der funktionalen Differenzierung der Gesellschaft bezeichnet und den er auf karl Polanyi zurückführt (vgl. Poul F. Kjaer, The Structural Transformation of Embeddedness, Manuscript, 2010, bei SSRN; http://ssrn.com/abstract=1716763).
18 Rechtstheorie 1992, 22ff.
19 Z. B. Das Umweltrecht der Wissensgesellschaft, S. 31 ff, 37, 168 ff. Ladeur beruft sich auf Michael Polanyi (The Tacit Dimension, 1966), der, modern gesprochen, die Frage nach der Qualitätskontrolle von Beiträgen zur Wissenschaft stellt und die Antwort in einem Prinzip wechselseitiger Kontrolle findet: »It is clear that only fellow scientists working in closely related fieldsare competent to exercise direct authority over each other; but their personal fields will form chains of overlapping neighborhoods extending over the entire Range of science.« (S. 72) Aus den neighborhoods werden bei Ladeur (S. 33) Netzwerke. Dagegen ist nichts einzuwenden. Problematisch ist nur, dass die wissenschaftssoziologische Beobachtung auf inter- und intraorganisationale Netzwerke übertragen werden, die Wissensbestände produzieren und speichern, die nicht den Anspruch der Wissenschaftlichkeit mit sich führen und für die daher keine vergleichbaren Qualitätsmaßstäbe zur Verfügung sehen, wie sie in Wissenschaftlernetzwerken etabliert sind.
20 Vgl. Ladeur, Rechtstheorie 1992, 194.
21 Der Staat gegen die Gesellschaft, 2006, S. 300 f. Aus transaktionskostentheoretischer Sicht – Schande über diesen Ausdruck – wäre eigentlich Vertrauen die Koordinationsform, die im Netzwerk an die Stelle von Preis oder Weisung tritt.
22 Vorbild ist das »Network of Networks«, das Noam als neue Organisationsform der Telekommunikation vorstellte, nachdem die zentralen Telefonnetze ihr Monopol verloren hatten (Eli M. Noam, Interconnecting the Network of Networks, 2001). Dieses Vorbild passt aber gar nicht, denn die Vernetzung besteht dort in technischen Standards für Schnittstellen. Besser wäre die Berufung auf Neidhardt, berufen, der soziale Bewegungen als »Netzwerke von Netzwerken« charakterisiert hat: »Die Basis sozialer Bewegungen bilden … nicht einzelne Personen, sondern soziale Einheiten, Gruppen, Initiativen, Kollektive oder ähnliches (eben Netzwerke) mit unterschiedlichsten Verdichtungsgraden. Diese sozialen Gruppen werden durch eine komplexe Struktur unmittelbarer Interaktionen zu einer sozialen Bewegung vernetzt. Maßgeblich sind dabei unter anderem Freundschaften, Bekanntschaften und Mehrfachmitgliedschaften sowie Koordinationszentralen, Versammlungen, Arbeitskreise, Zeitschriften.« (Friedhelm Neidhardt, Einige Ideen zu einer allgemeinen Theorie sozialer Bewegungen, in: Stefan Hradil (Hg.), Sozialstruktur im Umbruch, 1985, 193-204, S. 197). Dazu als empirische Untersuchung Thomas Ohlemacher, Bridging People and Protest: Social Relays of Protest Groups against Low-Flying Military Jets in West Germany Social Problems 43 1996, 187-218 (Vorbericht »Soziale Relais und Protest« in WZB-Mitteilungen 58, 1992, 9-11).
23 Dazu mit Fundstellen Lars Viellechner, The Networks of Networks: Karl-Heinz Ladeur’s Theory of Law and Globalization, German Law Journal 2009, 515-536, S. 524.
24 Petra Buck-Heeb/Andreas Dieckmann, Selbstregulierung im Privatrecht, 2010.
25 Z. B. Das Umweltrecht der Wissensgesellschaft S. 37.
26 Vgl. Teubner, The Diabolics of Network Failure, German Law Journal 2009, 409. Teubners Verweis auf Karl-Heinz Ladeur, Was leistet der Netzwerkbegriff für die Verwaltungswissenschaft? in Grundlagen der Verwaltungslehre, hrsg. von Veit Mehde und Ulrich Ramsauer, 2009, habe ich nicht identifizieren können.
27 Zu dieser Tacke a. a. O. S. 16ff.
28 Tacke a. a. O. S. 10.
29 Z. B. Das Umweltrecht der Wissensgesellschaft S. 37; Can Democracy Survive, S. 113 f.
30 Der Staat gegen die Gesellschaft, 2006, S. 257.
31 Ino Augsberg/Tobias Gostomzyk/Lars Viellechner, Denken in Netzwerken, Zur Rechts- und Gesellschaftstheorie Karl-Heinz Ladeurs, 2009, 66.
32 Vgl. Ino Augsberg/Lars Viellechner/Peer Zumbansen, Introduction to the Special Issue: The Law of the Network Society. A Tribute to Karl-Heinz Ladeur, German Law Journal 2009, 305-309, S. 308.
33 The Relevance of Network Models within the Juridic Discourse, German Law Journal 10, 2009, 383-394, S. 387f.
34 In: Wolfgang Krohn und Günter Küppers (Hg.), Emergenz: Die Entstehung von Ordnung, Organisation und Bedeutung, 1992, 189-216, ferner und in: Peter Hejl und Heinz Stahl (Hg.), Management und Wirklichkeit: Das Konstruieren von Unternehmen, Märkten und Zukünften, 2000, 364-386, und in: Patrick Kenis und Volker Schneider (Hg.), Organisation und Netzwerk: Institutionelle Steuerung in Wirtschaft und Politik, 1996, 535-561.
35 Kritische Vierteljahresschrift für Gesetzgebung und Rechtswissenschaft 76, 1993, 367-393.
36 Gunther Teubner, Das Recht hybrider Netzwerke, Zeitschrift für das gesamte Handels- und Wirtschaftsrecht , Zeitschrift für das gesamte Handels- und Wirtschaftsrecht, 2001, 550-575.
37 Walter W. Powell, Neither Market nor Hierarchy: Network Forms of Organization, Research in Organizational Behavior 12, 1990, 295-336.
38 Gunther Teubner, »And if I by Beelzebub cast out Devils, …«: An Essay on theDiabolics of Network Failure, German Law Journal 10 , 2009, 395-416.
39 Walter Powell, Weder Markt noch Hierarchie: Netzwerkartige Organisationsformen, in: Patrick Kenis/Volker Schneider (Hg.), Organisation und Netzwerk, 1996, 213-271, S. 216.
40 Karl-Heinz Ladeur, Globalization and the Conversion of Democracy to Polycentric Networks: Can Democracy Survive the End of the Nation- State?, in: Karl-Heinz Ladeur (Hg.), Public Governance in the Age of Globalization, Aldershot, Hants, England , Burlington, VT 2004, S. 89-118; Andreas Fischer-Lescano/Gunther Teubner, Fragmentierung des Weltrechts: Vernetzung globaler Regimes statt etatistischer Rechtseinheit, in: Mathias Albert/Rudolf Stichweh (Hg.), Weltstaat und Weltstaatlichkeit, 2007, S. 37-61.

Ähnliche Themen

In eigener Sache X: Rsozblog ist vier Jahre alt

Im April 2008 habe ich begonnen, an dieser Stelle zu bloggen. Bis heute sind hier 216 Artikel erschienen. 212 Artikel, die von April 2008 bis einschließlich März 2012 veröffentlicht wurden, sind im Blogbuch Rsozblog 2012 versammelt, das nunmehr zum Download zur Verfügung steht. Die Seite »Über dieses Blog« wurde aus diesem Anlass neu formuliert.
Nachtrag vom 27. 4. 2012: Dazu hat die Ruhr-Universität eine Pressemitteilung herausgegeben: Jurist als Pionier des Wissenschaftsblogging.

Ähnliche Themen

Prüfen auf dem Prüfstand: Prüfungskultur in der Rechtswissenschaft

Jahrestagung des Zentrums für rechtswissenschaftliche Fachdidaktik Hamburg
Gastbeitrag
von

Claudio Marti, MLaw;

lic. iur. Lukas Musumeci;

Ref. iur. Mareike Schmidt, LL.M.

Am 20./21. März 2012 fand die Jahrestagung des Zentrums für rechtswissenschaftliche Fachdidaktik an der Universität Hamburg statt. Die Tagung trug den Titel »Prüfen auf dem Prüfstand: Prüfungskultur in der Rechtswissenschaft« und bestand aus sechs Themenblöcken:

  • Grundlagen
  • Kompetenzorientiertes Prüfen
  • Prüfungen in anderen fachbezogenen Hochschuldidaktiken
  • Prüfungen im europäischen Vergleich
  • Prüfungsformate
  • Prüfungsforschung

Die Vorträge wurden durch drei alternative Diskussions-Workshops zu den folgenden Fragestellungen ergänzt:

  • Was können wir aus anderen fachbezogenen Hochschuldidaktiken lernen?
  • Was können wir aus dem europäischen Vergleich lernen?
  • Was können wir aus der allgemeinen Hochschuldidaktik lernen?

Das detaillierte Programm findet sich hier.

Anschließend möchten wir einige Themen und Vorträge vorstellen, die unser Interesse aus den unterschiedlichsten Gründen besonders geweckt haben.

(Mareike Schmidt)

In seinem Grußwort formulierte Prof. Dr. Reinhard Bork, Direktor des Zentrums für rechtswissenschaftliche Fachdidaktik, zwei Thesen, die während der Tagung wiederholt und aus verschiedenen Perspektiven aufgegriffen wurden. Erstens: Prüfen will gelernt sein. Zum Prüfen gehört nicht nur Prüfungsaufgaben zu stellen, sondern auch die Korrektur derselben. Zweitens: Prüfungen und Unterricht sollen in dem Sinne zusammenhängen, dass geprüft wird, was gelehrt wird. Diese zweite These wurde im einführenden Themenblock 1 in den Referaten von Dr. Oliver Reis und Prof. Dr. Hans-Heinrich Trute weiterentwickelt. So sollen Lernziele, Lehr-/Lernaktivitäten sowie Prüfung im Sinne eines »constructive alignment« aufeinander abgestimmt werden.[1] Dadurch soll ein lernendes System entstehen. Die Prüfung erhebt, ob die Studierenden die Lernziele erreicht haben und stellt dadurch auch eine Evaluation von Unterricht und Lernzielen dar. Die Ergebnisse dieser Evaluation erlauben es dem Lehrenden anschließend, die Abstimmung weiter zu verfeinern und somit die Qualität der Lehre zu verbessern.

Diese beiden Thesen stellen grundlegende didaktische Fragen an den Einsatz von Korrektoren. Dieser führt dazu, dass Prüfungsstellung und Prüfungskorrektur personell entkoppelt werden. Dadurch wird die Abstimmung von Lernzielen, Lehre und Prüfung abgeschwächt.[2] Um ein constructive alignment zu gewährleisten, müssen Rückkopplungsschlaufen eingebaut werden, die es erlauben, dass die Ergebnisse der Korrekturen wieder zurück zum Lehrenden fließen. Diese Rückkopplung könnte etwa dadurch erreicht werden, dass der Korrektor dem Prüfer detailliert über die Prüfungsergebnisse berichtet.

Die These, dass Korrigieren gelernt sein will, erfuhr im sechsten Themenblock durch das Referat von Prof. Dr. Urs Kramer und Bernadette Hauser unter dem Titel »Die Korrektur juristischer Arbeiten – ist sie heute schon auf Examensniveau?« Bestätigung.[3] Die beiden Referenten erforschen an der Universität Passau qualitativ, was eine gute Prüfungskorrektur ausmacht. Dabei berücksichtigen sie die Perspektive von Studierenden, Prüfungstellern und Korrektoren. Ein zentrales Qualitätsmerkmal einer Korrektur ist deren Nachvollziehbarkeit. So legen Studierende etwa Gewicht darauf, dass Fehler direkt in der Klausur angezeichnet und kommentiert werden, anstatt in einem Schlusskommentar pauschal darauf hinzuweisen. Zur Nachvollziehbarkeit gehört auch, dass aus der Korrektur erkennbar ist, welche Aussagen bewertet wurden. Von Seiten der Prüfungssteller wird erhofft, nachvollziehbare Korrekturen würden Remonstrationen vermindern. Das Beispiel zeigt, dass Korrekturen mit verhältnismäßig einfachen, problemlos umsetzbaren Mitteln nachvollziehbarer gestaltet werden können. So einleuchtend diese aber auch erscheinen, ist deren Einsatz nicht selbstverständlich. Korrektoren müssen dafür sensibilisiert werden.

Viel größere Probleme stellen sich für Korrektoren hingegen bei der eigentlichen Bewertung. Lösungs- und Bewertungsskizzen, vom Klausursteller erstellt, sind eine erste Hilfe. Sie sind aber nur ein Lösungsvorschlag. Für den Klausursteller ist es aber kaum möglich alle Antworten und Aussagen zu antizipieren, welche seine Aufgabenstellungen zu provozieren vermögen. Hier entsteht das Leid des Korrektors. Die Studierenden tendieren dazu, sich nicht an den Lösungsvorschlag zu halten. Die Korrekturarbeit beinhaltet somit nicht nur ein bloßes Abgleichen von Klausur und Lösungsvorschlag. Vielmehr nimmt der Korrektor häufig die eigentliche Wertung vor. Dazu bedarf es aber eines Verständnisses dafür, was die Qualität eines studentischen Lösungsvorschlages ausmacht, der nicht ganzheitlich der Lösung des Klausurstellers folgt. Ein Korrektor sollte somit vertiefte Fachkenntnisse im abgeprüften juristischen Gebiet mitbringen. Er braucht aber auch didaktische Kenntnisse über die Qualitätsmerkmale einer Klausur und einer Korrektur. Deshalb ist eine Schulung für Korrektoren angebracht und gemäß der Passauer Untersuchung von den Korrektoren auch gewünscht.

Die Forschung von Kramer und Hauser weist aber auch auf das Problem des Zeitaufwandes hin. Qualitativ hochwertige Korrekturen erfordern nebst der eigentlichen Korrekturarbeit auch Vor- und Nacharbeit, etwa indem der Klausursteller die Korrektoren einführt oder sich Korrektoren, welche die gleiche Prüfung korrigieren, unter einander absprechen. Häufig treten Fragen und Probleme erst während der Korrekturarbeit zu Tage, was ein nachmaliges Abstimmen unter den Korrektoren oder eine Nachfrage an den Klausursteller erfordert. Leider setzen die heute vielerorts üblichen tiefen Akkordlohnansätze keine Anreize, die Korrekturen mit der notwendigen zeitintensiven Sorgfalt auszuführen.

In der anschließenden Diskussion kam zudem auf, dass es um hochwertige Korrekturen zu gewährleisten einer Qualitätskontrolle bedarf. So könnte etwa der Prüfer einen gewissen Anteil Klausuren aus allen Bereichen des Notenspektrums gegenkorrigieren. Dies wäre zudem auch eine Variante das Prüfungsergebnis an die Prüfung rückzukoppeln. Dieses Beispiel zeigt auch, dass der Einsatz von Korrektoren, soll er didaktisch sinnvoll sein, die Klausursteller zwar teilweise entlasten kann, aber dennoch deren Einbindung in die Korrekturarbeit erfordert.

Zusammengefasst lässt sich sagen, dass Korrektoren zweifellos verlässliche Korrekturen leisten können. Dazu bedarf es allerdings eines entsprechenden zeitlichen und auch finanziellen Aufwandes. Auf alle Fälle sollte der Einsatz von Korrektoren nicht nur aus ökonomischer und institutioneller, sondern auch aus didaktischer Perspektive näher betrachtet werden.

(Lukas Musumeci)

 

Der Themenblock 4 widmete sich dem Thema »Prüfungen im europäischen Vergleich«. Dieser bestand einerseits in einem Referat der Herren Dr. Oliver Knöfel und Dr. Sebastian Mock, LL.M. von der Universität Hamburg mit dem Titel »Juristische Prüfungen in Europa – eine rechtsvergleichende Tour d’horizon«. Darin stellten die beiden Referenten anschaulich dar, welch unterschiedliche Konzeptionen dem juristischen Prüfungswesen in den europäischen Ländern zugrunde liegen. Gemeinsamkeiten sind kaum auszumachen. Es bleibt einzig die Feststellung, dass allgemein der Fokus stark auf schriftlichen Klausuren liegt. Große Unterschiede hingegen bestehen beispielsweise in der Frage der Einheitlichkeit der Prüfungen zwischen denjenigen Staaten, in welchen die Prüfungen direkt von den staatlichen Ämtern durchgeführt wird wie dies in Deutschland der Fall ist, und denjenigen, in welchen die einzelnen (staatlichen) Universitäten für die Ausgestaltung und die Durchführung von Prüfungen verantwortlich zeichnen, was zu einer relativ umfassenden Lehr- und Prüfungsautonomie der einzelnen Hochschulen führt. Ein solches Modell kennen neben der Schweiz auch beispielsweise Italien und weitere südeuropäischen Staaten. Sehr illustrativ zeigten die beiden Referenten am Beispiel von Finnland auf, welch unterschiedliche Herausforderungen sich an das Prüfungswesen in Ländern stellen, in welchen eine Eintrittsprüfung zur Aufnahme ins Jura-Studium besteht. In Finnland liegt die Durchfallquote bei diesen Numerus clausus Prüfungen bei rund 90% (!). Dadurch entfällt in Finnland de facto die andernorts umstrittene und heiß diskutierte Notwendigkeit der Selektion während des Studiums (Stichwort »wegprüfen«) und auch findet kaum ein Verdrängungswettbewerb unter den Studienabgängern statt, da aufgrund ihrer relativ geringen Anzahl keine Gefahr eines übersättigten Markts besteht.

Einen eigentlichen Höhepunkt dieser Tagung bildete für mich das Referat von Herrn Prof. Dr. Rolf Sethe, LL.M. von der Universität Zürich zum Thema »Vom Staatsexamen/Lizenziat zur Modulprüfung – Erste Erfahrungen mit juristischen Prüfungen im Bologna-System« in welchem Herr Sethe in einer an analytischer Schärfe kaum zu überbietenden Klarheit am Beispiel der Universität Zürich die massiven Auswirkungen der Bologna-Reform an den juristischen Fakultäten der Schweizer Universitäten aufzeigte: So stieg durch die Umsetzung der Bologna-Reform die Anzahl Prüfungsleistungen an der Juristischen Fakultät der Universität Zürich um den Faktor 5 (!). In fast jedem Semester ein oder mehrere Prüfungen absolvieren zu müssen ist durch die Bologna-Umsetzung zum Alltag eines jeden Schweizer Jura-Studierenden geworden, was den in der Schweiz bislang üblichen Nebenerwerb von Studierenden erschwert oder zu einer Studienzeitverlängerung führen kann. Eines der Ziele der Bologna-Reform an den Schweizer Universitäten war jedoch eine Verkürzung der Regelstudienzeit.

Eine weitere Auffälligkeit der Bologna-Umsetzung liegt in der sogenannten Noteninflation: So verzehnfachte (!) sich die Anzahl der vorzüglichen Abschlüsse (Gesamtnotendurchschnitt von über 5,5 auf einer Skala von 1-6 mit 6 als bester Note) im Masterabschluss im Vergleich zum früheren Lizentiatsabschluss. Dies führt zu einer viel geringeren Aussagekraft der Master-Prädikate für die zukünftigen Arbeitgeber. Die bisherige Erfahrung zeigt, dass die potentiellen Arbeitgeber als Konsequenz davon in ihren Beurteilungen den Bachelornoten eine größere Relevanz beimessen, da dort eine geringere Noteninflation zu beobachten ist. Die Krux dabei liegt jedoch wiederum darin, dass diese Prüfungsleistungen rund zwei Jahre vor dem Studienabschluss erzielt wurden und dadurch keine verlässlichen Angaben über die nachfolgende Entwicklung der Studierenden miteinbezogen werden können. Herr Sethe führte den Tagungsteilnehmenden sehr anschaulich vor Augen, welche indirekten Konsequenzen eine solche Noteninflation hat: Weitere, sachfremde Faktoren wie die soziale Herkunft oder das Geschlecht gewinnen bei den Einstellungsentscheiden der Arbeitgeber an Bedeutung und ein sozialer Aufstieg durch das Jura-Studium wird noch schwieriger, da Absolvierende aus Bildungshaushalten sich noch leichter durchsetzen als bisher. Solche Tendenzen können meiner Auffassung nach nicht im Interesse einer modernen Hochschulpolitik liegen.

Herrn Sethes erhellende Ausführungen befeuerten eine lebhafte Diskussion über Sinn und Unsinn der Bologna-Reform im Anschluss an sein Referat, welche im darauf folgenden Workshop ihre Fortsetzung fand. Weitgehend einig war man sich in der Feststellung, dass eine qualitativ erfolgreiche Umsetzung der Bologna-Reform ohne eine Erhöhung der von der Politik dafür bereit gestellten Mittel nicht gelingen kann. Mein persönliches Fazit: Ob die Prämisse »Hände weg von Bologna« der richtige Weg ist oder ob die oben beschriebenen Probleme ihre Ursachen nicht eher in der Umsetzung des Systems »Bologna« haben als im System an sich bleibt eine unbeantwortete Frage, über welche hoffentlich auch über diese Konferenz hinaus dies- und jenseits des Rheins fundiert debattiert wird.

(Claudio Marti)

 

Im Themenblock 6: Prüfungsforschung trug Frau Jun.-Prof. Dr. Stefanie Kemme von der Universität Hamburg unter dem Titel »Am Lernergebnis orientierter Lehr-Lernprozess« Ergebnisse einer quasiexperimentellen Untersuchung zum Erwerb juristischer Methodenkompetenz vor.

Im Zusammenhang ihrer Vorlesung zum Strafrecht BT versuchte Frau Kemme herauszufinden, ob sich durch die veränderte, kompetenzorientierte Gestaltung von Arbeitsgemeinschaften (AGs) zu dieser Vorlesung bessere Klausurergebnisse seitens der Studierenden erzielen ließen. So wurde die Hälfte der entsprechenden AGs nicht nach dem bekannten »Wir lösen einen Fall«-Vorgehen unterrichtet, bei dem der/die AG-Leiter/in – im besten Fall im Frage-Antwort-Spiel mit den Studierenden, im Extremfall in Form des Frontalunterrichts – jede Stunde einen Fall mit den Studierenden löst. Stattdessen erhielt jede AG die Aufgabe, sich selbst einen klausurmäßigen Fall auszudenken. In der Gestaltung des Sachverhaltes waren die Studierenden jedoch nicht gänzlich frei, sondern erhielten Vorgaben darüber, welche juristischen Probleme in den Fall einzuarbeiten waren. Die ausgearbeiteten Sachverhalte wurden dann jeweils an andere AGs weitergeleitet und dort gelöst. Anschließend erfolgte eine Rückleitung an die AG, die den Fall erstellt hatte. Diese staunte mitunter nicht schlecht, welche von ihr nicht vorhergesehenen Probleme noch in ihrem Fall drin steckten bzw. wie sehr die Lösung von der beabsichtigten abwich. Diese Erkenntnisse flossen dann in eine abschließende Überarbeitung der Ausgangsfälle ein.

Zunächst möchte ich an dieser Stelle Frau Kemme meinen Respekt dafür zollen, dass sie nicht nur »einfach mal versucht« hat, ihre AGs anders zu gestalten (auch wenn ihr allein dafür schon Respekt gebührt). Frau Kemme hat dieses Experiment zudem im Rahmen einer kleinen Studie durch Erhebung eines umfangreichen Datensatzes wissenschaftlich ausgewertet und auf eine Reihe von Korrelationen hin untersucht. Erfreulicherweise ließ sich dabei ein positiver (wenn auch schwacher) Effekt der kompetenzorientiert gestalteten AGs auf die Prüfungsleistung der Studierenden feststellen. An dieser Stelle wird es sich also sicher lohnen weiterzuforschen. Ein interessantes Nebenergebnis war die Feststellung, dass die Motivation der Studierenden sich auf ihre Prüfungsleistung kaum auswirkte. Dieses Ergebnis überrascht, da es im Gegensatz zu weit verbreiteten Annahmen der Hochschuldidaktik steht. Es sollte sicherlich ebenfalls weiter hinterfragt werden.

Es war jedoch ein anderer Faktor, welcher zur größten Diskussion im Anschluss an den Vortrag Anlass gab: Den mit Abstand stärksten Prädiktor für die Prüfungsleistung stellt gemäß Frau Kemmes Studie die Abiturnote der Studierenden dar. Dieser Befund wirft gleich eine Reihe von Fragen auf: Welche Faktoren bestimmen überhaupt den Erfolg in juristischen Klausuren bzw. im Jurastudium als Ganzem? Sind es dieselben wie im Abitur? Perpetuiert das Jurastudium letztlich nur die Undurchlässigkeit des Bildungssystems? Ketzerisch ließe sich auch fragen: Warum sollten wir uns über juristische Lehre überhaupt den Kopf zerbrechen, wenn aus »guten« Abiturient/innen ohnehin – und gleichsam automatisch – »gute« Absolvent/innen werden? Genau hier jedoch setzt in meinen Augen unser Auftrag als Lehrende an. Zum einen ist es dringend an der Zeit – dies war auch an der Hamburger Tagung ein wiederkehrendes Petitum –, dass wir als juristische Fakultäten uns darüber vergewissern, was unsere Absolvent/innen können und was wir dementsprechend lehren und prüfen sollen. Zum anderen sollten wir uns die Frage stellen, wie wir die Lehre verändern können, um möglichst gute Jurist/innen auszubilden,[4] und zwar unabhängig davon, ob diese bereits als gute Abiturient/innen zu uns kommen oder nicht. Nicht nur, aber auch gerade vor dem Hintergrund steigender Abiturientenzahlen sowie verkürzter Gymnasialzeiten gehört hierzu meines Erachtens insbesondere auch die Frage, ob wir als Dozierende voraussetzen können, dass Studienanfänger/innen in der Lage sind selbstbestimmt zu lernen oder ob nicht auch Studieren gelernt sein will.

Frau Kemmes Beitrag war als Anstoß zu dieser Diskussion in Hamburg sehr willkommen und wird hoffentlich zu weiteren Studien auf diesem Gebiet führen.

(Mareike Schmidt)


[1] Siehe dazu John Biggs, Enhancing teaching through constructive alignment, Higher Education 32 (1996) 347-364.

[2] Dieses Problem stellt sich auch dann, wenn der Lehrende nicht der Prüfende ist.

[3] Siehe dazu auch Christian Metzger/Charlotte Nüesch, Fair Püfen: Ein Qualitätsleitfaden für Prüfende an Hochschulen, St. Gallen 2004. Darin insbesondere zur Korrektur S. 90-100.

[4] Wie viel gute Noten in den Klausuren während des Studiums bzw. in den Staatsexamina über die Qualität eines Juristen bzw. einer Juristin aussagen, sei an dieser Stelle dahingestellt. Gerade im Zusammenhang mit unserem Absolventenprofil scheint es jedoch zwingend, dieser Frage nachzugehen.

Ähnliche Themen

Was stimmt nicht mit dem Urheberrecht?

Mit dem Urheberrecht stimmt etwas nicht. Das zeigt die intensive Debatte, die bis in den politischen Raum ausgreift.
Der Wutausbruch des Sängers Sven Regener auf Youtube hat Schule gemacht. Ein »offener Brief von 51 Tatort-Autoren«, den diese am 29. 3. 2012 auf der Seite des Verbandes Deutscher Drehbuchautoren ins Netz gestellt haben, hat eine hübsche Kontroverse ausgelöst. Die Autoren heben ihre Urheberrechte auf Verfassungsebene und verlangen von der Netzgemeinde, sich von allerhand Lebenslügen zu verabschieden. Die erste sehen sie in der »demagogischen Suggestion«, es gebe keinen freien Zugang mehr zu Kunst und Kultur; die zweite in der »demagogischen Gleichsetzung von frei und kostenfrei« und die dritte darin, dass die Verwertungsindustrie zum großen Übeltäter erklärt werde, der zur Kasse gebeten werden müsse.
Für die Adressaten (»Liebe Grüne, liebe Piraten, liebe Linke, liebe Netzgemeinde!«) haben noch am gleichen Tag 51 Hacker des Chaos Computer Club den »lieben Tatort-Drehbuchschreibern« erwidert. Ihre Antwort kam nicht nur blitzeschnell, sondern war vergleichsweise auch sehr sachlich. »Auch wir sind Urheber, sogar Berufsurheber, um genau zu sein.« Sie meinen, in erster Linie sollten Urheber sich von ihren Auftraggebern bezahlen lassen. Sie vermeiden es, darauf hinzuweisen, dass das Publikum, das eine milliardenschwere Zwangsabgabe an die Fernsehsender zahlt, vielleicht erwartet, die Tatort-Autoren (und alle anderen Fernsehschaffenden) würden von daher ausreichend bezahlt. In der Tat sehen die Hacker ein Problem bei der Verwertungsindustrie unter Einschluss der Verwertungsgesellschaften. Sie wollen die aber nicht einfach zur Kasse bitten, sondern werfen ihr vor, dass sie sich keine Mühe gebe, die geschützten Werke über die längst verfügbaren Bezahlmodelle zu angemessenen Konditionen anzubieten, sondern sich auf massenhafte Abmahnungen versteife.
Der Briefwechsel hat im Netz viele Kommentare ausgelöst. Im Feuilleton der Heimlichen Juristenzeitung vom 4. April hat sich Reinhart Müller eingemischt. Er schreibt: »51 ›Tatort‹-Autoren beklagen die Vernichtung ihrer Rechte im Internet, 51 Hacker halten dagegen – womit? Mit Ignoranz!« Der Artikel ist nur larmoyant. Er beschwört – und verschleißt damit – Menschenrechte, geht aber nicht auf die Argumente der Hacker ein, und rückt am Ende die rechtswidrige Kopie in die Nähe des Plagiats. Plagiat und unberechtigter Kopie (Raubdruck usw.) gehören nicht in einen Topf. Ein Plagiat leugnet die Urheberschaft des Schöpfers und verweigert ihm damit die verdiente Anerkennung. Das Urheberrecht schützt nicht die Idee, sondern nur seine Materialisierung. Anders als das Plagiat leugnet eine Raubkopie nicht die Urheberschaft des Schöpfers. Bei der Raubkopie geht es allein um die wirtschaftliche Komponente des Urheberrechts. Im Übrigen ist Ignoranz die beste Voraussetzung zum Querdenken, das doch sonst so angesehen ist.
Vielen Internetnutzern geht es in der Tat nur um kostenlosen Konsum geschützter und gegen Entgelt angebotener Inhalte. Aber fair use ist nicht bloß ein Rechtsbegriff. Der Fairnessgedanke steckt so tief in allen Menschen, dass die User wohl bereit wären, faire Entgelte zu zahlen. Sie finden sich jedoch unfair behandelt, weil sie das Gefühl haben, für die Urheberrechte doppelt und dreifach zu Kasse gebeten zu werden. Urheberabgaben auf Kopierer, Scanner, Faxgeräte, Drucker und Computer und für Computer nun auch noch zusätzlich Rundfunkgebühren – da kann tatsächlich der Eindruck entstehen, dass man zum Ausgleich frei herunterladen, speichern und kopieren dürfe. Wo auch immer man sich im Internet bewegt (und selbst im öffentlich-rechtlichen Fernsehen) muss man Werbung erdulden. Da kann man doch glauben, dass damit die Inhalte hinreichend bezahlt seien. Über das fehlende Unrechtsbewusstsein darf man sich jedenfalls nicht wundern. Nach der Vorstellung des Publikums gehören vermutlich jede Art der Privatkopie und auch der private Austausch zum fair use. Daher wird jeder Versuch, digitale Privatkopien zu verbieten, genauso scheitern wie der Krieg gegen die Drogen.
Fraglos muss es ein Urheberrecht geben, das den Kreativen Anerkennung und Lebensunterhalt sichert. Auch die Piraten-Partei verlangt keine Abschaffung deds Urheberrechts, sondern nur die Freistellung nichtkommerzieller Kopien. [1]Vgl. das Parteiprogramm. Aber der Schutz geht zu weit.
Der Schutz des Urheberrechts ist von keinen Qualitätsanforderungen abhängig. So werden viele Trivialitäten geschützt. Ein schlimmer und unverständlicher Exzess ist etwa der Schutz jedes Amateurfotos. Da gibt es natürlich ein Problem. Wer soll die Qualität beurteilen? Hier kommt nur eine indirekte Lösung in Betracht, insbesondere eine Registrierung, wie sie ja in manchen Ländern praktiziert wird. Vielleicht genügt sogar eine Selbstdeklaration.
Der individualistische Urheberbegriff ist problematisch geworden. Alle anspruchsvolleren Werke beruhen auf Gemeinschaftsarbeit. Sie wird in den spärlichen Danksagungen der Vorworte nicht ausreichend gewürdigt. Einen besseren Eindruck gibt der Abspann mancher amerikanischer Filme. Aber die organisierte Zusammenarbeit ist nur die halbe Miete. Jedenfalls in der Unterhaltungsindustrie, in der Kunst und in den Geisteswissenschaften leben alle mehr oder weniger von den Vorleistungen anderer. Schlimme Plagiatoren sind insoweit Journalisten, die selten oder nie ihre Quellen angeben. Da ist es kein Wunder, dass es im Urheberrecht kaum noch oder gar nicht mehr um Anerkennung und Schutz der Urheberpersönlichkeit geht, sondern um kaltes Geschäft. Ein Unterschied zum Finanzmarkt besteht immerhin darin, dass es den Usern leichter gelingt, auf fremde Konten zuzugreifen.
Die Dauer des Urheberrechts ist mit 70 Jahren über den Tod des Urhebers hinaus viel zu lang. Patente erlöschen, und zwar auch schon zu Lebzeiten des Erfinders, nach 20 Jahren. Es lässt sich darüber streiten, ob das Urheberrecht enger mit der Person des Schöpfers verbunden ist als das Patent mit der Person des Erfinders. Hier wirkt vermutlich die Genieästhetik nach (die ich sehr schätze). Aber ein Schutz bis zum Tode des Autors, mindestens jedoch 20 Jahre, müsste genügen.
Die Perpetuierung des Urheberrechts wird dadurch verstärkt, dass bloße Bearbeitungen fremder Werke ihrerseits Urheberrechtsschutz genießen. Das ist unangemessen, insbesondere dann, wenn die Bearbeitung eine vertretbare Leistung ist, etwa eine neue Edition an Hand zusätzlicher Quellen, die auch von anderen Kundigen geleistet werden könnte. [2]Dafür werde ich, wenn überhaupt jemand diese Sätze liest, Prügel beziehen. Ich werde mich wehren. Für Editionen, die die Vorleistung eines anderen einschließen, sollte es vielleicht ein 3%-Urheberrecht geben (das sich natürlich nicht realisieren lässt). Nach § 70 UrheberrechtsG gilt allerdings eine verkürzte Schutzfrist von 25 Jahren nach dem Erscheinen der Bearbeitung.
Es trifft sich, dass die Heimliche Juristenzeitung gleichfalls am 4. April 2012 einen Artikel des Heidelberger Germanisten Roland Reuß [3]Privater Reichtum durch philologische Kafka-Editionen? , S. N5, im Internet nur gegen Entgelt zugänglich. abdruckt, der Ende März Strafanzeige wegen der Verbreitung von Raubkopien zweier Bände aus der von ihm besorgten Kafka-Edition [4]Peter Staengle Historisch-kritische Ausgabe sämtlicher Handschriften, Drucke und Typoskripte, Stroemfeld Verlag Frankfurt, Peter Staengle. Originalpreis: 128 Euro. Bei Amazon wurden anscheinend … Continue reading erstattet hatte. Die Nachricht über die Strafanzeige [5]Darüber berichtete auch die FAZ am 29. 3. 2012 mit einem Artikel von Felicitas von Lovenberg unter der Überschrift »Hehlerei von geistigem Eigentum. im Börsenblatt des Deutschen Buchhandels vom 29. 3. 2012 hatte bis zum 4. 4. im Internet 37 Kommentare auf sich gezogen. Besonders empört zeigt Reuß sich über einen Kommentar, in dem es heißt:
»Ohne das Verhalten von Amazon und Nabu Press gutheißen zu wollen: Da ist ein Professor für neuere deutsche Literaturwissenschaft in Heidelberg und erhält seine Bezüge von uns Steuerzahlern. Teil seiner wissenschaftlichen Arbeit ist die Kommentierung von Kafka, für die er durch den Steuerzahler entlohnt wurde. Nun nimmt er sich das Recht heraus und publiziert diese in einem Verlag. Dieser Verlag hat kaum Kosten, da der Steuerzahler bereits die Kosten der wissenschaftlichen Bibliothek, das Arbeitszimmer, inkl. Einrichtung und vor allem die monatlichen Bezüge von Herrn Reuß übernommen hat.«
Reuß beschimpft die Kommentarspalten der Internetseiten als »angeblich so basisdemokratische Art, unter Pseudonym ›die Sau rauslassen zu können‹ «. Doch anstatt auf die Meinung der Kommentatorin einzugehen [6]Sie hatte ihren Namen genannt. Ich kann nicht erkennen, dass es sich um ein Pseudonym handelt., dass aus Steuermitteln bezahlte Wissenschaftler den Ertrag ihrer Arbeit doch eigentlich frei zugänglich machen müssten – eine Ansicht, mit der der Kommentar nicht alleine steht – erklärt Reuß, dass er die Arbeit für die Kafka-Edition als selbstfinanzierte Nebentätigkeit im häuslichen Arbeitszimmer erledigt habe. Da ist Mitleid angezeigt. Davon abgesehen: Die Forderung nach Open Access für wissenschaftliche Veröffentlichungen stützt sich in erster Linie nicht auf die Finanzierungsform, sondern auf den öffentlichen Charakter der Wissenschaft und ist damit eines Frage des wissenschaftlichen Ethos. [7]Gerhard Fröhlich, Die Wissenschaftstheorie fordert Open Access (am 12. 9. 2009 auf Telepolis).
Eine andere Perpetuierung des Urheberrechts, die immer wieder auf Unverständnis stößt, ist der Schutz für bloße bildliche Reproduktion eines an sich schon gemeinfreien Werkes. Ich halte es hier mit Wikimedia Commons, die in Anlehnung an das New Yorker Urteil Bridgeman Art Library v. Corel Corp. (1999) davon ausgehen, dass jede auf Originaltreue angelegte Reproduktion eines gemeinfreien zweidimensionalen Werks ihrerseits gemeinfrei ist.
Das Urheberrecht in seiner gegenwärtigen Gestalt hat seine Legitimation verloren.

Nachtrag Juni 2012:
Manchmal merke ich selbst nicht gleich, wie nahe die Dinge beieinander liegen. Die Blogsoftware von WordPress verweist automatisch am Ende eines Eintrags auf »ähnliche Artikel«. Das System, nachdem diese Verweisungen funktionieren, ist mir nicht klar. So hätte bei diesem Eintrag eigentlich auch auf Rechtssoziologisches zum Urheberrecht? verwiesen werden müssen. Verwiesen wird immerhin auf den Eintrag vom 12. Mai 2011 Das Urheberrecht ist nicht komisch: Bound by Law. Dabei ist mir selbst eine wichtige Verknüpfung zunächst nicht aufgefallen. In jenem Eintrag ging es eigentlich um Keith Aoki. Aber als sein Mitautor wurde auch James Boyle genannt.
James Boyle ist ein wichtiger Theoretiker und Praktiker der kulturellen Allmende. Bisher hatte ich ihn nur als Praktiker zur Kenntnis genommen und als solchen in dem Eintrag über Keith Aoki erwähnt. Erwähnung verdient er aber auch als Theoretiker der Urheberrechtsdebatte. Er prägte er den Begriff des Second Enclosure Movement [8]James Boyle, The Second Enclosure Movement and the Construction of the Public Domain, Law and Contemporary Problems 66, 2003, 32-74. Gemeint war die schleichende Ausweitung der Immaterialgüterrechte, sei es der Patentrechte auf das menschliche Genom, auf Naturstoffe, biologische Prozesse und traditionelle Rezepte, sei des Urheberrechts durch Ausweitung des Umfangs und Ausdehnung auf Ideen, Software und Daten. »Second« Enclosure deshalb, weil Boyle diese Ausweitung des geistigen Eigentums mit Auflösung der Allemenden im 18. und 19. Jahrhundert und ihrer Überführung in Privateigentum (enclosure of the commons) verglich.

Anmerkungen

Anmerkungen
1 Vgl. das Parteiprogramm.
2 Dafür werde ich, wenn überhaupt jemand diese Sätze liest, Prügel beziehen. Ich werde mich wehren.
3 Privater Reichtum durch philologische Kafka-Editionen? , S. N5, im Internet nur gegen Entgelt zugänglich.
4 Peter Staengle Historisch-kritische Ausgabe sämtlicher Handschriften, Drucke und Typoskripte, Stroemfeld Verlag Frankfurt, Peter Staengle. Originalpreis: 128 Euro. Bei Amazon wurden anscheinend Raubdrucke für unter 20 Euro angeboten. Das ist sicher unerhört, aber nach meiner Vorstellung weniger wegen eines Urheberrechtsverstoßes als nach dem UWG wegen der gewerblichen Ausnutzung einer fremden Vorleistung.
5 Darüber berichtete auch die FAZ am 29. 3. 2012 mit einem Artikel von Felicitas von Lovenberg unter der Überschrift »Hehlerei von geistigem Eigentum.
6 Sie hatte ihren Namen genannt. Ich kann nicht erkennen, dass es sich um ein Pseudonym handelt.
7 Gerhard Fröhlich, Die Wissenschaftstheorie fordert Open Access (am 12. 9. 2009 auf Telepolis).
8 James Boyle, The Second Enclosure Movement and the Construction of the Public Domain, Law and Contemporary Problems 66, 2003, 32-74.

Ähnliche Themen

Nachträge zu älteren Postings

Heute habe ich wieder verschiedene Nachträge zu älteren Postings geschrieben. Die Leser meines Blogs werden die alten Einträge kaum nach solchen Ergänzungen durchforsten. Andererseits würde das Blog künstlich aufgebläht, wenn aus jedem Nachtrag ein selbständiger Eintrag würde. Daher werde ich in Zukunft gelegentlich eine kleine Sammlung von Nachträgen posten, diesen Eintrag dann aber nach etwa einem Monat wieder löschen. Die Nachträge als solche bleiben erhalten. Sonst werden grundsätzlich keine Einträge gelöscht.
Hier also die Nachträge aus den letzten Tagen:

Zu »Lawfare«
Nachtrag vom 5. April 2012: In der Heimlichen Juristenzeitung berichtet Katja Gelinsky heute unter der Überschrift »Recht ohne Grenzen« über den aktuellen Stand der Kontroverse über die Reichweite des Alien Tort Claims Act in den USA. Der Artikel ist nur im kostenpflichtigen Archiv der Zeitung zugänglich. Nähere Informationen findet man auf Scotus-Blog. Auch die zahlreichen Amicus-Briefs sind verlinkt, darunter auch derjenige, mit dem sich die deutsche Bundesregierung gegen die extraterritoriale Anwendung des Gesetzes wendet.

Zu »Herstellung und Darstellung juristischer Entscheidungen«
Nachtrag vom 5. April 2012: Als Beiheft 44 der Zeitschrift für Historische Forschung, hg. von Barbara Stollberg-Rilinger und André Krischer, ist 2010 ein Tagungsband »Herstellung und Darstellung von Entscheidungen, Verfahren, Verwalten und Verhandeln in der Vormoderne« erschienen. Auf HSozKult gibt es einen Tagungsbericht von Andreas Pecar und eine Rezension von Hanna Sonkajärvi. Ich habe den Band noch nicht in der Hand gehabt. Nach den Berichten zu urteilen, handelt es sich um das übliche Wiederkäuen etablierter rechtssoziologischer Themen und dem kulturwissenschaftlichen Label. Die Differenz von Herstellung und Darstellung, die mein Thema war, wird in dem Band anscheinend nicht behandelt.

Zu »In eigener Sache IX: Wissenschaftsblogging wird domestiziert«
Nachtrag vom 5. April 2012: Nun gibt es bei HSozKult einen wirklich informativen Tagungsbericht von Christof Schöch.
Nachtrag vom 28. März 2012: Hier noch etwas ausführlicher die Links zu der Münchener Tagung und zu den dort gehaltenen Vorträgen, die zum Teil mit Podcasts und Vodcasts verbunden sind:
Programm und Ankündigung der Tagung »Weblogs in den Geisteswissenschaften«
Klaus Graf: Wissenschaftsbloggen in Archivalia & Co. Schriftliche Fassung des Beitrags
Eröffnungsvortrag von Mareike König.
Darin bezieht sich Frau König auf folgende Veröffentlichungen:
Anita Bader, Gerd Fritz und Thomas Gloning, Digitale Wissenschaftskommunikation 2010-2011: Eine Online Befragung, Justus-Liebig-Universität 2012, S. 12, 67, 71, 72
Klaus Graf, Mareike König: Entwicklungsfähige Blogosphäre – ein Blick auf deutschsprachige Geschichtsblogs, 2011
Alle Vorträge sollen online im iTunes-Canal der LMU frei zugänglich sein. Ich habe sie mir nicht angetan.
An Stelle einer Blogroll gibt es den Verweis auf einen »Katalog«, der immerhin 354 Blogs aus 16 Ländern, darunter fünf deutsche, verzeichnet. Ich habe keinen gefunden, der für meine Blogroll von Interesse sein könnte.

Ähnliche Themen

Zu Legalisierung von Cannabis II: Steht die zweite Prohibition vor dem Aus?

Im Juni 2011 erschien der Bericht einer »Weltkommission für Drogenpolitik« mit dem Titel »Krieg gegen die Drogen«. Er beginnt dramatisch mit der Feststellung:

Der weltweite Krieg gegen die Drogen ist gescheitert, mit verheerenden Folgen für die Menschen und Gesellschaften rund um den Globus.

und schlägt vor:

Der Kriminalisierung, Ausgrenzung und Stigmatisierung von Menschen, die Drogen konsumieren, aber anderen keinen Schaden zufügen, ein Ende setzen. Die verbreiteten falschen Vorstellungen über Drogenmärkte, Drogenkonsum und Drogenabhängigkeit in Frage stellen, statt sie zu bekräftigen.

Wer die Kommission eingesetzt hat, ist mir weder aus dem Bericht noch aus ihrer Webseite richtig klar geworden. Aber die Mitglieder sind so prominent, dass ihr Wort Gewicht hat. Irgendwann sind zu einem Thema mehr oder weniger alle Argumente ausgetauscht. Dann können nur noch soziale Bewegungen oder Autoritäten die Dinge im politischen Raum vorantreiben. Die Mitglieder der Kommission verfügen über so viel Autorität, dass die Dinge in Bewegung kommen könnten, nicht zuletzt, weil viele von ihnen aus dem konservativen Lager kommen, das den von Präsident Nixon vor 40 Jahren ausgerufenen War on Drugs als moralischen Kreuzzug versteht. Mitglieder der Kommission sind u. a. die früheren Präsidenten von Brasilien und Mexico, Fernando Henrique Cardoso und Ernesto Zedillo, aus der Ära Ronald Reagans der Außenminister George Shultz und der Chairman des Federal Reserve System Paul Volcker, der frühere Generalsekretär der UN, Kofi Annan, und der Schriftsteller Mario Vargas Llosa.
Anlass zu diesem Posting ist ein kurzer Artikel in der »Time« vom 2. April 2012 [1]Fareed Zakaria, Incarceration nation. The war on drugs succeded only in putting Millions of Americans in jail., der darauf aufmerksam macht, dass die extreme Zahl der verhängten und vollstreckten Haftstrafen in erster Linie auf Drogendelikte (und die dafür verhängten Mindeststrafen) zurückgeht. In den USA beträgt die Quote der Strafgefangenen 760 auf 100.000 Einwohner. In Deutschland sind es 90. [2]Die World Prison Population List des King College London, International Centre for Prison Sudies, nennt etwas abweichende Zahlen, nämlich für die USA für 743 (2009) und für Deutschland 85 (2010). Inzwischen entwickelt die teilweise privatisierte Gefängnisindustrie in den USA insofern eine Eigendynamik, als sie zur Methode der Wirtschaftsförderung in unterentwickelten Landstrichen geworden ist. Vielleicht kommt aus dieser Ecke jetzt ein hartnäckigerer Widerstand gegen die Liberalisierung des Drogenkonsums als von der Front der Moralapostel. Diesen Punkt hat schon vor vielen Jahren Nils Christie in »Crime Control as Industry« (3. Aufl. 2000) aufgespießt.
Natürlich ist die Problematik der Masseninhaftierung in den USA längst zum Thema geworden. Aber darüber kann ich nicht kompetent berichten. Hier nur einige Literaturhinweise, die ich noch nicht alle ausgewertet habe:
Loïc Wacquant, Von der Sklaverei zur Masseneinkerkerung. Zur »Rassenfrage« in den Vereinigten Staaten, Das Argument Nr. 294 vom 20. 1. 2004, teilweise unter http://www.linksnet.de/de/artikel/18600.
Marie Gottschalk, The Prison and the Gallows: The Politics of Mass Incarceration in America, Cambridge University Press 2006 (Rez. von Joseph F. Spillane, Law & Society Review 41, 2007, 936-937);
Mary Bosworth, Explaining U. S. Imprisonment, Sage Publications, 2010;
Jonathan Simon, Governing Through Crime: How the War on Crime Transformed American Democracy and Created a Culture of Fear, Oxford Univ. Press, 2009;
Bernard E. Harcourt, On the American Paradox of Laissez Faire and Mass Incarceration; University of Chicago Institute for Law & Economics Olin Research Paper No. 590; U of Chicago, Public Law Working Paper No. 376 (2012), verfügbar bei SSRN: http://ssrn.com/abstract=2020659. Es handelt sich um die Ewiderung auf eine Rezension eines eigenen Buches, das an sich mit dem Thema nicht direkt etwas zu tun hat. Harcourt wendet sich u. a. gegen den Vorwurf der »Foucaultphilie«. Den Ausdruck kannte ich noch nicht.
Nachtrag Juni 2012:
Nachzutragen ist ein Hinweis auf Gary S. Becker/Kevin M. Murphy/Michael Grossman, The Economic Theory of Illegal Goods: The Case of Drugs, 2004 (NBER Working Paper 10976: http://www.nber.org/papers/w10976). Die Autoren kommen zu dem Ergebnis, dass eine Legalisierung weicher Drogen verbunden mit einer hohen Besteuerung wirksamer ist als die strafrechtliche Verfolgung, auch wenn es natürlich Versuche geben werde, die Steuer zu vermeiden. Langsam schwenken auch die Medien auf den Legalisierungskurs ein, so ein großer Artikel von Claudius Seidl und Harald Staun in der FamS vom 29. 4. 2012 (»Machen wir Frieden mit den Drogen«).

Anmerkungen

Anmerkungen
1 Fareed Zakaria, Incarceration nation. The war on drugs succeded only in putting Millions of Americans in jail.
2 Die World Prison Population List des King College London, International Centre for Prison Sudies, nennt etwas abweichende Zahlen, nämlich für die USA für 743 (2009) und für Deutschland 85 (2010).

Ähnliche Themen