Der Kampf ums Recht – ein großartiges Tagungsmotto, nicht ganz verschenkt

Mitte Januar erschien der Call for Papers für den Dritten Kongress der deutschsprachigen Rechtssoziologie-Vereinigungen, der unter dem Titel »Die Versprechungen des Rechts« vom 9.-11.September 2015 in Berlin stattfinden soll. Das war für mich Anlass, den Tagungsband der vorangegangenen Veranstaltung [1]Josef Estermann (Hg.), Der Kampf ums Recht. Akteure und Interessen im Blick der interdisziplinären Rechtsforschung, Wien 2013. zur Hand zu nehmen, die 2011 in Wien stattfand (und an der ich nicht teilgenommen habe). Das wunderbare Generalthema der Tagung »Der Kampf ums Recht« war natürlich eine Anspielung auf Rudolf von Iherings berühmten Traktat »Kampf um‘s Recht« von 1872. [2]Über die Webseite von Gerhard Köbler (Innsbruck) findet man den Originaltext Iherings und ebenso den des vorausgegangenen Vortrags mit demselben Titel..

Erwartungsvoll habe ich zunächst den Eröffnungsvortrag von Peter Koller »Der Kampf um Recht und Gerechtigkeit: Soziologische und ethische Perspektiven« gelesen – und war enttäuscht, denn der Vortrag ergeht sich in einer Ihering-Schelte und läuft auf eine Philippika gegen den »neoliberalen Kreuzzug gegen den Wohlfahrtsstaat« hinaus. Damit verfehlt er den heute relevanten rechtssoziologischen Gehalt von Iherings Text.

Geärgert habe ich mich, weil Koller über »Meriten und Schwächen von Iherings Traktat« redet. Was Ihering am Zustand des damals aktuellen Privatrechts auszusetzen habe, erscheine »vor dem Hintergrund der damals virulenten Sozialen Frage doch ziemlich lächerlich«. Seine Beispiele reflektierten »eher die Klassenvorurteile seines großbürgerlichen Milieus als die drängenden sozialen Konflikte seiner Zeit.« Seine »Thesen enthalten richtige Einsichten, die nicht nur im Kontext des 19. Jahrhunderts vorherrschenden Rechtsdenkens innovativ und originell waren, sondern auch heute noch eine gewisse Aktualität besitzen; aber sie haben in der Form, wie sie von Ihering ausgeführt wurden, auch einige nicht unerhebliche Mängel.« (S. 17). So darf man mit Texten von Zeitgenossen umgehen, nicht jedoch mit einem klassischen Text, der bald 150 Jahre alt ist. Sicher war Ihering alles andere als ein Sozialist. Aber seine Ausführungen öffnen das Recht in vollem Umfang dem sozialistischen Programm der Politiker August Bebel und Wilhelm Liebknecht und des Juristen Anton Menger, die Koller als leuchtende Gegenbeispiele anführt.

»In allen solchen Fällen nun, wo das bestehende Recht diesen Rückhalt am Interesse findet, gilt es einen Kampf, den das Neue zu bestehen hat, um sich den Eingang zu erzwingen, ein Kampf, der sich oft über ganze Jahrhunderte hinzieht. Den höchsten Grad der Intensität erreicht derselbe dann, wenn die Interessen die Gestalt erworbener Rechte angenommen haben. Hier stehen sich zwei Parteien gegenüber, von denen jede die Heiligkeit des Rechts als Wahlspruch in ihrem Panier führt, die eine die des historischen Rechts, des Rechts der Vergangenheit, die andere die des ewig werdenden und sich verjüngenden Rechts, des Urrechts der Menschheit auf stets neues Werden … . Alle großen Errungenschaften, welche die Geschichte des Rechts zu verzeichnen hat: die Aufhebung der Sklaverei, der Leibeigenschaft, die Freiheit des Grundeigentums, der Gewerbe, des Glaubens u. a. m., sie alle haben erst auf diesem Wege des heftigsten, oft Jahrhunderte lang fortgesetzten Kampfes erstritten werden müssen, und nicht selten bezeichnen Ströme von Blut, überall aber zertretene Rechte den Weg, den das Recht dabei gewandelt ist. Denn ›das Recht ist der Saturn, der seine eigenen Kinder verspeist‹; das Recht kann sich nur dadurch verjüngen, daß es mit seiner eigenen Vergangenheit aufräumt.« (Ihering, wie Fn. 2, S. 68)

Das war ein rechtssoziologischer Freibrief für eine soziale Revolution.

Koller entnimmt Iherings Text zwei rechtssoziologische und die

»rechtsethische These, dass es moralische Pflicht aller Einzelnen ist, zur Aufrcchterhaltung einer den sozialen Frieden sichernden Rechtsordnung nach Kräften beizutragen, indem sie die Durchsetzung ihrer Rechte im Wege der zur Verfügung stehenden rechtlichen Möglichkeiten erstreiten.« (S. 17)

Diese These bezieht sich u. a. auf folgende Aussagen Iherings:

»Der Kampf ums Recht sei eine Pflicht des Berechtigten gegen sich selbst, denn das Recht sei ›die moralische Existenzialbedingung der Person, die Behauptung desselben ihre moralische Selbsterhaltung‹. Es komme daher einem moralischen Selbstmord gleich, die Missachtung des eigenen Rechts durch Andere zu dulden. Jhering illustriert diese These am Beispiel des Bauern, der sein Eigentum um jeden Preis verteidige, weil es Grundlage oder Produkt seiner Arbeit sei. Er konstatiert jedoch mit Bedauern den Unwillen vieler Menschen, ihr Eigentum nach Kräften zu verteidigen, weil die sittliche Grundlage dieses Rechts immer mehr unterhöhlt werde: ›wo jeder Rest von der sittlichen Idee des Eigenthums abhanden gekommen ist, kann freilich von einem Gelühl der sittlichen Pflicht der Vcrtheidigung desselben nicht mehr die Rede sein; für den Eigenthumssinn, wie er in Jedem lebt, der sein Brod im Schweisse seines Angesichts verdienen muss. fehlt es hier an jeglichem Verständniss. …– der Communismus gedeiht nur in jenem Sumpfe, in dem die Eigenthumsidee sich völlig verlaufen hat. an ihrer Quelle kennt man ihn nicht.‹ [3]Ihering-Zitate in der oben angeführten Ausgabe S. 91 ff.« (Koller S. 16)

Gegenüber der normativen Verpackung, mit der Ihering den Kampf ums Recht versieht, wäre ich eher noch distanzierter als Koller. Ich sehe nicht, dass es überhaupt eine moralische Pflicht zur rechtsförmigen Durchsetzung von Rechten geben könnte. Doch es wirkt wie ein kleiner Seitenhieb, wenn man Ihering nicht etwas vollständiger zitiert, denn dann lässt sich sein Text durchaus als Kritik kapitalistischen Eigentums verstehen.

»Nur durch die dauernde Verbindung mit der Arbeit kann sich das Eigentum frisch und gesund erhalten, nur an dieser seiner Quelle, aus der es unausgesetzt sich von neuem erzeugt und erfrischt, zeigt es sich klar und durchsichtig bis auf den Grund als das, was es dem Menschen ist. Aber je weiter der Strom sich von dieser Quelle entfernt und abwärts in die Regionen des leichten oder gar mühelosen Erwerbs gelangt, desto trüber wird er, bis er endlich im Schlamm des Rörsenspiels und des betrügerischen Aktienschwindels jede Spur von dem, was er ursprünglich war, verliert. An dieser Stelle, wo jeder Rest der sittlichen Idee des Eigentums abhanden gekommen ist, kann freilich von einem Gefühl der sittlichen Verpflichtung der Verteidigung desselben nicht mehr die Rede sein; für den Eigentumssinn, wie er in jedem lebt, der sein Brot im Schweiße seines Angesichts verdienen muß, fehlt es hier an jeglichem Verständnis.« [4]Ihering a. s. O. S. 93f.

Wichtiger sind die rechtssoziologischen Thesen. Die erste, die Koller herauspräpariert,

»besagt, dass das Recht, um den sozialen Frieden zu garantieren, einen dynamischen Prozess der Konfliktaustragung zwischen sozialen Gruppierungen und einzelnen Personen organisiert, der sich nach Maßgabe der bestehenden Machtverhaltnisse in den generellen Regeln der Rechtsordnung niederschlägt, deren effektive Verwirklichung aber die ständige Bereitschaft der Einzelnen erfordert, auf die Beachtung und Wahrung ihrer Rechte gegenüber Anderen zu pochen.« (S. 17)

So formuliert ist die These blass, krumm, schief und hohl. Sie ist blass, wenn man die starken Worte Iherings daneben hält. Sie ist krumm, weil sie nur den Teil von Iherings Text aufnimmt, der sich mit der Durchsetzung subjektiver Rechte befasst. Sie ist schief, weil sie viel positivistischer als Ihering selbst davon ausgeht, dass es Rechte gibt, die in einem geordneten Verfahren durchgesetzt werden können. Und sie ist hohl, weil sie die zeitgemäß pathetischen Fomulierungen zur Pflicht der Menschen, ihre Rechte zu wahren, nicht von den handfesten Ausführungen zur Bedeutung eines überschießenden Rechtsgefühls oder Gerechtigkeitssinns zu trennen vermag.

Koller referiert die einschlägigen Aussagen Iherings, um daraus die zweite rechtssoziologische These abzuleiten:

»Die Durchsetzung privater Rechte im Wege privatrechtlicher Prozesse gestalte sich dabei keineswegs nur als ein reines Rechenexempel, ›bei dem Vortheile und Nachtheile auf beiden Seiten gegen einander abgewogen werden und darnach der Entschluss bestimmt wird‹, weil bei vielen dieser Prozesse ›der Wert des Streitobjects ausser allem Verhältnis steht zu dem voraussichtlichen Aufwand an Mühe. Aufregung, Kosten‹. Was Menschen dazu treibe, solche Prozesse zu fiihren, sei entgegen der vorherrschenden Ansicht nicht ihre ›Processsucht‹, sondern ihr ›Rechtsgefühl‹: ›Nicht das Interesse ist es, das den Verletzten antreibt, den Process zu erheben, sondern der moralische Schmerz über das erlittene Unrecht; nicht darum ist es ihm zu thun, bloss das Object wieder zu erlangen […], sondern darum, sein Recht zur Anerkennung zu bringen.‹ « (S. 15)

Er extrahiert daraus eine zweite rechtssoziologische These Iherings, die These nämlich,

»dass die einzelnen ihre – oft ja keineswegs bestimmten und unzweifelhaften – Rechte in der Regel nicht bloß in Verfolgung ihrer eigenen Interessen, sondern um der Gerechtigkeit willen verteidigen«,

bezweifelt, ob diese These empirisch zutrifft,

»Obwohl im Allgemeinen den Gerechtigkeitspflichten prinzipieller Vorrang vor partikularen Interessen zukommt, pflegen die Menschen in ihrem realen Handeln zwischen beiden abzuwägen statt sich ausschließlich von dem einen oder dem anderen Motiv leiten zu lassen. Allerdings behalten die partikularen Eigeninteressen häufig die Oberhand, weil sie meist stärker motivieren als die schwache Stimme von Moral und Gerechtigkeit.« (Koller S. 18)

und belegt seine Zweifel durch einen Verweis auf »Koller 2005« (S.22). Aus Iherings »Rechtsgefühl« wird »um der Gerechtigkeit willen«. Das führt in die Irre. Es kann ja wohl nur um die Durchsetzung einer subjektiven Gerechtigkeitsvorstellung gehen. Man kann sich zwar vorstellen, dass eine Partei den Rechtsweg aus rein strategischen Überlegungen der Interessendurchsetzung wählt. [5]Ein Beispiel mit Wikipedia-Rang SLAPP = Strategic lawsuit against public participation. [http://en.wikipedia.org/wiki/Strategic_lawsuit_against_public_participation] Das mag etwa für die so genannten Repeat Player gelten. Aber für One Shotter, an die Ihering wohl in erster Linie gedacht hat, lässt sich der Gang zur Gericht, vor allem aber dessen Fortsetzung bis zum bitteren Instanzenende, in vielen Fällen nicht als rational choice erklären, sondern nur aus einer überschießenden Motivation, die daher rührt, dass die Partei den Konflikt als Wertkonflikt um Wahrheit und Recht führt. [6]Locus classicus Vilhelm Aubert, Competition and Dissensus: Two Types of Conflict and of Conflict Resolution, Journal of Conflict Resolution 7, 1963, 26-42. Im Rechtsstreit werden subjektive Wahrheits- und Gerechtigkeitsvorstellungen als objektiv gültig in Anspruch genommen, und daraus wächst eine rational choice übersteigende Energie. Das ist ein »Rechtsgefühl«, das mit Gerechtigkeit, wie sie sich der akademische Bobachter vorstellt, wenig zu tun hat. Es motiviert immer wieder dazu, dass nicht unbedingt zweckrationale Anstrengungen als Kampf ums Recht das Recht verändern. [7]Dazu passt etwa Eike Frenzel, Organe der Verfassungsrechtspflege (Freiburg Law Student Journal. Jubiläumsausgabe, Dezember 2011, S. … Continue reading

Gerichtliche Verfahren haben vielfach verfahrensexterne Ziele und Wirkungen. [8]Armin Höland, Wie wirkt Rechtsprechung?, Zeitschrift für Rechtssoziologie 30, 2009, 23-46. So liegt die Pointe von Iherings Text darin, dass aus dem durchaus egoistischen Kampf für partikulare Interessen ein gemeinwohlverträgliches Recht entstehen kann. Wer mag, kann da eine Parallele zur unsichtbaren Hand des Marktes sehen. Wer aber gerade eine Attacke gegen den Neoliberalismus reitet, wird dafür kein Auge haben.

Natürlich war Ihering nicht auf dem Stand der Rechtssoziologie von heute. Deshalb ist es richtig, das Koller einige Umstände anspricht, welche die Chancen im Rechtskampf verzerren. Die verfahrensexternen Umstände werden in der Rechtssoziologie als Mobilisierung von Recht und Zugang zum Recht thematisiert, für die Charakterisierung der Kampfarena selbst und die Spielregeln spricht man von Erfolgsbarrieren oder erinnert an das nicht mehr ganz treffende Schlagwort von der Klassenjustiz. Wichtiger aber ist die Entwicklung neuer Waffengattungen für den Rechtskampf, die Ihering so nicht vorhersehen konnte, die sich aber nahtlos in sein Konzept einfügen. Zur stärksten Waffe sind die Menschenrechte geworden. Was in Deutschland als Konstitutionalisierung des Rechts auf den Begriff gebracht wird, ist bis zu einem gewissen Grade ein globales Phänomen. Wer gegen Rassismus und Diskriminierungen kämpfen will, ist nicht unbedingt mehr auf konkrete Gesetze angewiesen, sondern kann allein mit der Behauptung einer Verletzung sein Recht einfordern. Seit der Entscheidung Brown gegen Board of Education of Topeka von 1954 ist der Rechtsstreit zum bevorzugten Kampfplatz für rassische und ethnische Minoritäten geworden, und in ihrem Windschatten haben sich auch andere Minderheiten, insbesondere solche mit abweichender sexueller Orientierung, Rechtsschutz gegen Diskriminierung erkämpft. Andere wirkungsvolle Waffen im Rechtskampf sind Popular-, Verbands- und Sammelklagen, cause lawyering sowie eine Infrastruktur von mehr oder weniger agressiven Rechtsschutz- und Rechtshilfeeinrichtungen auch der Zivilgesellschaft. Verbraucher- und Mieterschutz leben zu einem guten Teil von Prozessaktivitäten. Umweltschutzgesetze finden vor Gericht eigennützige und uneigennützige Verteidiger. Für Flüchtlinge ist der Kampf ums Recht oft das letzte Mittel gegen eine Abchiebung. So ist der Rechtsstreit – in den USA mehr noch als in Europa [9]Der Unterschied zeigt sich darin, dass einschlägige Untersuchungen in der Zeitschrift für Rechtssoziologie seltener sind als im Law and Society Review oder in Law and Social Inquiry, wo man in … Continue reading – zum Motor sozialen Wandels geworden.

Von den auf den Einleitungsvortrag folgenden 20 Beiträgen, die im Tagungsband abgedruckt sind, nehmen nach meinem Eindruck neun den Kampfgedanken Iherings mehr oder weniger (un-)deutlich auf, und zwar bis auf den Beitrag von Struck nicht auf der Ebene der Rechtsverfolgung, sondern für die Regelbildung, vor allem für die Gesetzgebung. Damit scheint das Generalthema der Tagung eher verschenkt zu sein. Aber das geht wohl nicht anders, wenn man eine solche Tagung organisiert. Legt man Wert auf eine große Teilnehmerzahl — es wurden wohl an die 150 Vorträge gehalten [10]Vgl. den Abstractband »Der Kampf ums Recht, Akteure und Interessen im Blick der interdisziplinären Rechtsforschung« 2011, herausgegeben von Christian Boulanger/Michelle Cottier/Josef … Continue reading – lässt sich die Themenwahl nicht steuern. Dafür war das wunderbare Tagungsthema ein gutes Motto.

Anmerkungen

Anmerkungen
1 Josef Estermann (Hg.), Der Kampf ums Recht. Akteure und Interessen im Blick der interdisziplinären Rechtsforschung, Wien 2013.
2 Über die Webseite von Gerhard Köbler (Innsbruck) findet man den Originaltext Iherings und ebenso den des vorausgegangenen Vortrags mit demselben Titel.
3 Ihering-Zitate in der oben angeführten Ausgabe S. 91 ff.
4 Ihering a. s. O. S. 93f.
5 Ein Beispiel mit Wikipedia-Rang SLAPP = Strategic lawsuit against public participation. [http://en.wikipedia.org/wiki/Strategic_lawsuit_against_public_participation]
6 Locus classicus Vilhelm Aubert, Competition and Dissensus: Two Types of Conflict and of Conflict Resolution, Journal of Conflict Resolution 7, 1963, 26-42.
7 Dazu passt etwa Eike Frenzel, Organe der Verfassungsrechtspflege (Freiburg Law Student Journal. Jubiläumsausgabe, Dezember 2011, S. 7-11[http://www.freilaw.de/organe-der-verfassungsrechtspflege/747): »Beschwerdeführer muss man nicht unnötig als Helden bezeichnen, aber indem sie – mit notwendigem Beharrungsvermögen bis hin zu signifikanter Querulanz – Verfahren notfalls bis zum Bundesverfassungsgericht betreiben, erweisen sie sich als Förderer der Verfassung. … So wäre die Rechtsprechung des Bundesverfassungsgerichts um viele Aspekte ärmer, wenn Wilhelm Elfes, Erich Lüth und Karl-Heinz Röber oder – in jüngerer Zeit – Kazim Görgülü, Irene Katzinger-Göth und Julia Kümmel nicht bis zum Bundesverfassungsgericht gezogen wären, von regelmäßig wiederkehrenden Beschwerdeführern wie Gerhart Baum sowie Caroline und Ernst-August von Hannover ganz zu schweigen«. Ich würde zu dieser Sammlung noch den Kohlepfennig BVerfGE 91, 186 hinzutun.
8 Armin Höland, Wie wirkt Rechtsprechung?, Zeitschrift für Rechtssoziologie 30, 2009, 23-46.
9 Der Unterschied zeigt sich darin, dass einschlägige Untersuchungen in der Zeitschrift für Rechtssoziologie seltener sind als im Law and Society Review oder in Law and Social Inquiry, wo man in jedem Jahrgang mehrfach fündig wird.
10 Vgl. den Abstractband »Der Kampf ums Recht, Akteure und Interessen im Blick der interdisziplinären Rechtsforschung« 2011, herausgegeben von Christian Boulanger/Michelle Cottier/Josef Estermann/Elisabeth Holzleithner/Reinhard Kreissl/Stefan Machura/Wolfgang Stangl/Michael Wrase.

Ähnliche Themen

In eigener Sache X: Blog »Recht anschaulich« ist eingestellt

Bald nach Erscheinen des Bandes »Recht anschaulich« im Herbert von Halem Verlag im Jahre 2007 hatte ich auf Anregung des Verlegers ein Begleitblog gleichen Namens eingerichtet, und ich habe dort bis zum Sommer letzten Jahres auch regelmäßig gepostet. Das Blog diente mir nicht zuletzt als Materialsammlung für eine Neuauflage des Buches. Für eine Neuauflage sehe ich jedoch keine Chance mehr, nicht zuletzt weil mir der Mitautor abhanden gekommen und ein Nachfolger nicht in Sicht ist. Aber auch meine Interessen haben sich verlagert. »Recht anschaulich« war ein unvorhergesehenes Nebenprodukt des letzten Forschungsprojekts meiner aktiven Zeit als Lehrstuhlinhaber, das sich mit der »Visuellen Rechtskommunikation« befasste.

»Recht anschaulich« war insofern relativ erfolgreich, als es den Start der juristischen Hochschuldidaktik anschob, nach der man damals vergeblich suchte. Inzwischen ist die Rechtsdidaktik institutionalisiert. In Hamburg gibt es ein »Zentrum für rechtswissenschaftliche Fachdidaktik« und in Passau ein »Institut für Rechtsdidaktik«. In den Anfangsjahren habe ich mitgemacht, obwohl die Hochschuldidaktik eigentlich gar nicht mein Thema war. [1]Vgl. dazu den Eintrag »Schluss mit der Rechtsdidaktik« vom 11. 3. 2009. Daraus sind einige Veröffentlichungen entstanden, [2](Juristisches) Wissen über Bilder vermitteln, in: Ulrich Dausendschön-Gay/Christine Domke/Sören Ohlhus (Hg.), Wissen in (Inter-)Aktion, Verfahren der Wissensgenerierung in unterschiedlichen … Continue reading und auch auf Rsozblog gab und gibt es eine Kategorie »Fachdidaktik der Rechtswissenschaft« mit 30 Einträgen. (Die Titel sind über die Seite »Inhaltsübersicht« unter der Kategorie aufgelistet.) Auch für die Rechtssoziologie gab von »Recht anschaulich« noch etwas zu lernen, nämlich aus der Erweiterung des Themas auf das »multisensorische Recht«, die von Colette Brunschwig in verschiedenen Veröffentlichungen und auf verschiedenen Tagungen betrieben wurde. Allerdings bin ich insoweit skeptisch geblieben. [3]Zur Rede vom multisensorischen Recht: Ein kumulativer Tagungsbericht, Zeitschrift für Rechtssoziologie 33, 2012/13, … Continue reading

Nun muss und will ich mich auf Rechtssoziologie und die Allgemeine Rechtslehre konzentrieren. Rsozblog führt aber weiterhin die Kategorie »Recht anschaulich« für den Fall, dass mir zum Thema etwas auf- oder einfällt. Vielleicht kann ich dort demnächst die beinahe 200 Postings von »Recht anschaulich« als Blogbuch einstellen.

Anmerkungen

Anmerkungen
1 Vgl. dazu den Eintrag »Schluss mit der Rechtsdidaktik« vom 11. 3. 2009.
2 (Juristisches) Wissen über Bilder vermitteln, in: Ulrich Dausendschön-Gay/Christine Domke/Sören Ohlhus (Hg.), Wissen in (Inter-)Aktion, Verfahren der Wissensgenerierung in unterschiedlichen Praxisfeldern, 2010, 281-311; Die Wissenschaftlichkeit des juristischen Studiums, in: Judith Brockmann u. a. (Hg.), Exzellente Lehre im juristischen Studium, 2011, 67-78; Hans Christian Röhl/Klaus F. Röhl, Juristisches Denken mit Versatzstücken, in: Judith Brockmann u. a. (Hg.), Methoden des Lernens in der Rechtswissenschaft, 2012, S. 251-258.
3 Zur Rede vom multisensorischen Recht: Ein kumulativer Tagungsbericht, Zeitschrift für Rechtssoziologie 33, 2012/13, 51-75[https://www.rsozblog.de/wp-content/uploads/Röhl_Zur_Rede_-vom-multisensorischen_Recht_ZfRSoz_2012-13_.pdf]. Vgl. auch schon die Einträge »Multisensorisches Recht – taugt nicht einmal für die Kulturwissenschaften« vom 21. 11. 2009 und »Difficile est satiram non scribere« vom 28. 11. 2009.

Ähnliche Themen

Bei Bertelsmann wie üblich nur die halbe Wahrheit

Am 8. Januar 2015 veröffentlichte die Bertelsmannstiftung eine neue Ausgabe ihres Religionsmonitors mit der Überschrift »Muslime in Deutschland mit Staat und Gesellschaft eng verbunden«. [1]Dazu gibt es im Internet eine »Sonderwertung 2015 (Zusammenfassung)« sowie zusätzliche Buchpublikationen (die ich nicht zur Hand und also nicht gelesen habe). Die Ergebnisse werden wie folgt zusammengefasst.

»Die hier lebenden Muslime orientieren sich in ihren Einstellungen und Lebensweisen stark an den Werten in der Bundesrepublik. Das allerdings nimmt die Mehrheitsbevölkerung kaum wahr. Sie steht dem Islam zunehmend ablehnend gegenüber. Für die hier lebenden Muslime bedeutet das Ausgrenzung und Belastung.«

Die Bertelsmann-Veröffentlichung fand in der Presse große Aufmerksamkeit und wurde durchgehend affirmativ wiedergegeben. [2]Z. B. … Continue reading

In den WZB Mitteilungen Nr. 132 vom Dezember 2013 berichtete Ruud Koopmans unter dem Titel »Fundamentalismus und Fremdenfeindlichkeit im europäischen Vergleich« über die SCIICS-Studie (Six Country Immigrant Integration Comparative Survey) des WZB zu Einwanderern und Einheimischen in sechs europäischen Ländern – Deutschland, Frankreich, den Niederlanden, Belgien, Österreich und Schweden, für die 2008 9.000 Personen mit türkischem oder marokkanischem Migrationshintergrund und eine einheimische Vergleichsgruppe befragt wurden. In der Zusammenfassung heißt es:

»Fast die Hälfte der in Europa lebenden Muslime findet, dass es nur eine gültige Auslegung des Koran gibt, dass Muslime zu den Wurzeln des Islam zurückkehren sollen und dass religiöse Gesetze wichtiger sind als weltliche. Anhand dieser Indikatoren zeigt eine WZB-Studie in sechs Ländern, dass der religiöse Fundamentalismus unter Muslimen deutlich weiter verbreitet ist als unter Christen. Der Befund ist insofern besorgniserregend, als mit religiösem Fundamentalismus ein erhöhtes Maß an Fremdgruppenfeindlichkeit einhergeht.«

Irgendwie passt das nicht zusammen.

Die WZB-Studie hat damals keine vergleichbare Presseöffentlichkeit gefunden. Immerhin hat der Fernsehsender 3sat sich jetzt daran erinnert und am 9. Januar 2015 über die Veröffentlichung von Koopmans berichtet und dazu die von der Bertelsmann-Stiftung als Ansprechpartner genannte Soziologin Yasemin El-Menouar interviewt. Ihre Stellungnahme läuft darauf hinaus, man dürfe für die aktuellen Probleme nicht die Religion als solche, also nicht den Islam, verantwortlich machen. Da hatte sie noch nicht den Artikel von Samuel Schirmbeck »Die Linke im Muff von tausend Jahren« lesen können, der erst am 19. Januar in der FAZ erschien. [http://www.faz.net/aktuell/politik/die-gegenwart/linke-verweigern-diskussion-ueber-islam-und-gewalt-13377388.html]. Schirmbeck zitiert Soheib Bencheikh, damals Großmufti von Marseille, mit dem Satz:

»Die Angst vor dem Islam ist vollkommen berechtigt. Im Namen dieser Religion werden die schrecklichsten Verbrechen begangen. Im Namen dieser Religion geschieht derzeit eine ungeheure Barbarei. Wenn die Menschen Angst vor dem Islam haben, so ist das völlig normal. Auch wenn ich kein Muslim wäre, würde ich mich fragen, was das für eine Religion ist, auf die sich Verbrecher berufen.«

Schirmbeck spricht von einer »Schutzmauer zwischen Islam und Islamismus, die in jeder deutschen Talkshow zum Thema Islam immer wieder aufs Neue errichtet« werde. Auch die Bertelsmann-Stiftung gehört zu den Mauerbauern.

Ähnliche Themen

Eine Konvergenztheorie des Wissens (5. und letzte Fortsetzung)

Gründe 81-92
Wissensnetzwerke

81. Die Konvergenz des Wissens zeigt sich unterschiedlich stark je nach dem Modus seiner Anordnung. Scholastische Wissensübersichten waren hierarchisch aufgebaut. Die klassischen Enzyklopädien ordneten das Wissen seriell alphabetisch. Heute gilt es als ausgemacht, dass Wissen als vernetzt vorgefunden wird und/oder als Netz angeordnet werden kann. Zwar kann man auch eine hierarchische und eine serielle Anordnung von Elementen als Netzwerk behandeln. Gemeint sind aber Netzwerke, deren Kanten allein durch die Semantik der Knoten bestimmt werden.

82. Wissensnetze sind semantische Netze. Jedes Wissenselement muss anschlussfähig sein, um vernetzt werden zu können. Deshalb liegt die Vermutung nahe, dass nicht anschlussfähiges Wissen verloren geht. Tatsächlich ist aber wohl jedes Wissenselement anschlussfähig, denn keines ist voraussetzungslos entstanden. Wir stehen nicht nur auf den Schultern von Riesen, sondern auch auf denen von Zwergen. Und wenn es nicht so wäre: Was nicht passt, wird passend gemacht.

83. Man greift auf ein Wissenselement in der Regel nicht direkt zu, sondern nähert sich ihm von benachbarten Anschlüssen her.

84. Das Wissen der Welt ist als sekundäres mehr oder weniger vollständig im Internet versammelt.

85. Das technische Netz des Internet ist nicht selbst ein Wissensnetz. Aber es produziert Wissensnetze und vermittelt den Zugang zu ihnen.

86. Das Internet fügt viele separierte Wissensnetze zusammen.

87. Was nicht im Netz (des Internet) ist, zählt und wirkt nicht als Wissen.

88. Einem Vortrag von Thomas Vesting habe die These entnommen, dass das Buch sich durch einen »Sinn für Abgeschlossenheit« auszeichnet, während der Computer zu fortgesetztem Überschreiben auffordert. Mit der Computerkultur sei die »Zeit der Systeme« abgeschlossen. Es gebe immer nur vorübergehende Interpretationen von Wahrheit und Gerechtigkeit [1]Vgl. den Eintrag vom 15. 4. 2011. Auch Fortschreibungen und Überschreibungen können sich als Konvergenzen erweisen. Konvergenz muss nicht statisch sein.

89. Die Wissenschaftssoziologie von Ludwik Fleck über Thomas S. Kuhn bis hin zu Bruno Latour, Steve Woolgar und Karin Knorr-Cetina hat mit der These, dass es sich bei den Produkten der Wissenschaft um kontextspezifische Konstruktionen handle, die durch »Situationsspezifität und Interessenstrukturen, aus denen sie erzeugt wuden, gezeichnet sind«. [2]K. Knorr-Cetina, Die Fabrikation von Erkenntnis, 2. Aufl., 2002, 25. Sieht man einmal davon ab, dass die damit behauptete Relativität wissenschaftlicher Propositionen sich mehr auf die Wahl der Forschungsthemen und Methoden bezieht als auf die Validität der Ergebnisse, so ist das Internet eine relativ kontextfreie Zone, in der sich die Konvergenz kontextrelativer Propositionen erweisen kann. [3]»Stärker als die vielleicht ja lösbaren technischen Herausforderungen stellt sich die kulturelle Grundfrage des verteilt und vernetzt gespeicherten Wissens. Globalisierung heißt kulturelle … Continue reading

90. Die Wissenschaftstheorie weist inkompatible Varianten auf mit der Folge, dass institutionalisierte Wissenschaft in vielen Fällen als Zertifizierungsinstitution des Wissens versagt [4]Ulrich Wengenroth, Zur Einführung: Die reflexive Modernisierung des Wissens, in: ders. (Hg.), Grenzen des Wissens, 2012, 7-22, S. 8, 19.. So übernehmen die Datenverarbeitung und insbesondere auch das Internet durch die Ermittlung von Konvergenzen und Divergenzen mindestens ergänzend die Aufgabe der Zertifizierung wissenschaftlichen Wissens.

91. Das Internet erzeugt im Unterschied zu dem spontan, methodisch oder im Diskurs erreichten Konsens Konvergenz durch Akkumulierung.

92. Quantitativ ermittelte Konvergenz ist keine Garantie für Qualität, wird aber mangels Alternative zum Qualitätsersatz.

Anmerkungen

Anmerkungen
1 Vgl. den Eintrag vom 15. 4. 2011.
2 K. Knorr-Cetina, Die Fabrikation von Erkenntnis, 2. Aufl., 2002, 25.
3 »Stärker als die vielleicht ja lösbaren technischen Herausforderungen stellt sich die kulturelle Grundfrage des verteilt und vernetzt gespeicherten Wissens. Globalisierung heißt kulturelle Dekontextualisierung. Wissen entsteht bisher in einer Zeit, an einem Ort, in einer Kultur, das Netz ist aber gleichzeitig und überall. Seine kulturelle Vorgaben sind ihm in Kalifornien und Massachusetts mitgegeben worden. Das Netz reißt Wissen in globalem Maße aus seinen zeitlichen und räumlichen kulturellen Kontexten heraus und stellt Wissen unterschiedlichster Güte und Art beziehungslos nebeneinander. Content und Kontext sind freilich nicht unabhängig voneinander und der Verlust des kulturellen Kontextes devaluiert den Inhalt.« (Wolfgang Coy, a. a. O.).
4 Ulrich Wengenroth, Zur Einführung: Die reflexive Modernisierung des Wissens, in: ders. (Hg.), Grenzen des Wissens, 2012, 7-22, S. 8, 19.

Ähnliche Themen

Eine Konvergenztheorie des Wissens (4. Fortsetzung)

Gründe 66-80
Das Internet als Konvergenzmaschine

66. Das Internet steht hier als Kürzel für alle Möglichkeiten der elektronischen Dateinspeicherung und Verarbeitung. Für den Konvergenzeffekt wichtiger als das Jedermann-Internet sind vermutlich elektronische Zeitschriften und andere professionelle Datenbanken, die zwar in der Regel über das Internet erreicht werden, aber keinen freien Zugang anbieten.

67. »Medial gespeichertes und kommuniziertes Wissen gibt es in enormer Quantität, aber von sehr unterschiedlicher Qualität. Die Wissenschaften, aber auch Philosophie, Staat oder Religion haben sich über Jahrhunderte bemüht, Ordnung in das aufbewahrte Wissen zu bringen – mit unterschiedlichen Ansprüchen und unterschiedlichem Erfolg. Qualitätssicherung kann durch religiöse, politische oder rechtliche Entscheidung erfolgen. Das Gesetz ist im Prozeß der Rechtsprechung zu interpretieren, aber es darf von dieser nicht mißachtet werden. Das ist eine politische Entscheidung. Inkonsistenzen der Bibel sind als Emanationen des göttlichen Willens hinzunehmen. Das ist eine theologische Entscheidung. In den Wissenschaften gibt es andere entwickelte Mechanismen der Qualitätssicherung, etwa durch klare Abgrenzung des Geltungsbereichs aufgestellter Behauptungen, durch die Angabe intersubjektiv überprüfbarer Entscheidungsverfahren oder durch prüfbare Nachweise. Trotzdem ist auch die Wissenschaft nicht frei von Bedingtheiten und Befangenheiten. Kulturelle Traditionen und Rücksichten, der paradigmatische Kontext wissenschaftlicher Arbeit und wissenschaftlichen Denkens oder die Fixierung zulässiger Methoden bilden neben den auch vorhandenen, autoritären Aspekten wissenschaftlicher Schulen Schranken für eine globale, zeitlich unbeschränkte Gültigkeit wissenschaftlichen Wissens. Betrachten wir den Stand der Qualitätssicherung in den unterschiedlichen Medien, so können wir angesichts ihrer Resultate letztlich nur resignieren. Es mag in einzelnen wissenschaftlichen oder rechtlich abgesicherten Bereichen gelungen sein, Wissen nach Qualitätsstandards aufzubereiten, eine allgemein akzeptierte, interkulturelle Qualitätssicherung des Wissens gibt es jedoch nicht. Und selbst in den scheinbar gesicherten Arealen der Wissenschaft herrscht ein munterer Pluralismus, der neben Sympathie und wechselseitiger Hilfe auch Abneigung, Mißgunst und Boshaftigkeit kennt, also Emotionen, die der Qualitätssicherung gelegentlich im Wege stehen.« [1]Wolfgang Coy, turing@galaxis.comII, in: ders./Martin Warnke (Hg.), HyperKult, 2005, 15-32, S. 17f. Im Netz als Vortragsmanuskript von 1997 unter dem Titel »Überall & gleichzeitig. Informatik, … Continue reading

68. Konvergenz ist keine Garantie für Qualität, wird aber mangels Alternative zum Qualitätsersatz.

69. Das Internet erzeugt im Unterschied zu dem spontan, methodisch oder im Diskurs erreichten Konsens Konvergenz durch Akkumulierung.

70. Die traditionelle Konvergenzmaschine war die Synopse. Sie war und ist leistungsfähig, bleibt aber doch in der Regel das Werk einzelner Autoren und hängt insofern an deren Kompetenzen und Kapazitäten. Das Internet macht Konvergenzen und – weniger effektiv – Divergenzen ohne (viel) subjektive Wissensarbeit kenntlich.

71. Im »Web of Science« zeigen und verstärken sich die Konvergenzen durch Zitationsanalysen und andere bibliometrische Daten wie Impact Factor und Hirsch-Index.

72. »Hypertextsysteme erscheinen als eine Möglichkeit, intertextuelle Bezüge, die bis dahin latent waren, in manifeste Bezüge – in Links eben – zu überführen und damit Strukturen nachzuzeichnen, die quer zu den linearen Syntagmen die verschiedenen Texte immer schon verbinden.« [2]Hartmut Winkler, Docuverse, 1997, S. 43f. Diese Möglichkeit hängt nicht davon ab, ob es möglich sein wird Hypertext-Maschinen zu programmieren [3]Dazu kritisch Winkler a. a. O. S. 44ff.

73. Ein Schritt zur Konvergenz liegt in der Anonymisierung des Wissens, das heißt, in seiner Ablösung von Autoren und Autoritäten. [4]Zur Bedeutung der Autorschaft bei wissenschaftlichen Texten vgl. Felix Steiner, Dargestellte Autorschaft, Autorkonzept und Autorsubjekt in wissenschaftlichen Texten, 2009. Das Netz trägt mindestens auf dreierlei Weise zur Anonymisierung bei, nämlich erstens durch die Schwierigkeiten einer schulgerechten Zitation [5]Eine schulgerechte Zitation von wissenschaftlichen Texten hat wohl grundsätzlich zwei Ziele. Das erste und wichtigere ist die Vermeidung von und der Schutz vor Urheberrechtsverletzungen und … Continue reading, zweitens durch die Fülle der Texte, die den eigentlichen Urheber oft nicht mehr erkennen lässt [6]Das zeigt das Beispiel der Wissenskugel oben bei Nr. 20., und drittens natürlich durch unbekümmertes Copy and Paste.

74. Weiter in Richtung Konvergenz wirkt das zunehmende Desinteresse an der Genese von Wissen, das durch die Kombination von Informationsflut und Medienbeschleunigung getrieben wird. Damit gehen vielfältige Divergenzen etwa verschiedener Textversionen bestimmter Autoren, an denen sich die Wissenschaft abarbeitet, verloren.

75. »Na klar stimmt das, ich hab’s aus dem Netz«. [7]Überschrift von Stefan Weber in der FAZ Nr. 104 vom 6. 5. 2009 S. N3. Vgl. dazu den Eintrag vom 14. 4. 2010. Gemeint ist damit die Autorität des Netzes als Wissensquelle. So wie das gedruckte Buch hat auch das Netz per se Autorität, die auf alle darin auffindbaren Propositionen durchschlägt. Diese Autorität tritt aber mehr und mehr in den Hintergrund, erstens weil es inzwischen zum Allgemeinwissen gehört, dass im Internet viel Unsinn zu finden ist, und zweitens, weil das Internet zu fast jeder Frage nicht bloß eine, sondern mehrere Antworten herausgibt. Von den Antworten sind viele irrelevant, oft zeigt sich Übereinstimmung, nicht selten auch Divergenz.

76. Das Anwortspektrum des Internet ist von der Suchstrategie des Nutzers abhängig. Wie trennt man die Spreu vom Weizen? Von Pirolli und Card stammt die Theorie der optimalen Futter- bzw. Informationssuche (Information Foraging). [8]Peter Pirolli/Stuart K. Card, Information Foraging, Psychological Review 106, 1999, 643-675; Peter Pirolli, Information Foraging Theory. An Adaptive Interaction with Information, Oxford University … Continue reading Dazu bieten die Informationswissenschaften Theorien und empirische Forschung, die vielleicht weiter helfen. [9]Z. B. Yvonne Kammerer, Separating the Wheat from the Chaff: The Role of Evaluation Instructions. User Characteristics, and the Search Interface in Evaluating Information Quality During Web Search, … Continue reading

77. Die Technik der Internetsuchmaschinen führt zu einer Positivauslese, weil häufiger angeklickte Webseiten einen besseren Rang erhalten und so bei weiteren Suchvorgängen bevorzugt angeboten werden.

78. Technisch gehen in Datenbanken keine abweichenden Inhalte verloren. Grundsätzlich kann alles wiedergewonnen werden. Praktisch gibt es aber auch eine Negativauslese, mit der Folge, dass selten nachgefragte Webseiten bei den Suchmaschinen zurückgestellt werden, bis sie niemand mehr nachschlägt.

79. Medienumbrüche führen zu einer »natürlichen« Auslese. Gedruckt wurde nur noch, was relevant und zutreffend erschien. Auch die Dauerarchivierung von Büchern durch Digitalisierung bringt Verluste. Nach der Digitalisierung sieht es auf den ersten Blick anders aus. Aber die digitalen Medien veralten. Sie müssen im Abstand von etwa einem Jahrzehnt umkopiert werden, um lesbar zu bleiben. Dabei wird wiederum bewusst oder unbewusst eine Auswahl getroffen.

80. Inzwischen sind viele, wenn nicht die meisten wissenschaftlichen Bücher eingescannt und bei Google Books aufrufbar. Zwar gibt es immer nur Bruchstücke des Buches zu lesen. Die Suchfunktion durchsucht jedoch auch die nicht abrufbaren Seiten und zeigt die Stichwörter dann mit einem kurzen Kontext auf dem Bildschirm an. Sie findet oft mehr Stichwörter als im Stichwortverzeichnis angegeben. [10]Von dieser Möglichkeit habe ich in dem Eintrag vom 20. 11. 2014 (bei Fußnote 21 und 25) Gebrauch gemacht. Im Register des »Handbuchs Wissenssoziologie« kommt »Konvergenz« nicht vor. Google … Continue reading

Anmerkungen

Anmerkungen
1 Wolfgang Coy, turing@galaxis.comII, in: ders./Martin Warnke (Hg.), HyperKult, 2005, 15-32, S. 17f. Im Netz als Vortragsmanuskript von 1997 unter dem Titel »Überall & gleichzeitig. Informatik, Digitale Medien und die Zukunft des Wissens«.
2 Hartmut Winkler, Docuverse, 1997, S. 43f.
3 Dazu kritisch Winkler a. a. O. S. 44ff.
4 Zur Bedeutung der Autorschaft bei wissenschaftlichen Texten vgl. Felix Steiner, Dargestellte Autorschaft, Autorkonzept und Autorsubjekt in wissenschaftlichen Texten, 2009.
5 Eine schulgerechte Zitation von wissenschaftlichen Texten hat wohl grundsätzlich zwei Ziele. Das erste und wichtigere ist die Vermeidung von und der Schutz vor Urheberrechtsverletzungen und Plagiaten. Das andere Ziel ist die Kenntlichmachung der Genealogie von Ideen. Darauf verweist der Quellenbegriff. Für beide Ziele ist es mehr oder weniger notwendig, dass die Zitation das Zitat reproduzierbar macht. Die Reproduzierbarkeit hängt allerdings nicht allein von der Zitation, sondern auch vom Medium ab. Texte in Büchern und Zeitschriften sind relativ stabil, Texte im Internet dagegen sind relativ änderbar und flüchtig. Dagegen soll angeblich die Angabe des Abrufdatums helfen, tut sie aber nicht. Technische Mittel wie die Internetdienste Webcite oder Internet Archive sind unpraktisch und auch nicht verlässlich. Das Medium regiert auch die äußere Gestalt der Zitation. Bücher und Zeitschriften sind mit den üblichen Zitierweisen dank des ausgefeilten Katalogsystems erstaunlich gut auffindbar. In der Regel wird bei der Zitation zuviel des Guten getan. Erscheinungsort und Verlag, sind, jedenfalls bei inländischen Büchern, überflüssig, ähnlich bei Zeitschriften die Angabe des Jahrgangs. Das beweist ihr weitgehendes Fehlen dieser Angaben in den Nachweisen der juristischen Literatur. Verlags- und Jahrgangsangaben sind daher vor allem ein Indiz für die Qualität der Quelle. Übervollständige Zitationen dienen vielen Autoren vielleicht auch dazu, die Sorgfalt ihrer Arbeitsweise zu demonstrieren. Sie belasten dagegen die Lesbarkeit und Ästhetik des Textes. Das gilt verstärkt für die URL von Internettexten. In Internettexten selbst werden die URL von Internetquellen das vielfach als Hyperlink versteckt. Bisher gibt es keine praktikable Möglichkeit, Hyperlinks unmittelbar aus gedruckten Quellen aufzurufen. Das Eintippen oder Einscannen der URL ist nicht sehr attraktiv und in der Regel auch überflüssig, weil die Quelle sich einfacher ergugeln lässt. Unter diesen Umständen wird die Kehrseite der Zitationspflicht immer wichtiger, die darin besteht, den Autor vor Plagiatsvorwürfen zu schützen.
6 Das zeigt das Beispiel der Wissenskugel oben bei Nr. 20.
7 Überschrift von Stefan Weber in der FAZ Nr. 104 vom 6. 5. 2009 S. N3. Vgl. dazu den Eintrag vom 14. 4. 2010.
8 Peter Pirolli/Stuart K. Card, Information Foraging, Psychological Review 106, 1999, 643-675; Peter Pirolli, Information Foraging Theory. An Adaptive Interaction with Information, Oxford University Press 2007.
9 Z. B. Yvonne Kammerer, Separating the Wheat from the Chaff: The Role of Evaluation Instructions. User Characteristics, and the Search Interface in Evaluating Information Quality During Web Search, 2011; dies./Peter Gerjets, Quellenbewertungen und Quellenverweise beim Lesen und Zusammenfassen wissenschaftsbezogener Informationen aus multiplen Webseiten, Unterrichtswissenschaft 42, 2014, 7-23.
10 Von dieser Möglichkeit habe ich in dem Eintrag vom 20. 11. 2014 (bei Fußnote 21 und 25) Gebrauch gemacht. Im Register des »Handbuchs Wissenssoziologie« kommt »Konvergenz« nicht vor. Google Books zeigt von diesem Band zwar keine Textseiten, gibt aber auf Nachfrage Auskunft, dass der Begriff auf sechs Seiten des Buches erscheint, zeigt allerdings nur drei von sechs Suchergebnissen (S. 553, 768 und 771.

Ähnliche Themen

Eine Konvergenztheorie des Wissens (3. Fortsetzung)

Gründe 52-65
Wissensrecycling und Redundanz

52. Die zeitgenössische Version eines naiven Fortschrittsglaubens äußert sich in der Rede von einer immer kürzeren Halbwertszeit des Wissens. Doch was veraltet, sind konkrete Fragen, Instrumente zu ihrer Beantwortung und die damit gewonnenen Daten. Das systematische Wissen über die Gesellschaft und ihr Recht zeigt dagegen eine erstaunliche Beständigkeit oder Kontinuität, so dass auch heute noch nicht nur Philosophen, sondern auch manche Rechts- und Sozialwissenschaftler mit Platon und Aristoteles diskutieren, als seien sie Zeitgenossen. Epochenumbrüche, wie sie von Kuhn als Paradigmenwechsel vorgestellt worden sind, waren nie so radikal, dass sie eine tabula rasa hinterlassen hätten.

53. Wissensrecycling: Das vorhandene Wissen wird etwa alle dreißig Jahre recycelt, ohne als Neuauflage erkennbar zu sein. Die zurzeit so beliebte Jagd nach Plagiaten wirkt vor diesem Hintergrund eher beckmesserisch. [1]Zygmunt Baumann kokettiert wohl, wenn er (in einem Interview) sagt »Mein Leben besteht darin, Information zu recyceln.« Ich dagegen nehme diese Aussage für mich als bare Münze.

54. Die Warenwelt hat in die Wissenschaft Einzug gehalten. Die Produktion von Literatur ist billig geworden, nachdem Herausgeber und Autoren auch Lektorat und Layout der Texte übernommen haben und von den Verlegern keine Vegütung mehr erhalten. Verlage wie C. H. Beck, Springer, Hart Publishing, Oxford University Press u. a. mehr produzieren laufend schöne und teure neue Bücher, in denen wenig Neues steht. Es traut sich niemand, Literatur, die sich selbst als wissenschaftlich deklariert, für überflüssig zu erklären.

55. Wann immer man liest, die Literatur zu einer bestimmten Frage sei unübersehbar geworden, [2]Z. B. bei bei Andreas Voßkuhle, Expertise und Verwaltung, in: Hans-Heinrich Trute (Hg.), Allgemeines Verwaltungsrecht, 2008, 637-663, S. 639 Fn. 11 zum Wissensmanagement. wird es Zeit die Masse dieser Literatur zu vergesen.

56. Ein Indiz für die Konvergenz des Wissens ist die zunehmende Verwendung von Sekundärliteratur – der ich mich – mindestens in dieser Reihe von Einträgen – anschließe.

57. In den Naturwissenschaften gibt es zum Teil eine Praxis des Reviews, die den Rückgriff auf ältere Texte abschneidet. Dazu werden periodisch an prominenter Stelle zusammenfassende Darstellungen der Forschungsergebnisse veröffentlicht mit der Folge, dass man sich künftig nicht mehr auf die Originalliteratur bezieht. In der Rechtswissenschaft treten an die Stelle solcher Reviews die Kommentare. Für Philosophie und Sozialwissenschaften ist dagegen die Zusammenführung des Wissens kaum institutionalisiert. Immerhin gibt es hier und da eine Diskussion über die Kanonisierung des Wissens. [3]Den Weg zur Kanonisierung bahnen viele Anthologien oder Zusammenfassungen nach Art der »Hauptwerke«-Reihe im Kröner Verlag. Bemerkenswert ist der Eifer, mit dem Austin Sarat sich als »advocate … Continue reading

58. Als Indiz für die Konvergenz des Wissens taugt auch das Phänomen Wikipedia. Hier entsteht Konvergenz durch gemeinschaftliche Textarbeit. »Ein Wiki ist so etwas wie eine Schnapsbrennerei für verschärftes Wissen. Aus Infotrauben, die von verschiedenen Orten und Pflückern zusammengetragen werden, entsteht im Laufe der Zeit ein immer weiter konzentriertes, immer klareres und verfeinertes Destillat. Anders als in Blogs oder Online-Foren, wo Themen einem chronologischen Verlauf folgen, verdichtet sich der Stoff in einem Wiki zunehmend. Aus Daten und Informationen wird Wissen. … Wer zum Wikitum konvertiert, glaubt daran, dass die Welt edierbar ist.« [4]Peter Glaser, Schnapsbrennerei für verschärftes Wissen, Heise-online, 06.04.2012.

59. Im kulturalistischen Jargon redet man nicht von Konvergenz, sondern von kollaborativer Wissenskonstruktion in Netzwerken oder im Wiki. [5]Vgl. das Projekt »Kollaborative Wissenskonstruktion mit Wiki« am Leibniz Institut für Wissensmedien; und daraus Aileen Oeberst/Iassen Halatchliyski/Joachim Kimmerle/Ulrike Cress, Knowledge … Continue reading

60. Es bahnen sich technische Verfahren für die Zusammenführung konsonanter Literatur an. [6]Vgl. Kavita Ganesan/ChengXiang Zhai/Jiawei Han, Opinosis: A Graph Based Approach to Abstractive Summarization of Highly Redundant Opinions, Proceedings of COLING 2010, 340-348. Nachzugehen wäre auch … Continue reading Die Diskussion wird unter dem Stichwort »Digital Humanities« geführt. [7]Überblick über die Aktivitäten weltweit bei Poul Holm/Dominic Scott/Arne Jarrick, Humanities World Report 2015, Kap 4 »The Digital Humanities« … Continue reading

61. Für Juristen gibt es Suchmaschinen die nach Präzedenzfällen suchen. Mit Suchmaschinen, die eigentlich dazu entwickelt wurden, um Plagiate zu entdecken, findet man auch inhaltliche Duplizität. [8]Harold »Skip« Garner, Computerjagd nach Plagiaten, Spektrum der Wissenschaft Dezember 2014, 60-63.

62. Wissenschaftliche Texte beginnen oft mit einem Referat über die Geschichte des behandelten Problems und über bisherige Lösungsvorschläge. Oft folgt dann ein Teil, in dem die vom Autor zugrunde gelegte Methode dargestellt wird. Der historische und der methodische Vorspann sind wegen der Konvergenz der Inhalte besonders anfällig für Plagiate. Bei der Vorstellung seiner Plagiatssoftware schreibt Harold Garner:
»Als probates Gegenmittel bietet sich die Textanalyse an. Sie vermag nicht nur die Unsitte des Plagiierens abzuschaffen, sondern könnte auch völlig neue wissenschaftliche Kommunikationsformen unterstützen.
Eine faszinierende Idee hierzu ist vom Modell des Onlinelexikons Wikipedia inspiriert: Man schafft eine dynamische, elektronische Sammlung von Veröffentlichungen zu einem Thema, die von Wissenschaftlern kontinuierlich redigiert und verbessert wird. Jede neue ›Publikation‹ besteht aus einem Beitrag zu einem einheitlich wachsenden Wissensschatz; redundante Methodenabschnitte werden überflüssig. Das Wikipedia-Modell wäre ein Schritt zu einer zentralen Datenbank, die alle wissenschaftlichen Publikationen in sämtlichen Disziplinen umfasst. Autoren und Redakteure würden mittels Textanalyse die Originalität einer neuen Forschungsarbeit bestätigen …. «

63. Eine individuelle Strategie zur Bewältigung der Textredundanz ist die »offene Patchworkmethode«. Sie besteht darin, Schlüsselstellen des eigenen Textes aus offen ausgewiesenen Zitaten zu bauen. Sie findet ihre Grenzen im Urheberrecht, das den Umfang zulässiger Zitate begrenzt. Die Umfangsbegrenzung gilt jedoch nur für die Entnahme aus einem Text. Es gibt keine Beschränkung für die Anzahl von (Kurz-)Zitaten aus verschiedenen Texten. Daher lässt sich ein neuer Text vollständig aus Fremdzitaten herstellen. Der Extremfall wäre ein Hypertext-Essay nach dem Xanadu-Konzept, der nur aus einer Zusammenstellung von Links bestünde. Zur Charakterisierung juristischer Dissertationen hieß es früher gelegentlich, da werde aus 100 (oder 1000) Quellen ein neuer Text gebastelt.

64. »Distant Reading«: Die Literaturwissenschaft beklagt die Masse der Texte, die niemand mehr lesen kann. Als Ausweg hat Franco Moretti [9]Franco Moretti, Kurven, Karten, Stammbäume, Abstrakte Modelle für die Literaturgeschichte, 2009; ders., Distant Reading 2013. Zu dem neueren Buch – einer Aufsatzsammlung – vgl. die … Continue reading (Stanford Literary Lab) eine Methode des Distant Reading vorgeschlagen. Sie besteht im Prinzip darin, Texte nicht zu lesen, sondern sie mit computergestützten Verfahren sozusagen zu vermessen. [10]Kathryn Schulz, What Is Distant Reading? The New York Times – Sunday Book Review vom 24. 6. … Continue reading Die Vermessung gilt sowohl eher äußerlichen Eigenschaften (Literaturgenre, Stil usw.) als auch den Inhalten (etwa Plots in Romanen oder Argumentationen in Gerichtsurteilen). [11]Zu dem, was Moretti in Gang gebracht hat, vgl. auch den Tagungsbericht von Tobias Haberkorn, Es gibt einfach zu viele Texte, FAZ vom 12. 11. 2014 S. N3.

65. Search Term Reading: Meine Methode des Distanzlesens – die ich vermutlich mit vielen Wissenschaftlern teile – ist das Stichwortlesen (search term reading). Sie besteht schlicht darin, viele Texte nicht Satz für Satz von Anfang bis zum Ende zu lesen, sondern sie auf gerade interessierende Stichworte zu scannen. Früher hatte man dazu mehr oder weniger gute Stichwortregister. Heute liest man viele Texte auf dem Bildschirm. Alle Browser verfügen über eine Suchfunktion. Die meisten Texte werden wohl als PDF gelesen, und selbstverständlich hat auch die dafür übliche Software eine Suchfunktion. Als Bild eingescannte Texte werden dazu in durchsuchbare umgewandelt.

Anmerkungen

Anmerkungen
1 Zygmunt Baumann kokettiert wohl, wenn er (in einem Interview) sagt »Mein Leben besteht darin, Information zu recyceln.« Ich dagegen nehme diese Aussage für mich als bare Münze.
2 Z. B. bei bei Andreas Voßkuhle, Expertise und Verwaltung, in: Hans-Heinrich Trute (Hg.), Allgemeines Verwaltungsrecht, 2008, 637-663, S. 639 Fn. 11 zum Wissensmanagement.
3 Den Weg zur Kanonisierung bahnen viele Anthologien oder Zusammenfassungen nach Art der »Hauptwerke«-Reihe im Kröner Verlag. Bemerkenswert ist der Eifer, mit dem Austin Sarat sich als »advocate for disciplinization« für eine Kanonisierung des Faches einsetzt. Zwar spricht er nicht von legal sociology oder sociology of law, sondern von »law and society scholarship«. Aber der Sprachgebrauch in den USA ist eben anders. Schon als Präsident der Law and Society Association hatte Sarat sich für eine »Kanonisierung« des Faches ausgesprochen. Bemerkenswert auch, dass er dafür Juristen (Jack Balkin und Sanford Levinson) zitiert: »Every discipline, because it is a discipline, has a canon, a set of standard texts, approaches, problems, examples, or stories that its members repeatedly employ or invoke, and which help define the discipline as a discipline.«. Seither hat Sarat durch die Herausgabe von zahlreichen Readern und des »The Blackwell Companion to Law and Society« selbst erheblich zur Abgrenzung und Befestigung dieses Kanons beigetragen.
4 Peter Glaser, Schnapsbrennerei für verschärftes Wissen, Heise-online, 06.04.2012.
5 Vgl. das Projekt »Kollaborative Wissenskonstruktion mit Wiki« am Leibniz Institut für Wissensmedien; und daraus Aileen Oeberst/Iassen Halatchliyski/Joachim Kimmerle/Ulrike Cress, Knowledge Construction in Wikipedia: A Systemic-Constructivist Analysis. Journal of the Learning Sciences, 23, 2014, 149-176.
6 Vgl. Kavita Ganesan/ChengXiang Zhai/Jiawei Han, http://sifaka.cs.uiuc.edu/czhai/pub/coling10-opinosis.pdf">Opinosis: A Graph Based Approach to Abstractive Summarization of Highly Redundant Opinions, Proceedings of COLING 2010, 340-348. Nachzugehen wäre auch der Meldung, dass die Fakultät für Informatik und Mathematik der Universität Passau ein Forschungsprojekt CODE zur Extraktion und Visualisierung von Informationen aus wissenschaftlichen Publikationen und dem Web 2.0 gestartet hat [http://idw-online.de/de/news483053].
7 Überblick über die Aktivitäten weltweit bei Poul Holm/Dominic Scott/Arne Jarrick, Humanities World Report 2015, Kap 4 »The Digital Humanities« [http://www.palgraveconnect.com/pc/oa/browse/inside/chapter/9781137500281.0007/9781137500281.0007.html?chapterDoi=9781137500281.0007&focus=pdf-viewer#page=0]. Für Deutschland vgl. die Pressemitteilung der Goethe-Universität Frankfurt a. M. Wie der Computer mit den »Digital Humanities« Einzug in die Geisteswissenschaften hält vom 16. 12. 2014 [http://idw-online.de/de/news618503]. Seit 2007 erscheint die E-Zeitschrift Digital Humanities Quarterly.
8 Harold »Skip« Garner, Computerjagd nach Plagiaten, Spektrum der Wissenschaft Dezember 2014, 60-63.
9 Franco Moretti, Kurven, Karten, Stammbäume, Abstrakte Modelle für die Literaturgeschichte, 2009; ders., Distant Reading 2013. Zu dem neueren Buch – einer Aufsatzsammlung – vgl. die ausführliche Rezension von Shawna Ross, In Praise of Overstating the Case: A Review of Franco Moretti, Distant Reading (London: Verso, 2013, Digital Humanities Quarterly 8/1, 2013.
10 Kathryn Schulz, What Is Distant Reading? The New York Times – Sunday Book Review vom 24. 6. 2011[http://www.nytimes.com/2011/06/26/books/review/the-mechanic-muse-what-is-distant-reading.html?pagewanted=all&_r=0].
11 Zu dem, was Moretti in Gang gebracht hat, vgl. auch den Tagungsbericht von Tobias Haberkorn, Es gibt einfach zu viele Texte, FAZ vom 12. 11. 2014 S. N3.

Ähnliche Themen

Travelling Models IX: Codes und Cödchen und ein Vorreiter des Neuen Realismus

Rottenburgs eigene Zutat zu dem mit der Wanderschaft von Token oder Modellen verbundenen Übersetzungs- bzw. Transformationsprozess ist der »Metacode als Sprache der Übersetzungsketten und Aushandlungszonen« (2002 S. 227, 232). Er soll die Differenz zwischen verschiedenen kulturellen Bezugsrahmen überbrücken, die eine direkte Verständigung oder Übersetzung erschwert, wenn nicht gar verhindert. [1]Diese Lehre hat Rottenburg zuerst im 6. Kapitel der Monographie von 2002, Weit hergeholte Fakten, S. 213 ff) entwickelt und danach mehrfach mit kleinen Variationen wiederholt: Code-Wechsel. Ein … Continue reading

Ein universeller Kontingenzperspektivismus bildet das Fundament der Kulturwissenschaften. Danach ist alles Wissen und damit alles Verstehen perspektivisch. Die Perspektive ist das Produkt der Kultur und deshalb so verschieden wie diese. Eine objektive Perspektive gibt es ebenso wenig wie die eine Wahrheit. Wir müssen mit multiplen Wirklichkeiten leben.

Zu jeder Kultur gehört ein eigener Code (cultural code), der als eine Art Grammatik die Dinge zusammenhält und eine Weltsicht vermittelt. So lautet das Glaubensbekenntnis der Kulturwissenschaften und damit wohl auch der meisten Ethnologen. Zum Code wird alles, was als selbstverständlich, natürlich und unvermeidlich erscheint, wiewohl es doch kontingent ist. Logozentrismus, Objektivismus, Phallogozentrimus, heterosexuelle Matrix, Ethnozentrismus, Eurozentrismus, (methodologischer) Etatismus und Nationalismus und die diversen binären Codes der sozialen Systeme – wir sind von Codes umzingelt.

An der Vorstellung eines kulturellen Codes festzuhalten wird schwierig, wenn man, wie die Kulturwissenschaften im Allgemeinen und wohl auch die Ethnologie, auf die Beschreibung oder auch nur Benennung ganzheitlicher Kulturen verzichtet. Heute sind alle Kulturen Hybride, die sich durch Anwachsung (accretion) laufend verändern (Rottenburg 1996 S. 213). Was anwächst, sind fremde Ideen und Artefakte. Sie diffundieren nicht einfach und werden auch nicht bloß als ein neuer Flicken eingesetzt, sondern sie durchlaufen einen Transformationsprozess. Für das, was dabei herauskommt, sind in der Literatur Kennzeichnung wie Hybridisierung, Kreolisierung, McDonaldisierung oder Glokalisierung geläufig. Solche Begriffe suggerieren eine falsche Einheitlichkeit der Kultur. Das Ergebnis bildet viel eher ein Flickwerk aus oft nur lose zusammenhängenden und manchmal gar widersprüchlich erscheinenden Teilen. Die Folge ist, dass es Kollektiven wie Individuen an einer konsolidierten Weltsicht fehlt. Es gibt nicht den einen kulturellen Code, sondern viele Codes und Cödchen.

»In order to bring an idea into a local cosmos from any part of the outside world, one has to use a cultural code. This presumes the existence of a deep structure which seems to be concealed within the motley and inconsistent patchwork of culture, like grammar in language. … However, and this is the decisive point here, it is not necessary to iinagine this cultural grammar as a uniform and genotypical code that determines the phenotypical surface. There is much to support the assumption that each culture has several mutually contradicting codes which are made available to individual people like alternative repertoires for thought. Each code has a different explanation of how the world is ordered, how you can recognize it, what you can do in it and what meaning results from it all, if any. Because of the contradictory nature of tbe various codes, it is not possible to completely deduce the patchwork of the cultural phenomena from them. The codes themselves are not unalterable either. As a result of these observations, we can only speak of a code – or rather the metacode – of a culture at all because the available choice of repertoires and their tangle of relations somehow differ from one culture to another.« [2]Richard Rottenburg, When Organization Travels: On Intercultural Translation, in: Barbara Czarniawska/Guje Sevón (Hg.), Translating Organizational Change, 1996, 191-2401996 S. 214.

Hier taucht zum ersten Mal der Begriff des Metacodes auf, wird aber noch nicht weiter expliziert.

Das Fehlen einer ganzheitlichen Weltsicht ändert nichts daran, dass bei der Entwicklungszusammenarbeit eben doch unterschiedliche Kulturen aufeinander stoßen oder jedenfalls »unter Bedingungen der Heterogenität« kooperiert werden muss, die »nicht nur im Bereich der Interessen [vorliegt], … sondern auch im Bereich des grundlegenden Orientierungswissens, das auf einer vorbewussten Ebene bereits Festlegungen über Semantik, Plausibilität, Evidenz, Kausalität, Relevanz, Legitimität und Ethos enthält« (2002 S. 232). Die konkreten Probleme, die daraus entstehen, hat Rottenburg in den »Weit hergeholten Fakten« von 2002 ausführlich beschrieben und analysiert. Dabei ging es um ein Projekt zur Reorganisation der Wasserversorgung in drei tansanischen Städten. Man kann diese Analyse als einen Betrag zur (rechtssoziologischen) Steuerungsdiskussion lesen, denn die Entwicklungszusammenarbeit liefere »ohne Zweifel den stärksten Beweis dafür …, dass gesellschaftliche Entwicklung nicht nach Plan gesteuert werden kann.« (2002 S. 218). Das Steuerungszentrum – bei Rottenburg die Entwicklungsbank als »Rechen(schafts)zentrum« — ist auf »Information ohne Deformation zwecks Kontrolle auf Distanz« (S. 224) angewiesen, erhält seine Informationen aber erst aus zweiter, dritter oder gar vierter Hand, und jede »Übergabe« ist mit einer »Transformation bzw. Übersetzung« verbunden. Bei dem Entwicklungsprojekt, dass Rottenburg 2002 thematisiert, war ein zentrales Problem die »Listenautophagie«, das Phänomen nämlich, dass es nicht gelingen wollte, verlässliche Daten über die an die Wasserleitungen angeschlossenen Nutzer und ihren Verbrauch zu gewinnen. Hier macht anscheinend die fehlende Institutionalisierung bürokratischer Routinen, wie sie in Mitteleuropa anzutreffen ist, den Unterschied.

Anke Draude [3]Anke Draude, Der blinde Fleck der Entwicklungstheorie, 2007, S. 71-89. lobt Rottenburgs Buch wegen seiner Analyse der verschiedenen »Codes«, die in der Entwicklungszusammenarbeit verwendet werden, als ein gelungenes Beispiel kulturwissenschaftlich informierten Umgangs mit der »Kontingenzperspektive«. Das ist eine durchaus adäquate Würdigung. Ich habe jedoch – dieses Wortspiel sei erlaubt – eine andere Perspektive auf das Buch. Ich sehe darin und in den nachfolgenden Erläuterungen Rottenburgs zum »Metacode« Vorläufer [4]Maurizio Ferraris und Markus Gabriel, haben es geschafft, den Neuen Realismus zu einem Medienhit zu machen. Sie haben sich vor die Presse gestellt und erklärt, im Jahr 2011, an einem Sommertag, um … Continue reading des Neuen Realismus. [5]Der »neue Realismus« verkündet den Ausstieg aus der Postmoderne. Das Medienereignis zeigt sich im Feuilleton (alles im Internet zugänglich): Die ZEIT hat 2014 eine Serie von sieben Artikeln zum … Continue reading

In den »Weit hergeholten Fakten« spielen die kulturellen Codes nur eine Nebenrolle. Vielmehr wird

»das Stück der Entwicklungszusammenarbeit mit zwei Skripten aufgeführt. Nach den Vorgaben des offiziellen Skriptes (unserem O-Skript) geht es darum, (neben Kapital und Technik) technisches Wissen zu übertragen, das soziokulturell neutral ist und per Training erworben werden kann (›Wie erneuere ich die Wicklung eines Elektromotors? ‹, ›Wie bediene ich die Tabellenkalkulation Excel?‹). Nach den Vorgaben des inoffiziellen Skriptes (unserem I-Skript) geht es hingegen darum, gerade solches Wissen zu übertragen, das die grundlegenden Formen menschlichen Zusammenlebens verändern soll (›Was darf marktwirtschaftlich geregelt werden?‹, ›Wie konstituiert sich politische Legitimität?‹, ›Wie ist der Loyalitätskonflikt zwischen Verwandtschaft und Gemeinwohl zu lösen?‹, ›Was heißt Verfahrensobjektivität?‹)). Bei der Aufführung des Stuckes kann man nun, je nach Situation, mal nach dem einen und mal nach dem anderen Skript spielen.« (2002 S. 2014 f.)

Nach dem O-Skript sind dem Empfänger Kredit, Technik und Know-how für eine »nachholende Modernisierung« zur Verfügung zu stellen. Das I-Skript, nach dem auch Lebensart herübergebracht werden soll, ist »inoffiziell«, weil es nicht dem »postkolonialen Emanzipationsnarrativ« (S. 215) entspricht, das einen souveränen Empfänger mit legitimem und relevantem lokalem Wissen postuliert, der nicht bevormundet werden darf. Alle Beteiligten verstehen und durchschauen das Rollenspiel mehr oder weniger gut mit der Folge, dass sie zur Wahrung ihrer Interessen strategisch zwischen den Skripten wechseln können. Auch die strategischen Absichten werden wechselseitig durchschaut mit der weiteren Folge, dass Misstrauen entsteht (S. 216). Es gibt allerdings noch ein drittes Spiel, in dem Vertrauen aufgebaut werden kann, nämlich das technische Spiel mit der »Leitdifferenz effektiv/ineffektiv« (S. 217). Es beruht

»auf dem naiven Realismus des Alltagsdenkens. Demnach können objektiv richtige Aussagen problemlos zwischen allen möglichen Bezugsrahmen zirkulieren, weil ihre Gültigkeit in der äußeren Realität gründet und folglich von allen Bezugsrahmen unabhängig ist. Das aber heißt, dass universell gültige Aussagen in einer universell gültigen Sprache formuliert sein müssen: in einem Metacode …« (S. 219f.)

Der »Alltagsrealismus« des Technischen Spiels liefert also den Metacode, der partiell eine Verständigung möglich macht.

»In den Aushandlungszonen der Entwicklungskooperation hat sich das Technische Spiel mit seinem Metacode als Handelssprache durchgesetzt.« (S. 234f; ähnlich 2003 167f)

Zur theoretischen Verankerung hebt Rottenburg das Verständigungsproblem auf eine epistemische Metaebene, ein geschickter Schachzug, um nach dem Verlust des Begriffs einheitlicher Kulturen dennoch mit großen Codes arbeiten zu können.

»Zum einen erweist sich das Dilemma der Differenz nur als weiterer Fall eines elementaren Paradoxes: Keine Weltbeschreibung – eben auch keine wissenschaftliche – kann außerhalb ihres Bezugsrahmens Gültigkeit beanspruchen, sofern der Beweis der Gültigkeit den Bezugsrahmen immer schon voraussetzt. Dessen ungeachtet operiert jede Weltbeschreibung mit Differenzen zu anderen Weltbeschreibungen, die sich gar nicht feststellen ließen, würde man nicht einen gemeinsamen, übergeordneten Bezugsrahmen unterstellen. Zum anderen fällt an dem Umgang mit dieser Paradoxie in der Entwicklungskooperation eine aufgeladene Sensitivität gegenüber den Differenzen der Bezugsrahmen auf.« (S. 236)

Dieser Ansatz wird 2003 näher ausgeführt. Rottenburg verzichtet auf den bei postmodernen Autoren verbreiteten (von mir so genannten) fundamentalistischen Antifundamentalismus. [6]Dessen Fehler besteht darin, epistemologische Positionen, die als solche ihre Berechtigung haben mögen, auf die operative Ebene des Umgangs mit der sozialen Wirklichkeit übertragen. Im Übrigen ist … Continue reading Seine

»These besteht nun darin, dass hier insbesondere Letztbegründungen für die Wahrheit von Aussagen bzw. für die Unterscheidung von Fiktion und Wirklichkeit eingeklammert und durch formale Evidenzverfahren ersetzt werden. … Zu diesem Zweck braucht man in erster Linie einen Metacode, der für sich in Anspruch nimmt, jenseits der diversen partikularen Kulturcodes zu stehen und unmittelbar mit der äußeren Wirklichkeit verbunden zu sein. Analog der Handelssprache der Märkte muss dieser Metacode alle unbedingt notwendigen Informationen übermitteln und alle überflüssigen und störenden Wissensbestände zum Verschwinden bringen.
Die pragmatische und provisorische Einigung auf den einen Metacode verschiebt die Aufmerksamkeit von der Frage der korrespondenztheoretischen Gültigkeit einzelner Aussagen, die sich gegenüber einer externen Realität zu bewähren hätten, auf die Frage der Anschlussfähigkeit der Aussagen untereinander. Das Problem externer Referenz wird somit zugunsten des Problems transversaler Referenz in den Hintergrund verschoben. In einer anderen Sprache formuliert: Das Verfahren bekommt Priorität gegenüber der Sache, um die es geht.« (S. 167f)

Ausgangspunkt ist die »Paradoxie« des Letzbegründungsproblems:

»Die Annahme der einen und erreichbaren Wirklichkeit geht mit der Annahme einher, dass es den einen Metacode geben muss, in dem sich die eine Wirklichkeit unverzerrt abbilden lässt. Die Annahme des Metacodes bedeutet wiederum, dass alle übrigen vorfindbaren Codes Kulturcodes sein müssen. Ohne die Unterscheidung zwischen dem einen universellen Metacode und den vielen partikularen Kulturcodes wäre die Annahme der einen Realität nicht aufrecht zu erhalten, denn unterschiedliche Kulturcodes entwerfen unterschiedliche Realitäten. Wer nun aber umgekehrt an der Behauptung multipler Realitäten festhält, ist selbst wieder darauf angewiesen, auf den einen Metacode zu rekurrieren, der die Behauptung der vielen Realitäten überhaupt erst ermöglicht. Damit ist die Aussage also wieder unterlaufen.« (2003 S. 154)

Der Metacode ist »eine Antwort auf die Frage, weshalb man die Annahme der einen Wirklichkeit nicht bestreiten kann, ohne selbst auf diese zurückzugreifen.« Der Ausweg ist ein Als-Ob-Realismus, wie ihn Hans Vaihinger vorgezeichnet hat. Wenn freilich jemand ohne viel Federlesens diese Position einnimmt [7]Wie wir in der Allgemeinen Rechtslehre, 3. Aufl. 2007, S. 139., bleibt das irrelevant. Um Beachtung zu finden, muss man die Lösung elaborieren und ihr durch Einbettung in einen Forschungszusammenhang Autorität verschaffen. Genau das ist Rottenburg gelungen. Seine Elaboration des wissenschaftstheoretischen Problems wird dadurch akzeptabel, dass sie sich gekonnt des kulturwissenschaftlichen Vokabulars bedient. Sie gewinnt an Überzeugungskraft, weil sie nicht auf der grünen Wiese der Theorie gepflückt, sondern in Auseinandersetzung mit einem praktischen Problem gewachsen ist.

In der Wissenschaft stehen sich prinzipiell der »Code der Repräsentation von Wirklichkeit« und der »Code der performativen Hervorbringung« (2003 S. 155.), also Realismus und Konstruktivismus gegenüber.

»Wenn zwei oder mehr Parteien um Problem- und Lösungsdefinitionen streiten, müssen sie sich auf Aussagen verständigen und beschränken, die sie gemeinsam überprüfen können.« [8]S. 155f.

Da es hoffnungslos wäre, zwischen Realismus und Konstruktivismus zu entscheiden, muss eine provisorische Lösung her, die das ausweglose Basisproblem umgeht.

»Das bedeutet, dass sie sich unter Vorbehalt auf Wahrheitskriterien und Realitätsdefinitionen einigen müssen, die sie für den Zweck und die Dauer ihrer Kooperation im Prinzip gelten lassen.« (2003 S. 156.)

Das ist dann der Metacode, der »der Kontroverse über die eine oder die vielen Wirklichkeiten aus dem Weg … gehen« soll (S. 165.). Dieser Metacode verwende einen Als-Ob-Realismus, der sich von dem »echten« Realismus dadurch unterscheidet, dass man immer wieder Anlass nehmen kann, davon abzurücken.

Auch ein bloß provisorischer Realismus kann der Differenz von Sein und Sollen nicht ganz ausweichen. Doch auch dafür gibt es eine undogmatische Lösung, indem die deskriptive und die normative Rede jeweils zum Sprachspiel erklärt werden. (2003 S. 171)

Rottenburg vergleicht den Metacode mit dem, was bei Gericht geschieht.

»Gerichtliche Aushandlungsprozesse lassen diesen allgemeinen Tatbestand besonders deutlich hervortreten: Man streitet vor Gericht zwar um die Wahrheit, doch bei der Austragung des Streits müssen vorher festgelegte Argumentationsmuster befolgt werden, um überhaupt geordnet streiten zu können. … Nicht der unmittelbare Wahrheitsgehalt steht im Vordergrund, sondern formale Kriterien der Gültigkeitsbestimmung von Beweismitteln.« (2003 S. 168; vgl. auch 2012 S. 497).

Wieweit der Vergleich von Metacode und prozessualer Wahrheit [9]Vgl. zu diesem Begriff die schon nicht mehr ganz neue Arbeit von Frauke Stamp, Die Wahrheit im Strafverfahren, Eine Untersuchung zur prozessualen Wahrheit unter besonderer Berücksichtigung der … Continue reading trägt, müsste allerdings noch näher untersucht werden. Zwei Unterschiede fallen sogleich auf. Erstens ist die prozessuale Wahrheit kraft Gesetzes institutionalisiert. Und zweitens teilen nicht nur die meisten Juristen, sondern auch andere Prozessbeteiligte als »perspektivische Objektivisten« die Vorstellung einer materiellen Wahrheit.

Analoges gilt auf der operativen Ebene der Entwicklungszusammenarbeit. Man braucht »einen Metacode, der für sich in Anspruch nimmt, jenseits der diversen partikularen Kulturcodes zu stehen« (S. 167). Der Metacode soll vorläufig und provisorisch die unterschiedlichen kulturellen Codes überbrücken, damit die Wanderschaft von Modellen überhaupt in Gang kommt (S. 214f).

Die Praktiker der Entwicklungshilfe entwickeln eine spezifische Form von Metacode, die sie befähigt, zwischen globalisiertem Wissen, das nach dem Code der Objektivität organisiert ist, und kulturell spezifischem Wissen hin und her zu springen (2012 S. 483). Sie können sich im Hinblick auf ein konkretes Projekt über Kriterien der Objektivität einigen, reflektieren aber gleichzeitig über ihr Tun und können in einem anderen Kontext ganz anders reden (2012 S. 490). Je nach der Aushandlungssituation denken und reden sie so oder so (2012 S. 401). Ähnlich trägt der Metacode im Entwicklungshilfediskurs der Rationalitätsforderung der Geberseite Rechnung, behält sich aber vor, über deren Relativität zu reflektieren.

Dieser Metacode ist also eine Art skeptischer oder vorläufiger Realismus.

Was bleibt an substantiellen kulturellen Codes, die man doch eigentlich in Entwicklungsländern erwartet? Über die » Bedingungen der Heterogenität«, über die vorbewussten »Festlegungen über Semantik, Plausibilität, Evidenz, Kausalität, Relevanz, Legitimität und Ethos« erfahren wir wenig. Rottenburg stimmt nicht in die postkoloniale Kritik »epistemischer Gewalt« [10]Vgl. Sebastian Garbe, Deskolonisierung des Wissens: Zur Kritik der epistemischen Gewalt in der Kultur- und Sozialanthropologie, Austrian Studies in Social Anthropology 1, 2013. ein, durch die nicht-westliche Wissensformen trivialisiert und für ungültig erklärt würden. Er widerspricht vielmehr der Auffassung, in der Entwicklungszusammenarbeit sei »der Code der Objektivität die Tarnmaske für die Hegemonie der ›Geber‹ … [die am Ende] dafür verantwortlich ist, dass lokale Gesichtspunkte nicht zum Zug kommen und die Sache deshalb scheitern muss« [11]2002 S. 213. Lokales Wissen und kultureller Code hindern die Empfänger anscheinend nicht, die westliche Weltsicht kognitiv zu rezipieren, damit strategisch umzugehen und so partikulare Interessen zu verfolgen.

Anmerkungen

Anmerkungen
1 Diese Lehre hat Rottenburg zuerst im 6. Kapitel der Monographie von 2002, Weit hergeholte Fakten, S. 213 ff) entwickelt und danach mehrfach mit kleinen Variationen wiederholt: Code-Wechsel. Ein Versuch zur Umgehung der Frage: Gibt es eine oder viele Wirklichkeiten?, in: Matthias Kaufmann (Hg.), Wahn und Wirklichkeit – multiple Realitäten, 2003, 153-174; Code-Switching, or Why a Metacode Is Good to Have, in: Barbara Czarniawska/Guje Sevón (Hg.), Global Ideas, How Ideas, Objects and Practices Travel in the Global Economy, 2005, 259-274; On Juridico-Political Foundations of Meta-Codes, in: Jürgen Renn (Hg.), The Globalization of Knowledge in History, 2012, 483-500. Das ganze Buch unter http://www.edition-open-access.de/studies/1/25/index.html. Die angeführten Arbeiten Rottenburgs werden im Text nur mit Jahr und Seite zitiert.
2 Richard Rottenburg, When Organization Travels: On Intercultural Translation, in: Barbara Czarniawska/Guje Sevón (Hg.), Translating Organizational Change, 1996, 191-2401996 S. 214.
3 Anke Draude, Der blinde Fleck der Entwicklungstheorie, 2007, S. 71-89.
4 Maurizio Ferraris und Markus Gabriel, haben es geschafft, den Neuen Realismus zu einem Medienhit zu machen. Sie haben sich vor die Presse gestellt und erklärt, im Jahr 2011, an einem Sommertag, um 13.30 Uhr in Turin sei es geschehen. Beim gemeinsamen Mahl sei ihnen die Eingebung gekommen, dass das Zeitalter eines neuen Realismus angebrochen sei. Ferraris veröffentlichte 2012 ein »Manifesto del nuovo realismo« und Gabriel landete 2013 den Bestseller »Warum es die Welt nicht gibt«. Beide zusammen veranstalteten 2013 in Bonn eine Tagung zum Thema, bei der es ihnen gelang, einige große Namen der zeitgenössischen Philosophie zu versammeln, allen voran Umberto Eco, Hilary Putnam und John Searle. Die drei genannten und die meisten anderen Teilnehmer hatten sich allerdings schon vor 2011 deutlich von der Postmoderne abgesetzt. Der Frankfurter Philosoph Martin Seel meinte deshalb in der »ZEIT« (vom 3. Juli 2014), es sei schon öfter vorgekommen, dass eine Nachhut sich für die Vorhut hielt.
5 Der »neue Realismus« verkündet den Ausstieg aus der Postmoderne. Das Medienereignis zeigt sich im Feuilleton (alles im Internet zugänglich): Die ZEIT hat 2014 eine Serie von sieben Artikeln zum Thema veröffentlicht, den letzten von dem Philosophen Martin Seel unter dem Titel »Eine Nachhut möchte Vorhut sein«. Der Artikel enthält Links zu den sechs vorausgegangenen. Ferner: Cord Riechelmann, Und sie existiert doch!, FamS vom 26. 10. 2014 [nur im FAZ-Archiv]; Uwe Justus Wenzel, Maurizio Ferraris’ ›Manifest des neuen Realismus‹. Die Postmoderne und die Populisten, NZZ vom 14. 5. 2014; Daniel Boese, Hallo Welt, art. Das Kunstmagazin vom 8. 1. 2014.
Bücher zum »neuen Realismus«: Maurizio Ferraris, Manifesto del nuovo realismo, Rom 2012, deutsch als: Manifest des neuen Realismus, 2014; Markus Gabriel, Warum es die Welt nicht gibt, 2013; ders. (Hg.). Der neue Realismus, 2014. Ferner: Armen Avanessian, Realismus jetzt. Spekulative Philosophie und Metaphysik für das 21. Jahrhundert, 2013; Christoph Riedweg, Nach der Postmoderne, Aktuelle Debatten zu Kunst, Philosophie und Gesellschaft, Basel 2014.
6 Dessen Fehler besteht darin, epistemologische Positionen, die als solche ihre Berechtigung haben mögen, auf die operative Ebene des Umgangs mit der sozialen Wirklichkeit übertragen. Im Übrigen ist an Karl R. Poppers »Myth of the Framework« zu erinnern. Der fundamentalistische Antifundamentalismus führt in ein epistemisches Gefängnis. Dessen Mauern sind – nach Ansicht Poppers – (Karl R. Popper, The Myth of the Framework, in: Eugene Freeman (Hg.), The Abdication of Philosophy: Philosophy and the Public Good; Essays in Honor of Paul Arthur Schilpp, La Salle, Ill. 1976, S. 23-48.) eher aus Papier.
7 Wie wir in der Allgemeinen Rechtslehre, 3. Aufl. 2007, S. 139.
8 S. 155f.
9 Vgl. zu diesem Begriff die schon nicht mehr ganz neue Arbeit von Frauke Stamp, Die Wahrheit im Strafverfahren, Eine Untersuchung zur prozessualen Wahrheit unter besonderer Berücksichtigung der Perspektive des erkennenden Gerichts in der Hauptverhandlung, 1998.
10 Vgl. Sebastian Garbe, Deskolonisierung des Wissens: Zur Kritik der epistemischen Gewalt in der Kultur- und Sozialanthropologie, Austrian Studies in Social Anthropology 1, 2013.
11 2002 S. 213.

Ähnliche Themen

Eine Konvergenztheorie des Wissens (2. Fortsetzung)

Gründe 34-51
Sekundäres und externalisiertes Wissen

34. Die Konvergenzthese bezieht sich nur auf externalisiertes Wissen, das heißt auf solches, das außerhalb des menschlichen Gedächtnisses gespeichert ist.

35. Nur ein kleiner Teil des individuellen Wissens stammt aus erster Hand. Der weitaus größere Teil des Wissens wird von anderen übernommen. Die Masse des Wissens zirkuliert als sekundäres Wissen.

36. Wissenschaftstheorie fragt immer nur danach, wie Wissen mit Wahrheitsanspruch gewonnen werden kann. Zwar verbindet sich mit diesem Anspruch derjenige auf Intersubjektivität. Die intersubjektive Übertragbarkeit von Wissen hängt aber nicht von einer theoretischen Lösung der Wahrheitsfrage ab, sondern ist ein soziales Phänomen.

37. Für die eigene Lebenswelt hat man vielleicht noch den Eindruck, man kenne sie aus eigener Erfahrung. Doch schon der Eindruck täuscht. Schon meinen eigenen Lebenslauf kenne ich zum Teil nur aus Berichten von Eltern und Verwandten. Das Weltwissen dagegen stammt mehr oder weniger vollständig aus sekundären, tertiären oder noch weiter entfernten Quellen. Man lernt es mehr oder weniger planmäßig in Familie und Schule, aus Büchern und anderen Medien oder beiläufig im Umgang mit anderen Menschen. Die Qualität dieses Wissens wird in der Regel gar nicht hinterfragt. Sie ergibt sich unmittelbar aus der sozialen Beziehung zur Wissensquelle.

38. Auch Wissen, das als wissenschaftlich ausgezeichnet ist, ist ganz überwiegend Wissen aus zweiter Hand. Die Wissenschaftlichkeit einer Proposition folgt, ganz gleich welcher Wissenschaftstheorie man folgt, aus der Prozedur seiner Herstellung. Nur wer selbst an dieser Prozedur beteiligt ist, verfügt über Wissen erster Hand. Aber das sind verschwindend wenige. Deshalb kursiert auch wissenschaftlich erzeugtes Wissen grundsätzlich als Wissen aus zweiter Hand. Ein prominentes Beispiel bietet das Milgram-Experiment. Versuchsanordnung und Ergebnisse werden durchgehend zustimmend referiert und gelten beinahe schon als Allgemeinwissen.

39. Für die Qualifizierung von Wissen aus zweiter Hand hat die Wissenschaftstheorie wenig zu bieten. Zu denken ist immerhin an die Methoden zur Erstellung von Metastudien. Alle zusammenfassenden Referate, Übersichtsartikel, Lehrbücher usw. sind der Sache nach (qualitative) Metastudien, die selten oder nie ihre Methodik reflektieren. [1]Everett M. Rogers, der Klassiker der Diffusionstheorie (Diffusion of Innovations, 5. Aufl., New York, NY 2003), von dem in diesem Blog schon mehrfach die Rede war, berief sich in der ersten Auflage … Continue reading Häufiger sind methodische Überlegungen zu quantitativen Metanalysen.

40. Für die Qualifizierung von Wissen aus zweiter Hand lässt sich auch an die Diskussion über die Qualifizierung so genannten Testimonialwissens anknüpfen, die von Oliver R. Scholz in Gang gebracht worden ist. [2]Oliver R. Scholz, Das Zeugnis anderer. Prolegomena zu einer sozialen Erkenntnistheorie, in: Thomas Grundmann (Hg.), Erkenntnistheorie, Positionen zwischen Tradition und Gegenwart, 2001, 354-375 sowie … Continue reading Das Konzept einer sozialen Erkenntnistheorie (Social Epistemology) [3]Zur Orientierung vgl. den Artikel »Social Epistemology« von Alvin Goldman in der Stanford Encyclopedia of Philosophy, 2006. Seit 1987 erscheint eine Zeitschrift »Social Epistemology«, deren Texte … Continue reading betont die soziale Konstituierung und Vernetzung von Wissensbeständen.

41. Subjektive Wissensarbeit hat Konvergenz- und Divergenzeffekte. Auch die (objektive) Zirkulation von Wissen jenseits subjektiver Wissensarbeit bringt Effekte in beiden Richtungen. Die Konvergenzthese besagt natürlich, dass die Konvergenzeffekte überwiegen. Sie macht für die Konvergenzeffekte aber in erster Linie objektive Umstände (Eigenschaften des Wissens, Speichertechniken, Wiedergewinnungsmethoden u. a. mehr) verantwortlich. Daher die Überschrift: das Internet als Konvergenzmaschine.

42. Subjektive Wissensarbeit ist überfordert, wenn es darum geht, den Stand (wissenschaftlicher) Literatur auch nur zu einer einzelnen Proposition repräsentativ zu verarbeiten. Ein wissenschaftlicher Aufsatz zitiert heute im Schnitt vielleicht 20 bis 30 Quellen (und macht daraus 100 Fußnoten). Tatsächlich werden die meisten Themen aber bereits in hunderten oder tausenden von Texten behandelt. Die Nachweise in wissenschaftlichen Abhandlungen sind durchweg nicht annähernd repräsentativ. Niemand kann alles lesen, was etwa zur Abschreckung durch schärfere Sanktionen oder zur Beeinflussung richterlicher Entscheidungen durch die soziale Herkunft, zur Stufenbaulehre Merkls oder zur Drittwirkung der Grundrechte geschrieben worden ist. Das überfordert die menschliche Kapazität und das scheitert konkret auch oft an Disziplingrenzen, an der Verfügbarkeit der Texte und an Sprachproblemen. Ich vermute, dass deshalb sich abzeichnende Konvergenz vielfach verdeckt bleibt. Hinzu kommt – weiterhin vermutlich – eine Tendenz aller Schreiber, Divergenzen zu betonen, sei es weil Konsonanzen langweilig sind, sei es weil sie glauben, sich dadurch besser profilieren zu können.

43. Die Wissenschaftstheorie der Postmoderne scheint der Konvergenzthese wenige Chancen zu geben. Sie sieht sich außerstande, eine konsistente und einvernehmliche Position zu entwickeln, von der aus Wissenselemente als falsch ausgesondert werden können. Sie vertritt vielmehr einen Multiperspektivismus, der statt einer Wahrheit viel Wahres akzeptiert oder gar hervorbringt. Vielleicht ist aber gerade der bewusste Perspektivenwechsel ein Instrument zur Feststellung von Wissenskonvergenz. Was aus unterschiedlichen Perspektiven gleich bleibt, zeigt »aperspektivische Objektivität«.

44. In das Weltwissen ist vieles eingegangen, was einmal Thema wissenschaftlicher Forschung und nicht selten auch umstritten war. Nur ein kleiner Teil des Weltwissens ist explizit als epistemisch verlässlich, das heißt als wissenschaftlich begründet, ausgezeichnet. Doch längst gibt es einen großen Wissensbestand, dessen Herkunft aus der Wissenschaft gar nicht mehr wahrgenommen wird. In solchem Allgemeinwissen hat sich die Konvergenz des Wissens bereits realisiert.

45. Wie Sekundärwissen sich verfestigt, kann man bei der individuellen Informationssuche beobachten. Die Suchmaschine ersetzt oder verdrängt das zweifelnde Fragen und das Ringen um eine eigene Antwort. Wenn immer eine Frage auftaucht, wird nach Lösungen gegugelt. Eine davon muss es sein. Die richtige Antwort schält sich heraus, wenn man die ersten zehn oder vielleicht auch 20 Suchergebnisse auf Plausibilität und Übereinstimmung durchsieht.

46. Suchregeln, Gewichtungsregeln und Stoppregeln werden kaum explizit ausformuliert Aber sie sind implizit doch vorhanden. Drei Filter ergänzen sich, indem sie Quantität, Qualität und Kohärenz der Quellen zusammenfügen.

47. Quantität: In aller Regel gibt man sich mit der ersten Auskunft nicht zufrieden, sondern sucht nach mehreren übereinstimmenden Ergebnissen. Wie viele müssen es sein? Das hängt natürlich auch davon ab, ob es widersprechende Ergebnisse gibt. Juristen sind mit der Vorstellung von herrschender Meinung und Mindermeinung vertraut.

48. Wissenschaftliches Wissen, das aus dem Internet reproduziert wird, hat den Charakter von Lehrmeinungen.

49. »The idea that truth can best be revealed through quantitative models dates back to the development of statistics (and boasts a less-than-benign legacy). And the idea that data is gold waiting to be mined; that all entities (including people) are best understood as nodes in a network; that things are at their clearest when they are least particular, most interchangeable, most aggregated — well, perhaps that is not the theology of the average lit department (yet). But it is surely the theology of the 21st century.« [4]Kathryn Schulz, What Is Distant Reading?, The New York Times – Sunday Book Review vom 24. 6. 2011.

50. Für die Qualität der Quelle gibt es unterschiedliche Anhaltspunkte. Der erste ist Autorität der Autorenschaft. Der zweite ist das Erscheinungsbild der Quelle: Elaboration, Design usw. Wichtig ist schließlich, ob sich Ergebnisse und Begründungen plausibel zusammenfügen. Man könnte von inferentiellem Wissen sprechen.

51. Elaboration verdient besondere Aufmerksamkeit. Psychologen verstehen darunter eine vertiefte Informationsverarbeitung des Individuums durch die Einbettung neuer Information in das Netzwerk des Vorwissens. Hier ist dagegen die Elaboration der Darbietung von Wissen gemeint. Sie beginnt bei einem elaborierten Sprachstil, der sich als »wissenschaflich« zu erkennen gibt. Vor allem aber besteht sie, analog zu der individuellen Elaboration von Wissen, in der Einfügung singulärer Propositionen in einen größeren Zusammenhang. So geschieht es immer wieder in Dissertationen und Habilitationsschriften, dass eine an sich begrenzte These in eine umfangreiche historische Darstellung eingebettet wird, die möglichst alles referiert, was zum Thema gesagt wurde, mag es auch noch so obsolet sein. Kunstgerechte Elaboration »wirkt«, weil der Rezipient den – meistens durchaus zutreffenden – Eindruck gewinnt, hier sei großer Aufwand getrieben worden, um ein Ergebnis zu finden. Der Aufwand dient bis zu einem gewissen Grade als Ersatz für Gründe.

Anmerkungen

Anmerkungen
1 Everett M. Rogers, der Klassiker der Diffusionstheorie (Diffusion of Innovations, 5. Aufl., New York, NY 2003), von dem in diesem Blog schon mehrfach die Rede war, berief sich in der ersten Auflage von 1962 auf 506 empirische Untersuchungen. Bis zur fünften Auflage von 2003 hatte sich die Zahl der in Bezug genommenen Untersuchungen auf 5200 reichlich verzehnfacht. De facto handelt es sich hier um eine Metastudie, ohne dass Rogers sich dazu besondere methodische Gedanken gemacht hätte. Greenhalgh u. a. , die ab 2001 im Auftrag des UK Department of Health der Diffusion und Nachhaltigkeit von Innovationen im Gesundheitswesen nachgingen, haben einen Literaturbericht erstellt, der sich auf 1024 Quellen stützt. Die wesentlichen Ergebnisse wurden zunächst 2004 in einem Aufsatz zusammengefasst (Trisha Greenhalgh/Glenn Robert/Fraser Macfarlane/Paul Bate/Olympia Kyriakidou, Diffusion of Innovations in Service Organisations: Systematic Literature Review and Recommendations for Future Research, Milbank Quarterly 82, 2004, 581-629), der vollständige Bericht ist 2005 unter dem gleichen Titel als Buch erschienen. Anders als Rogers haben Greenhalgh u. a. sich mit den methodischen Herausforderungen einer solchen Kompilation befasst (Storylines of Research in Diffusion of Innovation: A Meta-Narrative Approach to Systematic Review, Social Science & Medicine 61, 2005, 417-430.)
2 Oliver R. Scholz, Das Zeugnis anderer. Prolegomena zu einer sozialen Erkenntnistheorie, in: Thomas Grundmann (Hg.), Erkenntnistheorie, Positionen zwischen Tradition und Gegenwart, 2001, 354-375 sowie Bibliographie ebd. S. 391-394; ders., Das Zeugnis der Sinne und das Zeugnis anderer, in: Richard Schantz (Hg.), Wahrnehmung und Wirklichkeit, 2009, 183-209; ders., Das Zeugnis anderer – Sozialer Akt und Erkenntnisquelle, in: Sybille Schmidt/Sybille Krämer/Ramon Voges (Hg.), Politik der Zeugenschaft. Kritik einer Wissenspraxis, 2011, 23-45; Nicola Mößner, Wissen aus dem Zeugnis anderer, 2010.
3 Zur Orientierung vgl. den Artikel »Social Epistemology« von Alvin Goldman in der Stanford Encyclopedia of Philosophy, 2006. Seit 1987 erscheint eine Zeitschrift »Social Epistemology«, deren Texte überwiegend neben meinem Thema liegen.
4 Kathryn Schulz, What Is Distant Reading?, The New York Times – Sunday Book Review vom 24. 6. 2011.

Ähnliche Themen

Social Engineering – da war doch noch was?

Auf SOZBLOG, dem Blog der DGS, finde ich einen Beitrag von Thomas Etzemüller mit der Überschrift »Synthetische Begriffsbildung: social engineering«. Der Beitrag dient dazu, ein Projekt des Bloggers und den daraus resultierenden Sammelband [1]Thomas Etzemüller (Hg.), Die Ordnung der Moderne, Social Engineering im 20. Jahrhundert, 2009. Eine Rezension von Christian Geulen in: H-Soz-Kult, 20.01.2010, <http://www.hsozkult.de/publicationreview/id/rezbuecher-12312>. vorzustellen. Dessen Grundtenor geht wohl dahin, social engineering auf der »darker side of modernity« zu verorten und gelegentlich Verbindungen zu einem totalitären Ordnungsdenken herzustellen. Wie gut, dass auch Alva und Gunnar Myrdal – denen das besondere Interesse Etzemüllers gilt [2]Er hat ihnen eine eigene Monographie gewidmet: Thomas Etzemüller, Die Romantik der Rationalität. Alva & Gunnar Myrdal — Social Engineering in Schweden, transcript, Bielefeld 2010. – als prominente Sozialingenieure ins Visier geraten. Die sind politisch unverdächtig.

Was im Projekt geschah, wird wie folgt beschrieben:

»Wir haben den Begriff weder aus den Quellen entwickelt, weil es ihn da kaum gibt, noch einfach definiert und dann an die Quellen herangetragen. Eher war es eine Art synthetisierendes Verfahren. Wir haben mit Hilfe von Theorien — Ludwik Fleck, Michel Foucault u.a. —, empirischer Studien und an den Quellen Felder, Themen und Akteure identifiziert und auf diese Weise immer mehr umrissen, was social engineering sein könnte und was nicht.«

Was dabei herauskommt, zeigt der Eingangssatz von Etzemüllers Docupedia-Artikel »Social Engineering«. Der Begriff wird so weit gestellt, dass man damit alles oder nichts anfangen kann.

»Social engineering soll als transnationaler, Disziplinen übergreifender Versuch verstanden werden, gegen die vermeintlich zersetzenden Kräfte der industriellen Moderne mit künstlichen Mitteln eine verlorene natürliche Ordnung der Gesellschaft wieder zu erschaffen, indem man eine alle gesellschaftlichen Bereiche durchdringende, vernünftige soziale Ordnung entwarf.«

Social Engineering gehört insofern auf die Seite der Gesellschaft im Gegensatz zur Gemeinschaft im Sinne von Ferdinand Tönnies. [3]Thomas Etzemüller, Social Engineering
als Verhaltenslehre des kühlen Kopfes. Eine einleitende Skizze, in: ders. u. a. (Hg.), Die Ordnung der Moderne, 2009, S. 11-39, S. 30.
Besser hätte man sich die begrifflichen Verrenkungen erspart und einfach von Sozialtechnologie gesprochen. [4]Vgl. dazu die Absteckung des Begriffsfelds durch Roland Müller: http://www.muellerscience.com/SPEZIALITAETEN/Methoden/Sozialtechnologie_Begriffe.htm.

Etzemüller beginnt seinen Blogeintrag entsprechend mit der Aussage, social engineering sei »ein in der Forschung noch nicht definierter Begriff, obwohl er seit dem frühen 20. Jahrhundert vereinzelt durch die Literatur geistert.« Vielleicht hätte er sich doch ein wenig mehr umsehen sollen. Der Begriff des social engineering ist durch Roscoe Pound zu einem Topos der Rechtssoziologie geworden ist. Michael Hochgeschwender [5]The Noblest Philosophy and Its Most Efficient Use: Zur Geschichte des social engineering in den USA, 1910-1965, in: Etzemüller u. a. (Hg.), Die Ordnung der Moderne, 2009, 171-197 schreibt in seinem Beitrag »Zur Geschichte des social engineering in den USA, 1910-1965« an der Rechtssoziologie vorbei. Auf der letzten Seite in der letzten Fußnote beruft er sich immerhin höchst ungenau [6]»Vgl. dazu Podgórecki, Adam/Alexander, Jon/Shields, Rob (Hg.): Social Engineering, Ottawa 1996.« Auf diesen Titel verweist auch Etzemüller in seinem Docupedia-Artikel. auf einen Sammelband, an dem der als Rechtssoziologe bekannte Adam Podgórecki beteiligt war. [7]Nachtrag vom 28. 12. 2014: In diesem Band ist trotz der Beteiligung Podgóreckis von Roscoe Pound und Rechtssoziologie nicht die Rede. Immerhin erwähnt Podgórecki in seinem Beitrag »Sociotechnics: … Continue reading In dem darauf folgenden Beitrag von Carl Marklund [8]Introduction: »Übergriffsgeschichte« and Social Engineering, 199-221. wird Roscoe Pound (auf S. 205) nur als Vertreter des Pragmatismus genannt.

Recht war für Pound nicht Selbstzweck, sondern Mittel zum Zweck, »a means not an end« [9]Pound, The Need of a Sociological Jurisprudence, Green Bag 19, 1907, 607 ff., 614. Für diese instrumentale Auffassung vom Recht prägte er später den Ausdruck social engineering.

»Let us think of jurisprudence for a moment as a science of social engineering, having to do with that part of the whole field which may be achieved by the ordering of human relations through the action of politically organized society«. [10]Interpretations of Legal History, 1923, 152

Pound wies dem Recht die Aufgabe zu, Interessenkonflikte aufzulösen, wie sie im Verlaufe des Sozialprozesses entstehen, dachte aber nicht an die Fixierung letzter Ziele oder an die Ausführung eines Gesamtplans. »Engineering« war daher durchaus im Sinne des piecemeal engineering von Popper gemeint. Aus dieser Sicht stellten Pound und seine Anhänger die Frage nach den spezifischen Vorzügen und Nachteilen von Gesetzgebung und Rechtsprechung für eine interessengerechte Gestaltung der Gesellschaft. Soziologisch ging es ihnen darum, das Recht mit nichtrechtlichen Faktoren, d. h. mit anderen sozialen Erscheinungen, in Verbindung zu bringen. Dieses Bemühen kommt in einer Reihe von griffigen Thesen zum Ausdruck: Gesetze und Urteile haben Folgen für das Sozialleben; sozialer Wandel determiniert die Entwicklung des Rechts; die Effektivität der Rechtsnormen hängt vom Grad der Unterstützung ab, den sie in der öffentlichen Meinung finden, usw. Zu Beginn des 20. Jahrhunderts waren solche Gedanken eher revolutionär. Heute klingt all das eher banal (oder nach Neoinstitutionalismus), so auch der Abschnitt IV in meinem Buch »Das Dilemma der Rechtstatsachenforschung« von 1974 (S. 46-74), der überschrieben war, »Recht als ›Social Engineering‹.« Aber in den 1960er Jahren hattte der Topos vom Sozialingenieur Konjunktur. Dafür stand der Aufsatz von Konrad Zweigert »Vom Rechtsheiligen zum Sozialingenieur« (DIE ZEIT, 21.2.1969 Nr. 08). Später hat Peter Kauffmann [11]Zur Konstruktion des Richterberufs durch Richterleitbilder, 2003; ders., Richterleitbilder heute – eine rechtssoziologische Betrachtung, DRiZ 2008, 194-198. noch einmal darauf zurückgegriffen, als er auf der Grundlage von Textanalysen das Angebot für Richterleitbilder in sieben »Grobkategorien« mit diversen Unterkategorien typisiert: Der Richter als »Rechtsprechungsautomat«, als »Schützer und Helfer«, als »Sozialarbeiter«, als »politischer Richter«, als »Billigkeitsrichter«, als »Dienstleister« und nicht zuletzt als »Sozialingenieur«. Heute ist der Topos eher in Vergessenheit geraten. Das ist aber kein Grund, ihn im Dunklen zu verorten.

Nachtrag vom 4. 3. 2015:
Hier noch einige Fundstücke:
Linus J. McManaman, Social Engineering: The Legal Philosophy of Roscoe Pound, St. John’s Law Review 33, 1958, 1-47.

Das Schweizer Institut für Rechtsvergleichung in Lausanne wird in der Einleitung zu einer zweibändigen Jubiläumspublikation mit dem Titel »Legal Engineering and Comparative Law« (Genf 2009) von der Herausgeberin und Direktorin des Instituts Eleanor Cashin-Ritaine wie folgt vorgestellt:

Lawyers at the Institute have, thus, perfected over the years a specific methodology, essentially in private law, that takes into account all sources of law, and allows for the creation of abstract legal structures that fulfil particular functional and practical purposes. This (re-)engineering of legal concepts and legal sources has given the scientific team in Lausanne a rare technical competence where both the scientific aspects of legal reasoning are taken into account and the complex practical issues are addressed in a pragmatic client-oriented manner. As a result, the phrase “legal engineering in comparative law” seems to describe in a very accurate way the scientific activity of the Swiss Institute of Comparative Law.

Im Internet habe ich aus diesem Band noch gefunden:
J. M. Smits, Legal Engineering in an Age of Globalisation.

Anmerkungen

Anmerkungen
1 Thomas Etzemüller (Hg.), Die Ordnung der Moderne, Social Engineering im 20. Jahrhundert, 2009. Eine Rezension von Christian Geulen in: H-Soz-Kult, 20.01.2010, <http://www.hsozkult.de/publicationreview/id/rezbuecher-12312>.
2 Er hat ihnen eine eigene Monographie gewidmet: Thomas Etzemüller, Die Romantik der Rationalität. Alva & Gunnar Myrdal — Social Engineering in Schweden, transcript, Bielefeld 2010.
3 Thomas Etzemüller, Social Engineering
als Verhaltenslehre des kühlen Kopfes. Eine einleitende Skizze, in: ders. u. a. (Hg.), Die Ordnung der Moderne, 2009, S. 11-39, S. 30.
4 Vgl. dazu die Absteckung des Begriffsfelds durch Roland Müller: http://www.muellerscience.com/SPEZIALITAETEN/Methoden/Sozialtechnologie_Begriffe.htm.
5 The Noblest Philosophy and Its Most Efficient Use: Zur Geschichte des social engineering in den USA, 1910-1965, in: Etzemüller u. a. (Hg.), Die Ordnung der Moderne, 2009, 171-197
6 »Vgl. dazu Podgórecki, Adam/Alexander, Jon/Shields, Rob (Hg.): Social Engineering, Ottawa 1996.« Auf diesen Titel verweist auch Etzemüller in seinem Docupedia-Artikel.
7 Nachtrag vom 28. 12. 2014: In diesem Band ist trotz der Beteiligung Podgóreckis von Roscoe Pound und Rechtssoziologie nicht die Rede. Immerhin erwähnt Podgórecki in seinem Beitrag »Sociotechnics: Basic Problems and Issues (S. 23-57) auf S. 24 kurz Leon Petrażycki, der seinerseits als Rechtssoziologe bekannt ist, als den Autor, der erster eine bewusste Definition von Social Engineering als rechtspolitischer Theorie formuliert habe.
8 Introduction: »Übergriffsgeschichte« and Social Engineering, 199-221.
9 Pound, The Need of a Sociological Jurisprudence, Green Bag 19, 1907, 607 ff., 614
10 Interpretations of Legal History, 1923, 152
11 Zur Konstruktion des Richterberufs durch Richterleitbilder, 2003; ders., Richterleitbilder heute – eine rechtssoziologische Betrachtung, DRiZ 2008, 194-198.

Ähnliche Themen

Eine Konvergenztheorie des Wissens (1. Forsetzung)

Gründe 18-33:
»Literaturflut – Informationslawine – Wissensexplosion«. [1]Werner Marx, Literaturflut – Informationslawine – Wissensexplosion. Wächst der Wissenschaft das Wissen über den Kopf?, Forschung 4, 2011, 96-104 (zitiert wird vielfach noch eine ältere … Continue reading

18. Hinter diesen Stichworten steckt nicht unbedingt ein Gegenargument zur Konvergenzthese. Sie verweisen jedoch auf wichtige Zusammenhänge, nämlich erstens auf die These von dem unbegrenzten und unbegrenzbaren Wachstum des Wissens, zweitens auf die Möglichkeiten und Probleme einer Quantifizierung des Wissens und drittens auf Versuche, das anscheinend unbremsbare Wachstum des Wissens zu relativieren.

19. Die These vom unbegrenzten und unbegrenzbaren Wachstum des Wissens schließt an die These vom Unwissen als Kehrseite des Wissens. Letztere stammt angeblich schon von Goethe, der gesagt haben soll »Mit dem Wissen wächst der Zweifel.« Sie ist selbst ein Beispiel für die Konvergenz des Wissens. Die kürzeste Formulierung lautet wohl »Wissen produziert Unwissen.« Etwas ausführlicher: »Je mehr man weiß, desto mehr wächst der bewußte Bereich des Ungewußten.« [2]Beide Formulierungen aus Christoph Engel/Jost Halfmann/Martin Schulte, Wissen – Nichtwissen – unsicheres Wissen, 2002, Vorwort S. 9. Diesen nicht überprüften Nachweis habe ich (ohne die … Continue reading Die These taucht an vielen Stellen auf, ohne dass man auf dieselbe Quelle Bezug nimmt. [3]Z. B. bei Martin Schulte, Eine soziologische Theorie des Rechts, S. 130: »Keine Generierung von Wissen ohne gleichzeitige Generierung von Nichtwissen!« Schulte verweist auf zwei Titel von Klaus … Continue reading

20. Die These vom unbegrenzbaren Wachstum des Wissens wird oft mit Hilfe der Metapher von der Wissenskugel ausgedrückt. »Die Kugel des Gewussten liege im Meer des Ungewussten. Damit ist klar, je mehr wir wissen, desto größer ist der Kontakt der Kugeloberfläche zum Ungewussten.« [4]Rainer Schröder/Angela Klopsch, Der juristische Doktortitel, Humboldt Forum Recht 2012, S. 33, ohne Nachweis. Die Proposition, die dahinter steckt, die Aussage nämlich, dass mit der Zunahme des Wissens der Bereich des Unwissens wächst, ist selbst ein Beispiel für die Konvergenz des Wissens, taucht dieser Gedanke doch an verschiedenen Stellen immer wieder auf. Werner Marx nennt als Erfinder der Wissenskugel ohne Nachweis Hubert Markl, als Fortsetzer Jürgen Mittelstraß und verweist dazu auf einen Radiovortrag von 1992 [5]Von Marx 2011 bei Fn. 4.. Matthias Groß [6]Die Wissensgesellschaft und das Geheimnis um das Nichtwissen, in: Cécile Rol/Christian Papilloud, Soziologie als Möglichkeit, 2009, S. 105. verweist auf einen Aufsatz von Mittelstraß von 1996 [7]Nichtwissen: Preis des Wissens? In: Schweizerische Technische Zeitschrift 93, 1996, 32-35.. Und Mittelstraß nennt sich selbst als Quelle. [8]In dem Internet-Manuskript »Gibt es Grenzen des Wissens?«, 2008. Der Gedanke ist freilich älter. Ich meinerseits habe bereits 1974 [9]Das Dilemma der Rechtstatsachenforschung, S. 39. festgehalten: »Sowie sich der Kreis des Bekannten vergrößert, wird die Peripherie, an der er sich mit dem Unbekannten berührt, immer länger.«, als Quelle von Hayek [10]Friedrich A. von Hayek, Rechtsordnung und Handelsordnung, in: Zur Einheit der Rechts- und Staatswissenschaften, Karlsruhe 1967, S. 195 ff., 205. angegeben und außerdem in der Fußnote Popper [11]Karl R. Popper, On the Sources of Knowledge and of Ignorance, in: Conjectures and Refutations, London 1963, S. 28. zitiert: »The more we learn about the world, and the deeper our learning, the more conscious, specific, and articulate will be our knowledge of what we do not know, our knowledge of ignorance. For this, indeed, is the main source of our ignorance – the fact that our knowledge can only be finite, while our ignorance must necessarily be infinite.« Der Wissenskugel entspricht eine Verstehenskugel: »Jeder Zuwachs an Verstehen ist zugleich ein Zuwachs an Verstehen des Nichtverstehens und damit eine kontinuierliche Unterminierung des Verstehens. Auch die durch das hermeneutische Verfahren zu behebende Ungewißheit ist damit ›Ungewißheit ohne Ende‹, die durch Zunahme von Wissen nie endgültig aufzuheben ist.« [12]Zitat aus Ino Augsberg, Die Lesbarkeit des Rechts, 2009, S. 187, er wiedrum auf Luhmann, Die Religion der Gesellschaft, 2000, S. 47 verweist. Bei Teubner lesen wir: »In der Wissenschaft erzeugt die Forschung immer höhere Ungewissheiten, die nur durch verstärkte Forschung wieder beseitigt werden können, die wiederum neue Ungewissheiten erzeugen.« [13]Verfassungsfragmente, 2012, S. 129, ohne Nachweis.

21. Die Quantifizierung des Wissens fordert eigentlich eine Wissensdefinition und deren Operationalisierung. Hier liegt ein bisher nicht befriedigend gelöstes Problem. Daher wird die quantitative Zunahme des Wissens indirekt gemessen, vor allem durch Zählung von Menschen mit wissenschaftlicher Ausbildung als Wissensproduzenten und von Publikationen als Wissensträger. Konvergenzen lassen sich mit solchen Zählungen nicht erkennen.

22. Die Versuche, die anscheinend unbremsbare Zunahme des Wissens zu relativieren, beginnen bei der Definition des Wissens, und zwar durch die Ausscheidung von Daten und Informationen. Ein weiterer Schritt ist die Qualifizierung des Wissens. Dazu dienen etwa die Messung von Zitierhäufigkeiten und die Ermittlung Veraltungszyklen. Beides könnte, aber muss nicht auf Konvergenz hindeuten. Die Konvergenzthese lässt sich ihrerseits als Versuch der Relativierung der Wissensexplosion verstehen, wiewohl das nicht ihre eigentliche Zielrichtung ist.

23. Die These hinter der Wissenskugel geht stillschweigend davon aus, dass das vorhandene Wissen irgendwie konsolidiert ist und vor allem auch gewusst wird. Die These von der Konvergenz des Wissens interessiert sich kaum für das Unwissen außerhalb der Kugel, sondern sie befasst sich mit der Konsolidierung des Kugelinhalts. Die Konsolidierung (vorhandenen) Wissens setzt voraus, dass das Wissen überhaupt zur Kenntnis genommen wird. Die unzulängliche Konsolidierung von Wissen hat ihre Ursache vielfach nicht in Unwissen, sondern in Unkenntnis des Wissens (ignorance). [14]Andrew Abbott, Varieties of Ignorance, The American Sociologist 41, 2010, 174-189.

24. Die Konvergenz von Wissen lässt sich nur durch Zweitbeobachtung feststellen. Bei der Zweitbeobachtung wird Wissen zu sekundärem Wissen. Oder im kulturalistischen Code: Es geht um Repräsentationen.

25. Wissen ist oft komplex und speziell. Es kann und muss für unterschiedliche Zielgruppen verständlich dargestellt werden. Die Konvergenz verträgt sich mit einer vielfältigen sprachlichen und visuellen Aufbereitung des Wissens.

26. Die Möglichkeiten sprachlicher Variation sind enorm. Originalität wird leicht durch die unterschiedliche sprachliche Darstellung von Wissen vorgetäuscht. Mehr oder weniger alle Aussagen sind mehrfach zu finden. Das bringen die bekannten Redensarten zum Ausdruck: Neuer Wein in alten Schläuchen. – Das Rad wird neu erfunden. – Nichts Neues unter der Sonne. Wer älter ist wie der Verfasser dieses Textes, muss sich vor solchen Redensarten hüten. Fraglos gibt es immer wieder Neues. Aber angesichts der wissenschaftlichen Massenproduktion bleibt es doch erlaubt, auf die Vielzahl der auf den ersten Blick unsichtbaren Übereinstimmungen und die sich darin zeigende Konvergenz des Wissens hinzuweisen.

27. Da Wissen immer durch Zeichen repräsentiert werden muss, ist wegen der Interpretationsfähigkeit insbesondere von Sprachzeichen mit dem Einwand zu rechnen, dass eine eindeutige Feststellung von Konvergenz nicht immer möglich ist. Doch Wissen, dass nicht intersubjektiv transferierbar ist, ist kein wissenschaftliches, sondern bleibt Literatur, Kultur oder Unterhaltung. Wissenschaft gründet auf der Unterstellung, dass das Problem der Interpretationsvarianz für ihren Bereich lösbar ist. Intersubjektive Transmissibilität heißt allerdings nicht Transmissibilität der Akzeptanz einer Proposition, sondern lediglich Möglichkeit des gleichsinnigen Verständnisses.

28. Die Konvergenz des Wissens geht regelmäßig mit einer Trivialisierung einher. Das Wissen der Welt ist in Sprache (und teilweise in Formeln, Bildern und Grafik, die hier vernachlässigt werden) gespeichert. Die Konvergenz zeigt sich erst, wenn ein Wissenselement referiert wird oder referierbar ist. Jedes Referat ist eine »Übersetzung«. Nach der Theorie der kulturellen Übersetzung hat jede Übernahme von Wissen eine Veränderung zur Folge. Prinzipiell ist das wohl richtig. Aber da wird tüchtig übertrieben. Mit der Feststellung von Konvergenz geht allerdings Redundanz verloren, und mit der Redundanz Konnotationen.

29. Ein wichtiger Schritt zur Konvergenz des Wissens ist die Konvergenz von Definitionen. Da jeder frei ist, seinen Gegenstand zu definieren, redet man oft dasselbe aneinander vorbei. Diese Freiheit ist kann und will niemand einschränken. Aber sie lässt sich disziplinieren, indem man sich bemüht, bei einer vorhandenen Definition anknüpfen, die sich anscheinend bewährt hat, um dann – wenn erforderlich – seine Kritik und Abweichungen anzuschließen.

30. In diesem Sinne übernehme ich für die (vorläufige) Festlegung auf einen Wissensbegriff die Definition von Marc Porat [15]The Information Economy. Definition and Measurement, Washington D.C. 1977, S. 2., und zwar auf dem Umweg über Daniel Bell [16]Die nachindustrielle Gesellschaft, 1975, S. 180., weil ich aus ihrer Verwendung durch Bell schließe, dass die Definition mindestens brauchbar ist. Danach bildet Wissen eine »Sammlung in sich geordneter Aussagen über Fakten und Ideen, die ein vernünftiges Urteil oder ein experimentelles Ergebnis zum Ausdruck bringen und anderen durch irgendein Kommunikationsmedium in systematischer Form übermittelt werden.« Grundlage des Wissens bilden Informationen. »Informationen sind Daten, die organisiert und kommuniziert worden sind.«

31. Diese Definition steht im Gegensatz zu dem imperialistischen Wissensbegriff der Kulturwissenschaften, der alle bewussten und unbewussten psychischen Zustände einschließt.

32. Ähnlich relevant wie Definitionen sind wissenschaftliche Fragen. Die Konvergenz von Propositionen setzt eine einheitliche Fragestellung voraus.

33. Statik und Dynamik – Beschreibungen und Erklärungen: Wisenskonvergenz bedeutet kein Ende des sozialen Wandels. Es konvergieren in erster Linie die Erklärungen. Beschreibungen können nur solange konvergieren, wie der beschriebene Zustand bleibt.
(Nr. 20 wurde am 13. 12. ergänzt. Fortsetzung folgt.)

Anmerkungen

Anmerkungen
1 Werner Marx, Literaturflut – Informationslawine – Wissensexplosion. Wächst der Wissenschaft das Wissen über den Kopf?, Forschung 4, 2011, 96-104 (zitiert wird vielfach noch eine ältere Internetversion aus dem Jahr 2002 des Artikels von Werner Marx und Gerhard Gramm.)
2 Beide Formulierungen aus Christoph Engel/Jost Halfmann/Martin Schulte, Wissen – Nichtwissen – unsicheres Wissen, 2002, Vorwort S. 9. Diesen nicht überprüften Nachweis habe ich (ohne die Fundstelle zu notieren) von Schmidt-Assmann übernommen.
3 Z. B. bei Martin Schulte, Eine soziologische Theorie des Rechts, S. 130: »Keine Generierung von Wissen ohne gleichzeitige Generierung von Nichtwissen!« Schulte verweist auf zwei Titel von Klaus Peter Japp, darunter: Die Beobachtung von Nichtwissen, Soziale Systeme 3, 1997, 289-312. Andreas Voßkuhle spricht von dem »externen Bereich des Unerforschten« als etwas durch »wissenschaftliches Wissen selbst Konstituiertes« und nennt als Quelle einen Text von Peter Wehling (in: Hans-Heinrich Trute u. a., Allg. Verwaltungsrechts, 2008, S. 653). Peter Wehling ist überhaupt eine gute Quelle für die These vom Unwissen als Kehrseite des Wissens, z. B.: Die Schattenseite der Verwissenschaftlichung. Wissenschaftliches Nichtwissen in der Wissensgesellschaft., in: Stefan Böschen/Ingo Schulz-Schaeffer (Hg.), Wissenschaft in der Wissensgesellschaft, 2003, 119-142, oder ders., Artikel »Wissen und Nichtwissen« in: Rainer Schützeichel, Hg., Handbuch Wissenssoziolgie, 2007, 485-494).
4 Rainer Schröder/Angela Klopsch, Der juristische Doktortitel, Humboldt Forum Recht 2012, S. 33, ohne Nachweis.
5 Von Marx 2011 bei Fn. 4.
6 Die Wissensgesellschaft und das Geheimnis um das Nichtwissen, in: Cécile Rol/Christian Papilloud, Soziologie als Möglichkeit, 2009, S. 105.
7 Nichtwissen: Preis des Wissens? In: Schweizerische Technische Zeitschrift 93, 1996, 32-35.
8 In dem Internet-Manuskript »Gibt es Grenzen des Wissens?«, 2008.
9 Das Dilemma der Rechtstatsachenforschung, S. 39.
10 Friedrich A. von Hayek, Rechtsordnung und Handelsordnung, in: Zur Einheit der Rechts- und Staatswissenschaften, Karlsruhe 1967, S. 195 ff., 205.
11 Karl R. Popper, On the Sources of Knowledge and of Ignorance, in: Conjectures and Refutations, London 1963, S. 28.
12 Zitat aus Ino Augsberg, Die Lesbarkeit des Rechts, 2009, S. 187, er wiedrum auf Luhmann, Die Religion der Gesellschaft, 2000, S. 47 verweist.
13 Verfassungsfragmente, 2012, S. 129, ohne Nachweis.
14 Andrew Abbott, Varieties of Ignorance, The American Sociologist 41, 2010, 174-189.
15 The Information Economy. Definition and Measurement, Washington D.C. 1977, S. 2.
16 Die nachindustrielle Gesellschaft, 1975, S. 180.

Ähnliche Themen