Gründe 66-80
Das Internet als Konvergenzmaschine
66. Das Internet steht hier als Kürzel für alle Möglichkeiten der elektronischen Dateinspeicherung und Verarbeitung. Für den Konvergenzeffekt wichtiger als das Jedermann-Internet sind vermutlich elektronische Zeitschriften und andere professionelle Datenbanken, die zwar in der Regel über das Internet erreicht werden, aber keinen freien Zugang anbieten.
67. »Medial gespeichertes und kommuniziertes Wissen gibt es in enormer Quantität, aber von sehr unterschiedlicher Qualität. Die Wissenschaften, aber auch Philosophie, Staat oder Religion haben sich über Jahrhunderte bemüht, Ordnung in das aufbewahrte Wissen zu bringen – mit unterschiedlichen Ansprüchen und unterschiedlichem Erfolg. Qualitätssicherung kann durch religiöse, politische oder rechtliche Entscheidung erfolgen. Das Gesetz ist im Prozeß der Rechtsprechung zu interpretieren, aber es darf von dieser nicht mißachtet werden. Das ist eine politische Entscheidung. Inkonsistenzen der Bibel sind als Emanationen des göttlichen Willens hinzunehmen. Das ist eine theologische Entscheidung. In den Wissenschaften gibt es andere entwickelte Mechanismen der Qualitätssicherung, etwa durch klare Abgrenzung des Geltungsbereichs aufgestellter Behauptungen, durch die Angabe intersubjektiv überprüfbarer Entscheidungsverfahren oder durch prüfbare Nachweise. Trotzdem ist auch die Wissenschaft nicht frei von Bedingtheiten und Befangenheiten. Kulturelle Traditionen und Rücksichten, der paradigmatische Kontext wissenschaftlicher Arbeit und wissenschaftlichen Denkens oder die Fixierung zulässiger Methoden bilden neben den auch vorhandenen, autoritären Aspekten wissenschaftlicher Schulen Schranken für eine globale, zeitlich unbeschränkte Gültigkeit wissenschaftlichen Wissens. Betrachten wir den Stand der Qualitätssicherung in den unterschiedlichen Medien, so können wir angesichts ihrer Resultate letztlich nur resignieren. Es mag in einzelnen wissenschaftlichen oder rechtlich abgesicherten Bereichen gelungen sein, Wissen nach Qualitätsstandards aufzubereiten, eine allgemein akzeptierte, interkulturelle Qualitätssicherung des Wissens gibt es jedoch nicht. Und selbst in den scheinbar gesicherten Arealen der Wissenschaft herrscht ein munterer Pluralismus, der neben Sympathie und wechselseitiger Hilfe auch Abneigung, Mißgunst und Boshaftigkeit kennt, also Emotionen, die der Qualitätssicherung gelegentlich im Wege stehen.« [1]Wolfgang Coy, turing@galaxis.comII, in: ders./Martin Warnke (Hg.), HyperKult, 2005, 15-32, S. 17f. Im Netz als Vortragsmanuskript von 1997 unter dem Titel »Überall & gleichzeitig. Informatik, … Continue reading
68. Konvergenz ist keine Garantie für Qualität, wird aber mangels Alternative zum Qualitätsersatz.
69. Das Internet erzeugt im Unterschied zu dem spontan, methodisch oder im Diskurs erreichten Konsens Konvergenz durch Akkumulierung.
70. Die traditionelle Konvergenzmaschine war die Synopse. Sie war und ist leistungsfähig, bleibt aber doch in der Regel das Werk einzelner Autoren und hängt insofern an deren Kompetenzen und Kapazitäten. Das Internet macht Konvergenzen und – weniger effektiv – Divergenzen ohne (viel) subjektive Wissensarbeit kenntlich.
71. Im »Web of Science« zeigen und verstärken sich die Konvergenzen durch Zitationsanalysen und andere bibliometrische Daten wie Impact Factor und Hirsch-Index.
72. »Hypertextsysteme erscheinen als eine Möglichkeit, intertextuelle Bezüge, die bis dahin latent waren, in manifeste Bezüge – in Links eben – zu überführen und damit Strukturen nachzuzeichnen, die quer zu den linearen Syntagmen die verschiedenen Texte immer schon verbinden.« [2]Hartmut Winkler, Docuverse, 1997, S. 43f. Diese Möglichkeit hängt nicht davon ab, ob es möglich sein wird Hypertext-Maschinen zu programmieren [3]Dazu kritisch Winkler a. a. O. S. 44ff.
73. Ein Schritt zur Konvergenz liegt in der Anonymisierung des Wissens, das heißt, in seiner Ablösung von Autoren und Autoritäten. [4]Zur Bedeutung der Autorschaft bei wissenschaftlichen Texten vgl. Felix Steiner, Dargestellte Autorschaft, Autorkonzept und Autorsubjekt in wissenschaftlichen Texten, 2009. Das Netz trägt mindestens auf dreierlei Weise zur Anonymisierung bei, nämlich erstens durch die Schwierigkeiten einer schulgerechten Zitation [5]Eine schulgerechte Zitation von wissenschaftlichen Texten hat wohl grundsätzlich zwei Ziele. Das erste und wichtigere ist die Vermeidung von und der Schutz vor Urheberrechtsverletzungen und … Continue reading, zweitens durch die Fülle der Texte, die den eigentlichen Urheber oft nicht mehr erkennen lässt [6]Das zeigt das Beispiel der Wissenskugel oben bei Nr. 20., und drittens natürlich durch unbekümmertes Copy and Paste.
74. Weiter in Richtung Konvergenz wirkt das zunehmende Desinteresse an der Genese von Wissen, das durch die Kombination von Informationsflut und Medienbeschleunigung getrieben wird. Damit gehen vielfältige Divergenzen etwa verschiedener Textversionen bestimmter Autoren, an denen sich die Wissenschaft abarbeitet, verloren.
75. »Na klar stimmt das, ich hab’s aus dem Netz«. [7]Überschrift von Stefan Weber in der FAZ Nr. 104 vom 6. 5. 2009 S. N3. Vgl. dazu den Eintrag vom 14. 4. 2010. Gemeint ist damit die Autorität des Netzes als Wissensquelle. So wie das gedruckte Buch hat auch das Netz per se Autorität, die auf alle darin auffindbaren Propositionen durchschlägt. Diese Autorität tritt aber mehr und mehr in den Hintergrund, erstens weil es inzwischen zum Allgemeinwissen gehört, dass im Internet viel Unsinn zu finden ist, und zweitens, weil das Internet zu fast jeder Frage nicht bloß eine, sondern mehrere Antworten herausgibt. Von den Antworten sind viele irrelevant, oft zeigt sich Übereinstimmung, nicht selten auch Divergenz.
76. Das Anwortspektrum des Internet ist von der Suchstrategie des Nutzers abhängig. Wie trennt man die Spreu vom Weizen? Von Pirolli und Card stammt die Theorie der optimalen Futter- bzw. Informationssuche (Information Foraging). [8]Peter Pirolli/Stuart K. Card, Information Foraging, Psychological Review 106, 1999, 643-675; Peter Pirolli, Information Foraging Theory. An Adaptive Interaction with Information, Oxford University … Continue reading Dazu bieten die Informationswissenschaften Theorien und empirische Forschung, die vielleicht weiter helfen. [9]Z. B. Yvonne Kammerer, Separating the Wheat from the Chaff: The Role of Evaluation Instructions. User Characteristics, and the Search Interface in Evaluating Information Quality During Web Search, … Continue reading
77. Die Technik der Internetsuchmaschinen führt zu einer Positivauslese, weil häufiger angeklickte Webseiten einen besseren Rang erhalten und so bei weiteren Suchvorgängen bevorzugt angeboten werden.
78. Technisch gehen in Datenbanken keine abweichenden Inhalte verloren. Grundsätzlich kann alles wiedergewonnen werden. Praktisch gibt es aber auch eine Negativauslese, mit der Folge, dass selten nachgefragte Webseiten bei den Suchmaschinen zurückgestellt werden, bis sie niemand mehr nachschlägt.
79. Medienumbrüche führen zu einer »natürlichen« Auslese. Gedruckt wurde nur noch, was relevant und zutreffend erschien. Auch die Dauerarchivierung von Büchern durch Digitalisierung bringt Verluste. Nach der Digitalisierung sieht es auf den ersten Blick anders aus. Aber die digitalen Medien veralten. Sie müssen im Abstand von etwa einem Jahrzehnt umkopiert werden, um lesbar zu bleiben. Dabei wird wiederum bewusst oder unbewusst eine Auswahl getroffen.
80. Inzwischen sind viele, wenn nicht die meisten wissenschaftlichen Bücher eingescannt und bei Google Books aufrufbar. Zwar gibt es immer nur Bruchstücke des Buches zu lesen. Die Suchfunktion durchsucht jedoch auch die nicht abrufbaren Seiten und zeigt die Stichwörter dann mit einem kurzen Kontext auf dem Bildschirm an. Sie findet oft mehr Stichwörter als im Stichwortverzeichnis angegeben. [10]Von dieser Möglichkeit habe ich in dem Eintrag vom 20. 11. 2014 (bei Fußnote 21 und 25) Gebrauch gemacht. Im Register des »Handbuchs Wissenssoziologie« kommt »Konvergenz« nicht vor. Google … Continue reading
Anmerkungen
↑1 | Wolfgang Coy, turing@galaxis.comII, in: ders./Martin Warnke (Hg.), HyperKult, 2005, 15-32, S. 17f. Im Netz als Vortragsmanuskript von 1997 unter dem Titel »Überall & gleichzeitig. Informatik, Digitale Medien und die Zukunft des Wissens«. |
---|---|
↑2 | Hartmut Winkler, Docuverse, 1997, S. 43f. |
↑3 | Dazu kritisch Winkler a. a. O. S. 44ff. |
↑4 | Zur Bedeutung der Autorschaft bei wissenschaftlichen Texten vgl. Felix Steiner, Dargestellte Autorschaft, Autorkonzept und Autorsubjekt in wissenschaftlichen Texten, 2009. |
↑5 | Eine schulgerechte Zitation von wissenschaftlichen Texten hat wohl grundsätzlich zwei Ziele. Das erste und wichtigere ist die Vermeidung von und der Schutz vor Urheberrechtsverletzungen und Plagiaten. Das andere Ziel ist die Kenntlichmachung der Genealogie von Ideen. Darauf verweist der Quellenbegriff. Für beide Ziele ist es mehr oder weniger notwendig, dass die Zitation das Zitat reproduzierbar macht. Die Reproduzierbarkeit hängt allerdings nicht allein von der Zitation, sondern auch vom Medium ab. Texte in Büchern und Zeitschriften sind relativ stabil, Texte im Internet dagegen sind relativ änderbar und flüchtig. Dagegen soll angeblich die Angabe des Abrufdatums helfen, tut sie aber nicht. Technische Mittel wie die Internetdienste Webcite oder Internet Archive sind unpraktisch und auch nicht verlässlich. Das Medium regiert auch die äußere Gestalt der Zitation. Bücher und Zeitschriften sind mit den üblichen Zitierweisen dank des ausgefeilten Katalogsystems erstaunlich gut auffindbar. In der Regel wird bei der Zitation zuviel des Guten getan. Erscheinungsort und Verlag, sind, jedenfalls bei inländischen Büchern, überflüssig, ähnlich bei Zeitschriften die Angabe des Jahrgangs. Das beweist ihr weitgehendes Fehlen dieser Angaben in den Nachweisen der juristischen Literatur. Verlags- und Jahrgangsangaben sind daher vor allem ein Indiz für die Qualität der Quelle. Übervollständige Zitationen dienen vielen Autoren vielleicht auch dazu, die Sorgfalt ihrer Arbeitsweise zu demonstrieren. Sie belasten dagegen die Lesbarkeit und Ästhetik des Textes. Das gilt verstärkt für die URL von Internettexten. In Internettexten selbst werden die URL von Internetquellen das vielfach als Hyperlink versteckt. Bisher gibt es keine praktikable Möglichkeit, Hyperlinks unmittelbar aus gedruckten Quellen aufzurufen. Das Eintippen oder Einscannen der URL ist nicht sehr attraktiv und in der Regel auch überflüssig, weil die Quelle sich einfacher ergugeln lässt. Unter diesen Umständen wird die Kehrseite der Zitationspflicht immer wichtiger, die darin besteht, den Autor vor Plagiatsvorwürfen zu schützen. |
↑6 | Das zeigt das Beispiel der Wissenskugel oben bei Nr. 20. |
↑7 | Überschrift von Stefan Weber in der FAZ Nr. 104 vom 6. 5. 2009 S. N3. Vgl. dazu den Eintrag vom 14. 4. 2010. |
↑8 | Peter Pirolli/Stuart K. Card, Information Foraging, Psychological Review 106, 1999, 643-675; Peter Pirolli, Information Foraging Theory. An Adaptive Interaction with Information, Oxford University Press 2007. |
↑9 | Z. B. Yvonne Kammerer, Separating the Wheat from the Chaff: The Role of Evaluation Instructions. User Characteristics, and the Search Interface in Evaluating Information Quality During Web Search, 2011; dies./Peter Gerjets, Quellenbewertungen und Quellenverweise beim Lesen und Zusammenfassen wissenschaftsbezogener Informationen aus multiplen Webseiten, Unterrichtswissenschaft 42, 2014, 7-23. |
↑10 | Von dieser Möglichkeit habe ich in dem Eintrag vom 20. 11. 2014 (bei Fußnote 21 und 25) Gebrauch gemacht. Im Register des »Handbuchs Wissenssoziologie« kommt »Konvergenz« nicht vor. Google Books zeigt von diesem Band zwar keine Textseiten, gibt aber auf Nachfrage Auskunft, dass der Begriff auf sechs Seiten des Buches erscheint, zeigt allerdings nur drei von sechs Suchergebnissen (S. 553, 768 und 771. |