Website
Aktuelles
Donnerstag, 08.09.2016

Forschung

Digitalisierung, Big Data und die Aufgabe der Theorie

Big-Data-Analyse (Abb.: https://de.wikipedia.org/wiki/Big_Data)

Jahrestagung 2016 der Deutschen Gesellschaft für Geschichte der Medizin, Naturwissenschaft und Technik vom 16. - 18. September in Lübeck

Die neuen Möglichkeiten der Informationstechnologien verändern die Wirklichkeit, sie bestimmen den Alltag und greifen längst auch in die Arbeitsbedingungen historischen Arbeitens ein. Das Bearbeiten gigantischer Datenmengen, die noch vor kurzem unvorstellbar waren, ist in vielen Wissenschaftszweigen zur Selbstverständlichkeit geworden, und die wachsenden digitalen Archive eröffnen auch der Medizin-, Wissenschafts- und Technikgeschichte neue Perspektiven – bzw. stellen sie vor neue Herausforderungen. Zu den Einsatzfeldern von Big Data gehören genetische Sequenzen oder Klimadaten ebenso wie die Textcorpora der Literaturwissenschaften, historische Zeitschriften- und Buch-Bestände oder digitalisierte Archivalien.

Zur Eröffnung der Lübecker Tagung spricht Prof. Dr. Sabina Leonelli von der University of Exeter, eine der international ausgewiesenen Expertinnen zur Wissenschaftsphilosophie von Big Data, zum Thema "What difference does quantity make? Remarks from the epistemology of data-centric biology and biomedicine" (18:30 Uhr im Audienzsaal des Lübecker Rathauses):

  • "Is Big Data science a whole new way of doing research? And what difference does data quantity make to knowledge production strategies and their outputs? I argue that the novelty of Big Data science does not lie in the sheer quantity of data involved, but rather in (1) the prominence and status acquired by data as commodity and recognised output, both within and outside of the scientific community and (2) the methods, infrastructures, technologies, skills and knowledge developed to handle data. These developments generate the impression that data-intensive research is a new mode of doing science, with its own epistemology and norms. To assess this claim, one needs to consider the ways in which data are actually disseminated and used to generate knowledge"

Der Eröffnungsvortag ist öffentlich, es bedarf keiner Anmeldung.

Zum Tagungsthema:

2008 ging Chris Anderson, der damalige Chefredakteur der Zeitschrift Wired, so weit, angesichts von Big Data „das Ende der Theorie“ auszurufen, weil nun die ganze Welt in ihren Daten gesammelt und diese Daten von Computern bearbeitet werden können, ohne einen Umweg über abstrahierende Theorien nehmen zu müssen. Was ehemals als starke Theorie sein Recht behauptet habe, erscheine im Licht der neuen Technik als problematische Verkürzung komplexer Sachzusammenhänge, Theorie würde schlicht obsolet. Wissenschafts- und Technikgeschichte steht solchen Thesen allein schon deswegen skeptisch gegenüber, weil es in den verschiedensten Wissenschaften und Praxisfeldern schon seit langer Zeit sehr große Datensammlungen gab und die Klage über die Informationsexplosion so alt ist wie die Informationsmedien. Aber (a) welche Aufgabe hat heute Theorie angesichts von Big Data, (b) wie sind die aktuellen Diskussionen historisch einzuordnen, (c) welche Veränderungen kommen auf unsere Fächer zu und (d) wie können wir profitieren, ohne uns in den Datenmengen zu verlieren?

(a) Big Data als Zäsur
Tatsächlich wird heute diskutiert, ob gegenwärtig ein Strukturwandel der Wissenschaften zu beobachten ist, der vom klassischen Theorie-Ideal der Neuzeit wegführt zum technischen Können. Dazu lässt sich nicht nur auf die Konjunktur der Bio-, Technik-, Material- und Umweltwissenschaften verweisen oder auf die Partizipation der klassischen Naturwissenschaften an der Nanotechnologie, sondern auch die Sozialwissenschaften sind auf „datengetriebene Forschung“ eingeschwenkt, in den Geisteswissenschaften erfreut sich die „grounded theory“ weiter Verbreitung als dezidiert anti-spekulative Neuausrichtung der Hermeneutik und in der Medizin werden in Genetik, Klinischen Studien und Neurowissenschaften große Datenmengen generiert, um aus der Menge der Daten die Muster bislang unbekannter Korrelationen und Interaktionen hervortreten zu lassen. Was bedeuten diese Entwicklungen für die Theorie? Wie haben sich ihre Aufgaben, vielleicht auch ihre Möglichkeitsbedingungen und Potenziale angesichts von Big Data verändert?

(b) Historische Distanz und Big Data als Praxis
Die Aktualität des Themas mit seinen noch weitgehend unausgeloteten Effekten im Wissen-schaftsbetrieb fordert zu historischer Tiefenschärfe heraus, um nicht vorschnell dem gegenwärtigen Hype um Big Data aufzusitzen. Große Datenmengen waren immer schon das Kennzeichen von Bibliotheken und Archiven, deren praktische Expertise zugleich im Umgang mit ihnen lag und im 19. Jahrhundert zu nationalen Initiativen der Informationsverwaltung führte. Dazu zählten auch die Museen und Sammlungen, die sich seit ihrer Gründung den Sachen selbst verschrieben – als nicht weniger gigantische Speicher. Technische Projekte und ganze Forschungszweige der verschiedensten Disziplinen der Natur-, Geistes- und Sozialwissenschaften fußten auf der Handhabung sehr großer Datenmengen. Welche neuen Sichtweisen auf diese lange Geschichte der Datensammlung eröffnen sich aus der gegenwärtigen Konjunktur von Big Data? Welche neuen Probleme und Herausforderungen ergeben sich aus den digitalen Möglichkeiten für historische Projekte? Welche Praktiken von Big Data lassen sich aus einer historischen Perspektive mittlerer und langer Reichweite identifizieren. Und was kann Wissenschafts-, Medizin- und Technikgeschichte zu den aktuellen Dis-kussionen beitragen?

(c) Reflexive Nähe
Das Thema soll nicht nur auf der Ebene des Gegenstands, sondern auch reflexiv hinsichtlich der in der DGGMNT versammelten Fächer mit ihren jeweiligen methodischen und praktischen Orientierungen entfaltet werden: Nach einer „heißen Phase“ der Theorie-Debatten in der Wissenschaftsforschung, aber auch in der Medizin-, Wissenschafts- und Technikgeschichte mit ihren verschiedenen Turns dominieren nun Zugänge, die – freilich oft aus präzisen theoretischen Erwägungen heraus – situierte Praktiken, konkrete Materialitäten und mediale Vermittlungen ins Zentrum der Analyse und Reflexion rücken. Welche Effekte haben Big Data und Digitalisierungsprojekte für die Orientierung unserer Fächer? Welche Auswirkungen ergeben sich daraus für die Rolle von Theorie?

(d) Digital Humanities & Big Data als Methode
Unter dem Stichwort Digital Humanities wird Big Data zunehmend zu einer Forschungsrealität auch von Wissenschafts-, Medizin- und Technikgeschichte. Was aber genau „Big Data“ in den Geschichtswissenschaften heißt und was davon zu erwarten ist, bleibt vorerst unklar. Unstrittig scheint dagegen zu sein, dass sich die Potenziale von Big Data nur verwirklichen lassen, wenn die Methodenfrage geklärt ist. Die Fragen, die sich an uns als Scientific Community richten, sind: Was können Wissenschafts-, Medizin- und Technikgeschichte von Big Data-Arbeitsweisen erwarten? Welche technischen und methodischen Standards brauchen wir? Welche Strategien gibt es, nicht schon an den technischen und finanziellen Herausforderungen zu scheitern? Was sind die Erfahrungen, auch hinsichtlich rechtlicher Rahmenbedigungen und der Publikationspraxis? Wie bringen wir in Zukunft „Big Data“ in der Lehre ein? Welche Aufgaben kommen auf Institute, Fachverbände und Fachgesellschaften zu? -

Die Deutsche Gesellschaft für Geschichte der Medizin, Naturwissenschaft und Technik e.V. ist die älteste wissenschaftshistorische Fachgesellschaft der Welt. Sie wurde am 25. September 1901 als "Deutsche Gesellschaft für Geschichte der Medizin und der Naturwissenschaften" gegründet. Satzungsgemäße Aufgaben der Gesellschaft sind Pflege und Förderung der Geschichte der Medizin, Naturwissenschaften und Technik unter Berücksichtigung der allgemeinen Wissenschaftsgeschichte, die Verbreitung entsprechender Forschungsergebnisse und deren Nutzbarmachung für Wissenschaft, Forschung und Praxis. Diesem Zweck dienen insbesondere die Jahrestagungen. Zur Zeit hat die Gesellschaft ca. 600 Mitglieder.