Montag, 27. Januar 2014

Mit der wachsenden Big Data-Euphorie der letzten Jahre verändern sich Verhältnisse in der Wahrnehmung quantitativer und
qualitativer Forschungsmethoden - versprechen doch quantitative Auswertungen in Big Data-Dimension jetzt eine heuristische
Qualität, die vorher durch statistische Methoden vergleichsweise grob angenähert werden musste.
Doch löst der Run auf die Akkumulation und algorithmische Auswertung unstrukturierter Daten in großen Quantitäten (und
der dabei entstehenden Märkte) automatisch die vielfältigen Probleme, die wir damit zu lösen hoffen oder lassen wir uns
durch Übererwartung angesichts einer neuen Welle von Technikgläubigkeit euphorisieren und unseren eigenen Werkzeugen
unterwerfen? Die führenden Regierungen der Welt zeigen aktuell mit quantitativen Datensammel- und Auswertungsprogrammen
wie PRISM und TEMPORA klar die Marschrichtung, welche Begehrlichkeiten durch Big Data auf politischer Ebene
geweckt wurden. Gleichzeitig bleibt zu beobachten, dass die damit anvisierten menschgemachten Ernstfälle der letzten Jahre
nicht durch Algorithmen preemptiv verhindert werden konnten, selbst wenn die notwendigen Daten vorlagen - wir aber absehbar
trotzdem an einer kollektiven umfassenden Erfassung aller persönlichen digitalen Daten des Alltags auf Vorrat festhalten?
Kulturelle Prägungen im Umgang mit digitalen Informationen im Blickwinkel ihrer Messbarkeit sowie zugehörige Gebrauchsund
Nutzungsphänomene müssen im Kontext relevanter Technologien und Informatikentwicklungen rund um Big Data auch
ausserhalb dieser Technologien betrachtet werden können. Welche Aneignungsmuster, welche Diskurse und welche kulturelle
Artefakte werden durch Big Data als z.B. gesellschaftliches Phänomen gerade angestoßen und insbesonder

wie face book jetzt angreifen will

http://techcrunch.com/2013/12/13/facebook-vs-tv-and-youtube/