Tagung vom 14.-16. Oktober 2016 an der Ev. Akademie Villigst in Schwerte

Big Data, Datenschutz, Risiko und Relevanz von Algorithmen, Digitale Demokratie: diese und andere technikorientierte, aber zugleich demokratierelevante Themen haben wir vom 14.-16. Oktober 2016 an der Evangelischen Akademie Villigst in Schwerte diskutiert – mit unseren TeilnehmerInnen und ExpertInnen aus Wissenschaft, Justiz und Gesellschaft.

Was bedeutet der fortschreitende digitale Wandel für unsere Demokratie, unsere Freiheiten und Grundrechte?

Die Erhebung, Analyse und Verwertung großer und komplexer Datenmengen – Big Data – findet heute in vielen alltäglichen Bereichen des Lebens statt und wird von privaten und staatlichen Akteuren gleichermaßen praktiziert – von Unternehmen, Behörden, Versicherungen und Geheimdiensten. Als Buzzword steht Big Data im Kontext des digitalen Wandels auch für eine neue Art der digitalen Kommunikation und Datenverarbeitung, die über den Einzelnen hinaus wirkt und die Art und Weise verändert, wie wir Gesellschaft, Wirtschaft und Öffentlichkeit organisieren. Was bedeutet diese Entwicklung für unsere Demokratie? Sind wir auf dem Weg zu einer datengesteuerten Gesellschaft? Wie können wir Privatsphäre und Öffentlichkeit effektiv schützen?  In Vorträgen, Diskussionen, Workshops und Podiumsrunden haben wir uns dieser Fragen angenommen, vorhandene Kenntnisse vertieft und ausgelotet, wie wir den digitalen Wandel gestalten können ohne demokratische Rechte und Freiheiten zu gefährden.

Die Tagung wird von der VDW zusammen mit folgenden Partnern veranstaltet:

Weiterführende Links:

#BigDataDem16

Programmflyer

Webseite der Ev. Akademie

Dr. Ralf Eschelbach

Big Data – auf dem Weg zur Totalausforschung der Persönlichkeit

Moderne Technik schafft neue Möglichkeiten und Ermittlungsmethoden für staatliche Stellen zur Strafverfolgung und zur Gefahrenabwehr. Welcher Mitteleinsatz qualitativ und quantitativ jenseits der Grenze des Zulässigen liegt, bleibt dabei oft ungewiss – auch und vor allem mit Blick auf das Stichwort der informationellen „Totalausforschung“. Zwar handelt es sich bei Praktiken wie der Ausforschung menschlicher DNA im codierenden Bereich noch um Zukunftsmusik, die Überwachung von Telefongesprächen, SMS und E-Mails sowie größere „Lauschangriffe“, die Erstellung von Bewegungsprofilen via GPS, EDV-Durchsuchungen und das Tracking von Verhaltensmustern mit technikunterstützter Observation sind aber bereits gebräuchlich. Ein echtes juristisches Monitoring hinsichtlich der Legitimität solcher Ermittlungsmethoden ist schwierig, insbesondere weil ein Richtervorbehalt, soweit er überhaupt besteht und aktiviert wird, nur Einzelmaßnahmen und nicht das Gesamtbild geheimdienstlicher und polizeilicher Aktivitäten betrifft. Der Weg zum Überwachungsstaat ist dementsprechend gar nicht mehr so weit und es ergibt sich die Frage, wann konkret eine Grenze erreicht ist, wer deren Einhaltung kontrolliert und ob eine Durchsetzung angesichts der rasanten technischen Fortschritte  überhaupt noch möglich sein wird.

Zum Vortrag

Dr. Ralf Eschelbach | Richter im 2. Strafsenat des Bundesgerichtshofs in Karlsruhe

Prof. Dr. Katharina Zweig

Risiko und Relevanz von Algorithmen

Als „Algorithmen“ bezeichnet man detaillierte Lösungsvorschriften, die aus endlich vielen Einzelanweisungen bestehen und, sofern sie korrekt in einem Computerprogramm implementiert werden, für jede korrekte Inputmenge eine genau definierte Outputmenge ausrechnen. Algorithmen suchen Muster in hoch-verrauschten Datenmengen und „lernen aus Daten“. Sie können somit nahezu wundersame, aber auch beängstigende Rechenleistungen und Resultate erzielen. Im Positiven können sie bei der Entwicklung von Krebstherapien helfen oder Inklusion und Integration im Bildungssystem voranbringen. Im Negativen können sie Strukturen und Menschen so gut kennenlernen, dass diese manipulierbar werden. Dies wird zum Beispiel im Bereich der Terrorbekämpfung oder des „predictive policing“ relevant, wenn es um das auf statistischen Wahrscheinlichkeiten beruhende Vorhersagen krimineller Aktivitäten geht. Insbesondere dann, wenn Algorithmen nicht gut entwickelt und nicht unter einer ständigen Kontrolle der Gesellschaft – etwa in Form eines Algorithmus-TÜVs – stehen, könnten die festgefrorenen Menschenbilder und die schlecht verankerten Theorien sozialen Handelns unsere Demokratie gefährden.

Zur Präsentation

Alexander Sander

Big Data und Datenschutz – Wer überwacht unsere Grundrechte?

Datensammlungen und -kategorisierungen durch Tech-Konzerne wie Google und Facebook, die europaweite Aufzeichnung und Verwertung von Fluggastdaten, Unzulänglichkeiten beim EU-USA Privacy Shield-Abkommen: es gibt viele Gründe, um das Thema Datenschutz in den Mittelpunkt einer gesamtgesellschaftlichen Debatte zu rücken. Auch der Gesetzgeber ist gefordert. Wir brauchen solide, europaweit gültige Datenschutzgesetze und bestehende Überwachungsgesetze sollten angemessen evaluiert und nicht ausgeweitet werden (BND-Reform, PNR, VDS). Zu weiteren Maßnahmen zählen die Aufrüstung von Aufsichtsbehörden und die Stärkung von Datenschutzsensibilität und Datensicherheit.

Zur Präsentation

Eric Mülling

Big Data und der digitale Ungehorsam

Die Enthüllung staatlicher Massenüberwachungsmaßnahmen durch den Whistleblower Edward Snowden haben gezeigt, wozu Big Data alles eingesetzt werden kann und digitale Protestbewegungen ausgelöst. Während es auf den Straßen der Bundesrepublik eher ruhig geblieben ist, versuchen Aktivisten im Netz eine Änderung der Verhältnisse vorzunehmen. Die Struktur des Internets als globales Massenmedium beeinflusst sie dabei genauso stark, wie das Wissen um die ständige Bedrohung durch Überprüfung, Beobachtung und Bewertung ihr Verhalten verändert. Die Diskussion der neuen Big Data-Technologien und die sich daraus ergebenden Risikopotenziale für Akteure des digitalen Ungehorsams standen im Mittelpunkt des Workshops.

Zur Präsentation

Kirsten Gollatz

Bedingungen für die Ausübung von Meinungsfreiheit im Internet

Welche Entwicklung nehmen (soziale) Plattformen wie Facebook und Twitter, wenn es darum geht, bestimmte User-Inhalte zu zensieren oder zu löschen? Was bedeutet Meinungsfreiheit im Netz – und gibt es Grenzen? Welche Bedeutung hat das Internet, haben speziell soziale Medien (als von privatwirtschaftlichen Unternehmen betriebene Austauschräume) für unseren gesellschaftlichen Diskurs, für Privatheit und Öffentlichkeit? Mit diesen und ähnlichen Fragen haben wir uns während des Workshops beschäftigt.

Dr. Jörg Schäfer

Schöpferische Zerstörer: Bitcoin, Blockchain und Smart Contracts – Digitale Treuhänder transformieren die Gesellschaft

Bitcoin, Blockchain und Smart Contracts sind digitale Technologien, die mit Hilfe von mathematisch, kryptographischen Verfahren und genuin dezentraler Datenhaltung gesellschaftliche Funktionen, die Treuhänder wie z. B. Banken, Notare, Katasterämter, Behörden wahrnehmen, in Form von Algorithmen abbilden und damit die analogen Treuhänder potentiell überflüssig machen können. Im Workshop wurde diskutiert, welche Potenziale diese neuen Technologien beinhalten und welche Auswirkungen auf die Gesellschaftsmodelle von Treuhändern und gesellschaftlich ausgehandelte Regeln im Allgemeinen zu erwarten sind.

Publikation zum Workshop

Prof. Dr. Dirk Helbing

Vom technologischen Totalitarismus zur Digitalen Demokratie: Was nun zu tun ist

Die digitale Revolution wird unsere Gesellschaft fundamental verändern. Algorithmen können „lernen“, was wir tun und wie wir denken, Big Data-Technologien und Entwicklungen wie „Big Nudging“, also die Kombination von Big Data und versuchter Verhaltenssteuerung im großen Stil, werden von privaten wie staatlichen Akteuren genutzt und dies evoziert das Bild einer „programmierten Gesellschaft“ und „programmierter Bürger“. Damit Demokratie und Gesellschaft Schritt halten können, braucht es eine Reihe von Veränderungen: in der Wirtschaft, im Finanzsystem und in den Köpfen, ganz im Sinne einer Aufklärung 2.0.

Prof. Dr. Manfred Schneider

Brain Reading. Zur Aktualität des ältesten Transparenztraums

Ein „Brain-Reading“ im Sinne der „Auslesung“ von Gehirnen lebender Menschen, sofern durch fMRT-Technik möglich, ist vor amerikanischen und europäischen Gerichten nicht zugelassen, da es höchst unzuverlässig ist. Im Zeitalter der Terrorismusangst und -bekämpfung könnte sich dies aber auch irgendwann ändern. Wie die Literatur- und Wissenschaftsgeschichte eindrücklich zeigt, ist die Idee eines „gläsernen Bürgers“ und der Möglichkeit, den Menschen in Herz und Gehirn zu schauen keineswegs neu, sondern lange schon von Priestern, Herrschern und Forschern erträumt.

Zur Präsentation

Adrian Lobe

Auf dem Weg zum Google-Staat? Disruption der Politik

Große Tech-Konzerne wie Google sind längst Teil unseres Alltags. Die Suchmaschine verwaltet unser Wissen, kartographiert unsere Straßen und wirkt längst auch in andere Lebensbereiche und urbane Entwicklungen hinein. Google arbeitet an eigenen Fahrzeugen, besitzt einen Campus und sogar eine Biotechnologiesparte. Es steht zudem zur Debatte, ob der Konzern mittlerweilse sogar hoheitliche Aufgaben und immer mehr Terrains klassischer öffentlicher Daseinsvorsorge übernimmt, die eigentlich dem Staat oder supranationalen Instanzen obliegen. Googles Algorithmen wirken als Gatekeeper von Informationen, stufen zum Beispiel ein, welche Suchinhalte als terroristisch eingestuft werden und welche nicht, wo Grenzen des Sexismus liegen oder wie völkerrechtliche Namensstreitigkeiten etwa über den „Persischen“ Golf entschieden werden. Wenn man davon ausgeht, dass eine Delegation von (Wert-)Entscheidungen an Algorithmen stattfindet, so hat dies Auswirkungen auf das offene Entscheidungsspektrum der deliberativen Demokratie, quasi per technischer Voreinstellung. Findet hier eine „Kolonalisierung in den Köpfen“ statt? Was bedeutet das alles für das Gemeinwesen?

Zur Präsentation

Impressionen

ReferentInnen

Dr. Ralf Eschelbach
Richter im 2. Strafsenat des Bundesgerichtshofs in Karlsruhe

Kirsten Gollatz
Projektleiterin am Alexander von Humboldt Institut für Internet und Gesellschaft, promoviert an der Universität Zürich zum Thema Governance nutzergenerierter Inhalte in sozialen
Medien

Prof. Dr. Dirk Helbing
ETH Zürich, Computational Social Science, Promotion in Physik an der Universität Stuttgart

Adrian Lobe
freier Journalist, arbeitet für verschiedene Zeitungen im deutschsprachigen Raum, Preisträger des Surveillance Studies Preises 2016

Eric Mülling
Politikwissenschaftler, promoviert an der Universität Potsdam über „Hegemoniale Datenverarbeitung und den digitalen Ungehorsam“

Alexander Sander
Geschäftsführer Digitale Gesellschaft e.V.

Prof. Dr. Jörg Schäfer
Frankfurt University of Applied Sciences, Informatik und Ingenieurwissenschaften

Prof. Dr. Manfred Schneider
Germanist an der Ruhr-Universität Bochum

Prof. Dr. Katharina Zweig
TU Kaiserslautern, Informatik mit den Schwerpunkten Sozioinformatik, Graphentheorie, Netzwerkanalyse

Moderation

Kerstin Gralher
Studienleiterin der Ev. Akademie Villigst, Beauftragte für Kunst und Kultur der EKvW

Fotos: ReferentInnen und TeilnehmerInnen der Tagung vom 14.-16. Oktober 2016 in Schwerte; © Till Weyers