13:30 bis 16:45 Uhr

Anliegen und Aufgabenstellung

Für ein funktionierendes Gemeinwesen braucht es eine kompetente, faire, leistungsfähige, verlässliche und damit vertrauenswürdige Verwaltung. Die  Digitalisierung und Automatisierung von Verwaltungen und ihren Leistungen müssen so um- und eingesetzt werden, dass sie diesen Erwartungen gerecht wird. Denn Behörden tragen eine besondere Verantwortung den Menschen gegenüber, die von automatisierten Entscheidungen betroffen sind. Auch wenn automatisierte Entscheidungssysteme (kurz: ADM-Systeme) Verwaltungsabläufe effizienter gestalten können, birgt ihr Einsatz mitunter Risiken. So können ADM-Systeme falsche oder unfaire Entscheidungen treffen. Insbesondere wenn ein ADM-System die Existenz und die Grundrechte von Menschen betrifft, wie zum Beispiel bei der automatisierten Berechnung von Sozialleistungen oder bei der Beurteilung von Kindesgefährdungen, muss daher sichergestellt sein, dass Risiken minimiert werden.

In diesem Workshop integrieren wir zwei Perspektiven auf eine gemeinwohlorientierte Automatisierung von Verwaltungsleistungen, die versucht Risiken zu minimieren und Vertrauen zu schaffen: 

  1. Am Beispiel von Automatisierungsprozessen in der Berliner Verwaltung wird erstens verdeutlicht, wie Risikominimierung „by design“ aussehen kann, z.B. über eine diskriminierungs-sensible und diversitygerechte Programmierung sowie über eine gute Auswahl von Trainingsdaten. Ebenso sollte als Standard festgelegt werden, dass neue, algorithmenbasierte Anwendungen im Reallabor erprobt werden, bevor sie zum Einsatz kommen. Denn aktuell nimmt der Einsatz von algorithmenbasierten Anwendungen bzw. ADM deutlich zu, ohne dass die Programmierung oder Funktionalität der Systeme bekannt sind. Hieraus folgen Diskriminierungsrisiken, denen vorgebeugt werden sollte.
  1. Zweitens stellen wir ein von AlgorithmWatch entwickeltes Impact Assessment Tool vor, das Behörden nutzen können, um eben solche Risiken von ADM-Systemen vor der Implementierung, aber auch während ihres gesamten Lebenszyklus abzuschätzen und zu minimieren. Eine solche Folgenabschätzung mit Blick auf ADM-Systeme dient dazu, Systeme von vorn herein so zu gestalten, dass unnötige Risiken und Fehler vermieden werden, die sonst aufwändig korrigiert werden müssten.

Im Workshop möchten wir diese beiden Ansätze als Ausgangspunkt dafür nehmen, gemeinsam zu überlegen, wie Folgenabschätzungen in der Verwaltung eingesetzt werden können: Wie können sie in bestehende Abläufe der Verwaltung integriert werden, welche technischen, juristischen und vergaberelevanten Kriterien spielen eine Rolle, welche Fragen müssen beantwortet werden? Vor allem aber: Wie können sie dabei helfen, die Entwicklung neuer Systeme von vorn herein zu verbessern? 

Dieser Workshop vereint fachliche Inputs, Diskussionen und konkrete Anwendungsbeispiele zu der Frage, wie ADM-Systeme in der Verwaltung gemeinwohlorientiert eingesetzt werden können. Dafür kombiniert er interne Perspektiven aus der Verwaltung, von Betroffenen und aus wissenschaftlichen Begleitprojekten. Neben der Vorstellung praktischer Instrumente bietet der Workshop daher ebenso Raum für Diskussion über politische sowie verwaltungsinterne Voraussetzungen und Herausforderungen. 

Referent:innen

Portrait Anne Mollen
Dr. Anne Mollen (AlgorithWatch)

Als Senior Policy & Advocacy Manager widmet sich Anne bei AlgorithmWatch schwerpunktmäßig den Bereichen ADM und Nachhaltigkeit, ADM am Arbeitsplatz sowie ADM im öffentlichen Sektor – Letzteres mit einem Fokus auf unsere Arbeit auf deutscher Ebene. Sie hat an der Universität Bremen zu Technologien und Medienpraktiken in zunehmend digitalen Demokratien promoviert und in verschiedenen Projekten zum Zusammenhang von digitalen Medientechnologien, Gesellschaft und Demokratie geforscht.
Twitter @AnMollen
Portrait Matthias Spielkamp

Matthias Spielkamp (AlgorithWatch)

Matthias ist als Mitgründer und Geschäftsführer von AlgorithmWatch maßgeblich dafür verantwortlich, dass die NGO mit der Theodor-Heuss-Medaille ausgezeichnet wurde und für einen Grimme Online Award nominiert war. Er ist Mitglied der Initiative Global Partnership on Artificial Intelligence (GPAI), Vorstandsmitglied bei Reporter ohne Grenzen, Mitglied des Kuratoriums von Stiftung Warentest, im Beirat des Whistleblower-Netzwerks und im Fachausschuss Kommunikation/Information der Deutschen UNESCO-Kommission. Matthias war Sachverständiger in Anhörungen des Europarats, des EU-Parlaments und des Bundestags. Er ist Herausgeber der Automating Society Reports und Autor von Büchern zu Algorithmen, KI und Automatisierung, zur Zukunft des Journalismus und des Urheberrechts sowie zur Internet Governance. Seine journalistischen Beiträge sind in MIT Technology Review, Die Zeit oder auch brand eins erschienen.
Twitter @spielkamp 

Nina Bewig (Land Berlin)

Senatsverwaltung für Justiz, Vielfalt und Antidiskriminierung, Land Berlin