Ethisch und rechtlich sicheres Software Engineering

7 views
Skip to first unread message

Marc Hauer

unread,
May 16, 2019, 2:16:00 AM5/16/19
to Bonn Agile Meetup
Hallo zusammen,

wir vom Algorithm Accountability Lab der TU Kaiserslautern wollen zusammen mit Partnern aus der Industrie ein Konzept entwickeln, ethische und rechtliche Langzeitfolgen von algorithmischen Entscheidunssysteme bereits in der Entwicklung besser zu erkennen um sie damit im Vorfeld verhindern zu können. Damit wollen wir nicht nur der Bevölkerung wieder mehr Vertrauen in solche Systeme ermöglichen, sondern auch Unternehmen mehr Sicherheit vor den daraus folgenden Schäden, unter Umständen sogar bis hin zur Rechtssicherheit, gewähren.

Im Rahmen meiner Promotion entwickle ich gemeinsam mit meiner Professorin Dr. Katharina A. Zweig eine Technik oder einen Prozess, der versucht derartige Langzeitfolgen möglichst sicher vor der Umsetzung zu erkennen. Dabei liegt die Verantwortung über relevante Fragestellungen meist nicht bei einzelnen Personen oder Bereichen. Vielmehr zeigt sich, dass diese über alle Stationen, die eine Software, bezwiehungsweise ein Feature, durchläuft, verteilt ist.

Der erste Schritt zu einem solchen Prozess ist das Erstellen einer möglichst allgemeinen Übersicht darüber, welche Stationen, und damit welche Verantwortlichkeiten, es überhaupt gibt. In Zukunft werden wir dann jede Verantwortlichkeit für sich, sowie deren Zusammenspiel untereinander weiter untersuchen. Deshalb bin ich nun auf der Suche nach Kooperationpartner aus der Industrie, welche mit Hilfe moderner agiler Methoden (bevorzugt SCRUM und SCRUM Variationen) Software entwickeln. Leider stellt sich das Finden solcher Unternehmen (in ausreichender Anzahl) als schwieriger und zeitaufwänder heraus als erwartet. Auf meiner Suche bin ich nun auf das Bonn Agile Meetup gestoßen und wollte nun euch nun fragen
- was ihr von der Idee an für sich haltet?
- ob jemand mit Einblick in Firmenstrukturen Lust/Interesse hat, sich mit mir darüber auseinanderzusetzen?
- eine Weiterleitung an Firmen, die potentiell Interesse daran haben denkbar ware?


Vielen Dank und liebe Grüße
Marc Hauer

PS: Die vollständige, offizielle Anfrage packe ich mal untendran,

--
Algorithm Accountability Lab
TU Kaiserslautern
Erwin-Schrödinger-Straße
Gebäude 48 Raum 668
67663 Kaiserslautern
Tel: 0631 205 3344
--



Sehr geehrte Damen und Herren,

 

wir vom Algorithm Accountability Lab der TU Kaiserslautern wollen zusammen mit Partnern aus der Industrie ein Konzept entwickeln, ethische und rechtliche Langzeitfolgen von algorithmischen Entscheidunssysteme bereits in der Entwicklung besser zu erkennen um sie damit im Vorfeld verhindern zu können. Damit wollen wir nicht nur der Bevölkerung wieder mehr Vertrauen in solche Systeme ermöglichen, sondern auch Unternehmen mehr Sicherheit vor den daraus folgenden Schäden, unter Umständen sogar bis hin zur Rechtssicherheit, gewähren.

 

Der Kontext

Seit geraumer Zeit häufen sich die Schlagzeilen über Algorithmen die ethische oder sogar rechtliche Grenzen überschreiten. Dabei stand jedoch in vielen Fällen eine gute Idee am Anfang, deren Umsetzung ungeahnte Folgen nach sich gezogen hat. 

 

Erst vor Kurzem hat Amazon mit ihrem Bewerbungsprozess für negative Schlagzeilen gesorgt. Die Software sollte aus der riesigen Anzahl an Bewerben die unqualifizierten anhand objektiver Kriterien von vorneherein aussortieren um das Personalmanagement zu entlasten. Nach weniger als einem Jahr viel jedoch auf, dass das System Frauen stark nachteilig behandelt.

 

Es gibt unzählige solcher Beispiele für algorithmische Entscheidungssyste, die unerwünschte Nebeneffekte mit sich bringen, in kleinen und großen Unternehmen, regional und international, mit leichten oder schweren rechtlichen Konsquenzen und Imageschäden.

 

Wenn so etwas passiert ist bis heute weitestgehend unklar, wer daran Schuld ist und ob es nicht von vorneherein offensichtlich war, dass so etwas passieren würde. Tatsache ist, so offensichtlich es im Nachhinein zu sein scheint, im Laufe des Entwicklungsprozesses, von der Idee bis zur Umsetzung, ist es für einzelne Personen oft sehr schwierig, vielleicht sogar unmöglich, an sämtliche Implikationen zu denken. Liegt es in der Verantwortung des Programmierers sich darüber Gedanken zu machen, dass die Software möglicherweise anders eingesetzt werden könnte, wie es der Use Case vorschreibt? Muss sich der Firmenchef, der ein bestimmte Feature haben will, darüber bewusst sein, dass die Umsetzung datenschutzrechtlich Fragwürdig sein könnte? Wessen Aufgabe ist es, an was zu denken? Und wie?

 

Warum wende ich mich damit an Sie?

Im Rahmen meiner Promotion entwickle ich gemeinsam mit meiner Professorin Dr. Katharina A. Zweig eine Technik oder einen Prozess, der versucht derartige Langzeitfolgen möglichst sicher vor der Umsetzung zu erkennen. Dabei liegt die Verantwortung über relevante Fragestellungen meist nicht bei einzelnen Personen oder Bereichen. Vielmehr zeigt sich, dass diese über alle Stationen, die eine Software, bezwiehungsweise ein Feature, durchläuft, verteilt ist.

 

Der erste Schritt zu einem solchen Prozess ist das Erstellen einer möglichst allgemeinen Übersicht darüber, welche Stationen, und damit welche Verantwortlichkeiten, es überhaupt gibt. In Zukunft werden wir dann jede Verantwortlichkeit für sich, sowie deren Zusammenspiel untereinander weiter untersuchen. Deshalb bin ich nun auf der Suche nach Kooperationpartner aus der Industrie, welche mit Hilfe moderner agiler Methoden (bevorzugt SCRUM und SCRUM Variationen) Software entwickeln. Wenn Ihr Unternehmen ein Interesse daran hat diesen Prozess voranzubringen und uns bei unserer Forschung zu unterstützen, möchte ich Sie darum bitten diese Informationen an einen Entwicklungsleiter oder anderen geeigneten Vertreter weiterzuleiten. Über einen Gesprächthermin (telefonisch oder persönlich) um über weitere Details zu sprechen würden wir uns sehr freuen.

 

Vielen Dank und liebe Grüße

Marc Hauer
Reply all
Reply to author
Forward
0 new messages