Tel: 0631 205 3344
--
Sehr geehrte Damen und Herren,
wir vom Algorithm Accountability Lab der TU Kaiserslautern wollen zusammen mit Partnern aus der Industrie ein Konzept entwickeln, ethische und rechtliche Langzeitfolgen von algorithmischen Entscheidunssysteme bereits in der Entwicklung besser zu erkennen um sie damit im Vorfeld verhindern zu können. Damit wollen wir nicht nur der Bevölkerung wieder mehr Vertrauen in solche Systeme ermöglichen, sondern auch Unternehmen mehr Sicherheit vor den daraus folgenden Schäden, unter Umständen sogar bis hin zur Rechtssicherheit, gewähren.
Der Kontext
Seit geraumer Zeit häufen sich die Schlagzeilen über Algorithmen die ethische oder sogar rechtliche Grenzen überschreiten. Dabei stand jedoch in vielen Fällen eine gute Idee am Anfang, deren Umsetzung ungeahnte Folgen nach sich gezogen hat.
Erst vor Kurzem hat Amazon mit ihrem Bewerbungsprozess für negative Schlagzeilen gesorgt. Die Software sollte aus der riesigen Anzahl an Bewerben die unqualifizierten anhand objektiver Kriterien von vorneherein aussortieren um das Personalmanagement zu entlasten. Nach weniger als einem Jahr viel jedoch auf, dass das System Frauen stark nachteilig behandelt.
Es gibt unzählige solcher Beispiele für algorithmische Entscheidungssyste, die unerwünschte Nebeneffekte mit sich bringen, in kleinen und großen Unternehmen, regional und international, mit leichten oder schweren rechtlichen Konsquenzen und Imageschäden.
Wenn so etwas passiert ist bis heute weitestgehend unklar, wer daran Schuld ist und ob es nicht von vorneherein offensichtlich war, dass so etwas passieren würde. Tatsache ist, so offensichtlich es im Nachhinein zu sein scheint, im Laufe des Entwicklungsprozesses, von der Idee bis zur Umsetzung, ist es für einzelne Personen oft sehr schwierig, vielleicht sogar unmöglich, an sämtliche Implikationen zu denken. Liegt es in der Verantwortung des Programmierers sich darüber Gedanken zu machen, dass die Software möglicherweise anders eingesetzt werden könnte, wie es der Use Case vorschreibt? Muss sich der Firmenchef, der ein bestimmte Feature haben will, darüber bewusst sein, dass die Umsetzung datenschutzrechtlich Fragwürdig sein könnte? Wessen Aufgabe ist es, an was zu denken? Und wie?
Warum wende ich mich damit an Sie?
Im Rahmen meiner Promotion entwickle ich gemeinsam mit meiner Professorin Dr. Katharina A. Zweig eine Technik oder einen Prozess, der versucht derartige Langzeitfolgen möglichst sicher vor der Umsetzung zu erkennen. Dabei liegt die Verantwortung über relevante Fragestellungen meist nicht bei einzelnen Personen oder Bereichen. Vielmehr zeigt sich, dass diese über alle Stationen, die eine Software, bezwiehungsweise ein Feature, durchläuft, verteilt ist.
Der erste Schritt zu einem solchen Prozess ist das Erstellen einer möglichst allgemeinen Übersicht darüber, welche Stationen, und damit welche Verantwortlichkeiten, es überhaupt gibt. In Zukunft werden wir dann jede Verantwortlichkeit für sich, sowie deren Zusammenspiel untereinander weiter untersuchen. Deshalb bin ich nun auf der Suche nach Kooperationpartner aus der Industrie, welche mit Hilfe moderner agiler Methoden (bevorzugt SCRUM und SCRUM Variationen) Software entwickeln. Wenn Ihr Unternehmen ein Interesse daran hat diesen Prozess voranzubringen und uns bei unserer Forschung zu unterstützen, möchte ich Sie darum bitten diese Informationen an einen Entwicklungsleiter oder anderen geeigneten Vertreter weiterzuleiten. Über einen Gesprächthermin (telefonisch oder persönlich) um über weitere Details zu sprechen würden wir uns sehr freuen.
Vielen Dank und liebe Grüße