Ein Team wird gesucht

Diversität im Entwickler:innen Team als Basis für digitaler Teilhabe

Ein Team wird gesucht 
 

Anfang 2022 kam die glückliche Nachricht: Das Programm “Dive-In” der Bundeskulturstiftung hat unser Projekt gefördert. Finanzielle Mittel waren also vorhanden und es konnte losgehen. Häufig ist dies bei Kulturprojekten der Punkt, an dem alte Bekannte angerufen werden, mit denen es bereits zuvor eine Zusammenarbeit gab. Wir wollten aber bewusst anders vorgehen und ein diverses Team zusammenstellen aus Menschen, die einerseits Vorerfahrungen mit dem Thema digitaler Teilhabe haben und andererseits Software entwickeln können. 
 

Software Bias als Diskriminierungsform im Netz

Warum ein divers aufgestelltes Entwickler:innen-Team gerade für dieses Projekt sinnvoll gewesen wäre, lässt sich anhand einer beispielhaften Debatte verstehen, die im September 2020 einige Aufmerksamkeit auf Twitter erregen konnte: Der Kurznachrichtendienst benötigt von Bildern, die auf die Plattform hochgeladen werden, stets auch eine Miniatur. Dazu konnte traditionell der/die Nutzer:in einen Ausschnitt aus Ihrem Bild wählen. Dieses System wurde nun durch eine automatische Funktion ersetzt, die künstliche Intelligenz nutzt und selbstständig erkennen sollte, was der zentrale Inhalt des Bildes ist. So wurden etwa lächelnde Gesichter erkannt und die Miniaturansicht darauf zugeschnitten. 
Erst nach Veröffentlichung der Funktion wurde von den Nutzenden jedoch ein gravierender Missstand aufgedeckt: Menschen mit dunklerer Hautfarbe wurden von dem Algorithmus systematisch ignoriert. 

Die Nutzer:innen von Twitter testeten den Algorithmus ausgiebig etwa mit Bildern von Barack Obama, auf denen auch weiße Politiker:innen zu sehen waren oder sogar mit Zeichentrickfiguren der Serie “Die Simpsons”. Selbst hier wurde auf die gelbe Figur zugeschnitten und die schwarze Figur war in der Miniatur nicht zu sehen. 

In solchen Fällen spricht man von einem algorithmischen Bias (aus dem Englischen übersetzt: Vorurteil oder Verzerrungseffekt): Das System von Twitter trifft systematisch eine falsche Entscheidung, die eine bestimmte Gruppe von Menschen benachteiligt. 

Später wollen wir uns in diesem Blog damit befassen, wie Biase entstehen und warum sie gerade bei Systemen, die KI-Technologien nutzen, ein gesellschaftliches Problem darstellen. 

Bei diesem konkreten Vorfall zeigte sich Twitter höchst erstaunt über die Fehlfunktion und hat umgehend weitere Untersuchungen angekündigt und sich bei den Nutzer:innen für das Erkennen und Erproben des Bias bedankt. Dass diese doch sehr offensichtliche Fehlfunktion jedoch dem Entwickler:innen-Team selbst nicht vor Veröffentlichung aufgefallen ist, legt die Vermutung nahe, dass hier nur mit Bildern von weißen Menschen getestet wurde. Das Entwicklungsteam schien schlicht nicht auf dem Schirm zu haben, dass es mit anderen Hautfarben zu Problemen kommen könnte. Groß verwunderlich ist das nicht, denn die IT-Branche ist nach wie vor stark weiß und männlich geprägt. Im Jahr 2020 gaben bei Twitter 26,5% der Menschen in technischen Berufen an, weiblich zu sein, 72,3 % männlich. 6% der Menschen gaben an, schwarze Amerikaner:innen zu sein.  

Bemerkenswert ist: Aus den Zahlen von Twitter lässt sich keine Verschränkung dieser Angaben ablesen. Wir wissen also zum Beispiel nicht, wie viele schwarze Frauen bei Twitter arbeiten. Dies ist durchaus relevant, wie wir in einem späteren Blogeintrag erklären werden. 

 

Das Team von Ällei 
 

Da unser Budget dem eines kleinen Kulturprojektes und nicht dem einer großen Softwareschmiede entsprach, bemühten wir uns vor allem über Universitäten Menschen anzuwerben. Insbesondere an Mitarbeitende und Studierende der Studiengänge “Kognitionswissenschaften” und “Disability Studies” schickten wir unsere Ausschreibung. 

Leider erhielten wir trotz der Bemühungen kein sonderlich diverses Feld an Bewerber:innen. 

Dies ist vielleicht nicht verwunderlich, wenn man sich dazu ein paar Zahlen in Deutschland anschaut: Aktuell identifizieren sich gerade mal 20% der Absolvent:innen der IT-Studiengänge als weiblich. Außerdem arbeiten in der deutschen IT-Branche rund 23.000 Menschen mit einer schweren Behinderung, das sind 0,023% der deutschen in IT-Berufen tätigen Menschen. 

In Kern arbeiten nun drei Menschen an Ällei, alle ohne Behinderung, eine Person ist weiblich, zwei sind männlich. Eine weitere Person hat das Team aufgrund einer akuten Phase ihrer chronischen Krankheit wieder verlassen. Das stimmt uns traurig, da ja die eigentliche Intention die voll mitgedachte Inklusion Aller ist, sowohl in der Konzeption als auch der Nutzung. 

Mit diesen Spannungen, die wohl auch gesellschaftlich auffindbar sind, haben wir dennoch ein erstes Werk erzeugt. Ällei versucht also nicht in erster Linie ein vermarktungsfähiges Produkt zu sein, sondern ein kreativer Versuch, Missstände im Digitalen aufzuzeigen und anzugehen. Ällei ist ein dauerhafter Prototyp, der versucht, viele Erfahrungen und Wissen der Community mitzunehmen. Dabei sind wir uns bewusst, dass unser kleines Team nicht direkt eine “Besser-als-Google” Lösung parat hat, wir freuen uns aber, wenn wir einen gemeinsamen Dialog anstoßen können.

7.11.2022

Logbuch 3: Der Name Ällei

Wieso Ällei und in wie fern ist Ällei barrierefrei?

Mit freundlicher Unterstützung von:

KSB_Programmlogo_dive_in_DE_horizontal_RGB
LOGO Rheinenergie Stiftung RES_Kultur_sw