David Heinemeier Hansson muss ziemlich wütend gewesen sein auf Apple. Genauer gesagt: auf die Apple Card, die Kreditkarte des Unternehmens, die seit August in den USA verfügbar ist. Und wie man das eben so macht als einflussreicher Softwareentwickler mit gut 360.000 Twitter-Followern, tat er diesen Ärger von einigen Tagen auf Twitter kund.
Die Apple Card sei "verdammt sexistisch", schrieb er in einer Serie von Tweets. Seine Frau Jamie und er gäben gemeinsame Steuererklärungen ab und lebten in einer Errungenschaftsgemeinschaft – dennoch habe er einen 20-mal höheren Kreditrahmen als seine Partnerin. Dabei habe sie sogar eine höhere Bonität, wird also als kreditwürdiger eingestuft als er.
Der Tweet ging viral: Fast 10.000-mal wurde der Beitrag geteilt, nahezu 30.000-mal geliked. Und der Kreditrahmen von Jamie Hansson wurde plötzlich doch erhöht. Der Fall war damit nicht erledigt. Auf Twitter diskutierten andere Nutzerinnen und Nutzer, ob die Apple Card Frauen systematisch benachteilige. Einige berichteten von ähnlichen Erfahrungen, der wohl prominenteste von ihnen: Apple-Gründer Steve Wozniak. Er habe ebenfalls ein höheres Kreditlimit als seine Frau – obwohl man keine getrennten Bank- oder Kreditkartenkonten oder sonstiges getrenntes Vermögen habe, schrieb der Mann, der bis 1985 aktiv für Apple arbeitete und nach eigenen Aussagen bis heute noch für das Unternehmen auftritt. Es sei aber hart, an einen Menschen zu kommen, der das korrigiere.
Wenn der Algorithmus Kredite vergibt
Was Wozniak damit meint: Wer einen Kredit bekommt und wer nicht, entscheiden heute oft nicht mehr Bankberaterinnen, sondern maschinell lernende Algorithmen. Die Softwaresysteme berechnen aus allen Daten, die ihnen eingefüttert wurden, wie wahrscheinlich es ist, dass eine Person einen Kredit zurückzahlt. Dafür gewichten sie verschiedene Kriterien: etwa wie viele Kredite jemand schon aufgenommen oder beglichen hat, aber auch Informationen, die man nicht direkt mit dem Kontostand in Verbindung bringt – etwa in welcher Gegend man wohnt, welchen Schulabschluss man hat oder was man in sozialen Medien macht. Es zählen dabei nicht nur die eigenen Daten, sondern auch die anderer Kreditnehmerinnen und Kreditnehmer mit ähnlichen Merkmalen.
Weil die Systeme so komplex geworden sind, steht nun die Vermutung im Raum, Apple diskriminiere Frauen. Das ist erst einmal nicht unplausibel. Noch vor wenigen Jahren arbeiteten Frauen seltener, weil sie sich oft um die Familie kümmerten, hatten also weniger eigenes Geld zur Verfügung. Und bis heute verdienen sie weniger Geld als Männer. Berücksichtigen selbst lernende Systeme auch das Geschlecht, könnten diese älteren Daten noch heute beeinflussen, ob Frauen Kredite bekommen und wie hoch sie liegen.
Schon in anderen Fällen standen selbst lernende Algorithmen unter Diskriminierungsverdacht, bei Bewerbungs- und Gerichtsverfahren etwa. Das ist nicht überraschend: Die Systeme werden von Menschen gebaut und basieren auf Bewertungen, die Menschen getroffen haben. Und die fällen bekanntlich subjektive Entscheidungen, wenn auch nicht immer bewusst. So sehr man sich auch um Neutralität und Objektivität von Algorithmen bemüht: Letztlich sind die Ergebnisse abhängig davon, wer sie programmiert, welche Daten in die Systeme fließen, welche Schlüsse die daraus ziehen und wie sie diese Informationen gewichten.
Das mag erst einmal abstrakt klingen. Im Fall von Krediten wird aber plötzlich spürbar: Ordnen uns Maschinen in bestimmte Schubladen ein, kann das unser Leben stark beeinflussen. Wer Geld bekommt oder nicht, entscheidet in der Konsumgesellschaft darüber, wer eine neue Couch kaufen kann, ein Auto oder ein Haus. Das Kernproblem dahinter ist: Wie Algorithmen entscheiden, wer kreditwürdig ist, lässt sich in der Regel nicht einsehen. Das gilt nicht nur für Apples Kreditkarte, sondern auch für andere Banken, Kreditunternehmen oder Auskunfteien wie die deutsche Schufa.
Dabei muss man wissen, dass Apple selbst offenbar nicht direkt Einfluss auf den Algorithmus nehmen kann: Das Unternehmen kooperiert mit der Investmentbank Goldman Sachs, die eine Banklizenz besitzt. Das Institut gibt die Apple Card offiziell aus und entscheidet auch über Kreditrahmen. Dennoch ist Apple, das sich ja sonst sehr um Diversität bemüht, als Namensgeber der Karte natürlich mit in der Verantwortung, wenn etwas nicht nach Plan läuft.
David Heinemeier Hansson und seine Frau haben nach eigenen Angaben sowohl mit Apple als auch mit Goldman Sachs Kontakt gehabt. Und in beiden Unternehmen hätten die Mitarbeiterinnen und Mitarbeiter den Algorithmus nicht einsehen können. Ein Mitarbeiter habe gegenüber seiner Frau sogar argumentiert, man diskriminiere nicht, "das ist nur der Algorithmus".
Goldman Sachs schreibt in einem Statement: Eine Bewerbung auf eine Kreditkarte werde unabhängig bewertet. Die Entscheidung beruhe unter anderem auf dem Einkommen, der Bonität, wie viele Schulden jemand habe und wie er diese Schulden manage. Es sei möglich, dass Familienmitglieder unterschiedliche Bewertungen erhielten. Das Geschlecht oder der Familienstand fließe nicht in den Prozess mit ein. Genauer wird das Kreditinstitut nicht.
Diese Intransparenz sorgt für Unsicherheit. Weiß man nicht, wie ein System im Detail funktioniert, kann man darüber nur mutmaßen, es entstehen Theorien und Misstrauen.
Kommentare
"Es sei aber hart, an einen Menschen zu kommen, der das korrigiere. "
Lieber Autor
Wenn ein Amerikaner davon spricht, dass etwas "hard" ist, dann meint er damit schwer, und nicht hart.
Lieber Leser, vielen Dank für Ihren Kommentar. Laut Duden sind "hart" und "schwer" Synonyme und laut Langenscheidt kann man "hard" auch mit "hart" übersetzen:
https://www.duden.de/rechtsc…
https://de.langenscheidt.com…
Ich finde es gut, dass er sich selbst mit seiner Partnerin auf Augenhöhe sieht/sehen möchte. Credit Scores sind in der Finanzwelt usus, jetzt auch bei Versicherungen und demnächst wohl beim Friseur.
China wendet es sogar auf die Bürger soziologisch verwertbar ein. Einfach mehr Kohle machen als man braucht und gut ist.
So einfach ist das nicht. Es geht ja gar nicht nur um das, was man sich direkt unter Kredit vorstellt. Schon ein Dispo oder eine Kreditkarte wird problematisch. Wenn ersteres mit etwas Organisation und Luft noch klappen kann, wird das ohne Kreditkarte schon schwieriger. Oft kommt man ohne gar nicht weiter.
Dann geht es schlicht darum, irgendwo kaufen zu können. Der Smartphonevertrag klappt auch nicht mehr. Selbst beim Stromanbieter bekommt man Schwierigkeiten.
na ja. Nur die Frage ist, woher der Apple-Algoritmus weiss, dass Jamie Hansson eine Frau ist.
In der Zeit von 31 Geschlechten kann man es doch nicht vom Vornamen deduzieren.
Wenn sie wissen was jemand einkauft, reichen ihnen die Daten von wahrscheinlich einem Monat um zu 95% das Geschlecht zu bestimmen. Selbst als Mensch. Eine KI die zusätzlich noch soziale Netzwerke ihren Emailverkehr kennt, dürfte die Trefferquote bei wohl über 99% liegen.
Deswegen verstehe ich auch nicht wie jemand so naiv sein kann und zum Beispiel in einer Apotheke mit Kreditkarte zahlen kann oder noch schlimmer Payback Punkte dort sammelt.
Wahrscheinlich bin ich aber selber naiv genug, dass ich glaube mein Versicherer gibt die Daten nicht weiter.
EXAKT;
Ich selbst hab für meine Bedürfnisse genug Geld, aber in Frankreich kommt man ohne Kreditkarte eben nicht weit, weil man an vielen Automaten eben nicht per EC sondern nur per Kreditkarte zahlen kann.
Und für 3 Wochen Urlaub braucht man dann eben auch mal einen Kreditrahmen von mehreren tausend € zumindest für diesen Monat
„ Wenn sie wissen was jemand einkauft, reichen ihnen die Daten von wahrscheinlich einem Monat um zu 95% das Geschlecht zu bestimmen. Selbst als Mensch. Eine KI die zusätzlich noch soziale Netzwerke ihren Emailverkehr kennt, dürfte die Trefferquote bei wohl über 99% liegen.“
Das stimmt zwar, aber wahrscheinlich ist es gar nicht so kompliziert. Ich nehme an, die Dame hat ganz einfach beim Feld „Geschlecht“ „weiblich“ ausgewählt.
Ja, das kann ich auch für Holland bestätigen. Normale Schließfächer sind meist schon nur mit Kreditkarte nutzbar.
Aber es gibt doch auch Karten, die brauchen keinen Rahmen, sondern buchen das Geld direkt weiter vom Girokonto ab.
Wie gesagt das ist komplett irrelevant, da das wirklich das leichteste für eine kommt ist.
Vorallem mit den Daten auf die wo. Google Algorithmus zugreifen kann.
dafür werden daten gesammelt und und sind käuflich zu erwerben.
und die nutzer geben die daten freiwillig her, meist weil sie dafür was "geschenkt" oder "kostenlos" kriegen.
Sie sind etwas Off-Topic oder? Apple verteilt auch an die Ehefrauen Kreditkarten.
Wenn man gar keine Kreditkarte bekommt, dann liegt es nicht daran, dass man "nur" Frau ist. Da muss schon mehr sein. Aus diesem Grund ist Ihr gesamter Einwand irgendwie am Thema vorbei.
Wenn es aber Off-Topic ist, dann haben Sie sicherlich recht, dass in vielen Ländern das Leben ohne Kreditkarte schwierig ist.
Das stimmt. Deshalb dürfen in der EU Banken für diesen Zweck auch nicht einfach so in den Zahlungsverkehr der Kunden sehen. Ich glaube auch nicht, dass es viele Banken gibt, bei denen das Geschlecht in irgend einer Form per Algorithmus Einfluß hat. Standortdaten - weiß ich - dass einige Algorithmen (aber als eines unter vielen) verwenden.
Natürlich muss aber auch jemand, der Geld verleiht, prüfen dürfen und sogar müssen, ob der Kreditnehmer das Darlehen auch zurückzahlt oder zahlen kann.
Die betroffene Person hat das Recht, nicht einer ausschließlich auf einer automatisierten Verarbeitung – einschließlich Profiling – beruhenden Entscheidung unterworfen zu werden, die ihr gegenüber rechtliche Wirkung entfaltet oder sie in ähnlicher Weise erheblich beeinträchtigt. (Artikel 22 DSGVO)
Banken in D lösen das übrigens oft so, dass bei einem Onlinekreditantrag keine endgültige Absage erteilt wird, sondern dass der Antragsteller die Möglichkeit erhält, seinen Fall von einem Menschen entscheiden zu lassen.
Von daher bezweifle ich sehr, dass das Beispiel aus USA auch auf D oder die EU übertragen werden kann. Selbst bei dem Beispiel vermute ich aber, dass es eher an anderen Parametern lag z. B. Schwankungshöhe ggü Vormonat oder was auch immer.
Auch Banken vergeben gerne Kredite.
Danke für diesen Beitrag. Genau so bringt man jeden konstruktiven Diskurs weiter. Schön mal den Geschlechtsidentitätspfiffi gassi geführt...
Da tropft ihnen etwas aus dem Gesicht...
... oh, Entschuldigung, das ist wohl nur der Sarkasmus. ;)
"Oft kommt man ohne gar nicht weiter."
Da braucht man keine Frau zu sein!
Das passiert alleine schon in dem man heiratet.Ich habe bei einer Bank gearbeitet, ich weiss das!
Ich denke nicht, dass es an anderen Parametern lag und ein 20x höherer Kreditrahmen ist absurd. Es gab bei dem einen Beispiel keine getrennten Konten und bei dem anderen hatte die Frau eine höhere Bonität.
"Sich gegen Algorithmen zu wehren ist aber noch schwerer als gegen Bankberater. "
Schöner Satz
Den Wahrheitgehalt dieser Aussage stelle ich mal in Zweifel.
"Sich gegen Algorithmen zu wehren ist aber noch schwerer als gegen Bankberater. "
In welcher Zeit lebt die Autorin? Selbst vor Jahren haben in Filialen Mitarbeiter nur noch beim Ausfüllen von Anträgen geholfen, die Entscheidung traf schon damals ein Algorithmus in der bankeneigenen IT.
Nur das dieser Algorithmus jetzt auch schaut ob sie auf einem Facebook Bild vielleicht eine Zigarette im Mund hatten oder eine Bierflasche.