David Heinemeier Hansson muss ziemlich wütend gewesen sein auf Apple. Genauer gesagt: auf die Apple Card, die Kreditkarte des Unternehmens, die seit August in den USA verfügbar ist. Und wie man das eben so macht als einflussreicher Softwareentwickler mit gut 360.000 Twitter-Followern, tat er diesen Ärger von einigen Tagen auf Twitter kund.
Die Apple Card sei "verdammt sexistisch", schrieb er in einer Serie von Tweets. Seine Frau Jamie und er gäben gemeinsame Steuererklärungen ab und lebten in einer Errungenschaftsgemeinschaft – dennoch habe er einen 20-mal höheren Kreditrahmen als seine Partnerin. Dabei habe sie sogar eine höhere Bonität, wird also als kreditwürdiger eingestuft als er.
Der Tweet ging viral: Fast 10.000-mal wurde der Beitrag geteilt, nahezu 30.000-mal geliked. Und der Kreditrahmen von Jamie Hansson wurde plötzlich doch erhöht. Der Fall war damit nicht erledigt. Auf Twitter diskutierten andere Nutzerinnen und Nutzer, ob die Apple Card Frauen systematisch benachteilige. Einige berichteten von ähnlichen Erfahrungen, der wohl prominenteste von ihnen: Apple-Gründer Steve Wozniak. Er habe ebenfalls ein höheres Kreditlimit als seine Frau – obwohl man keine getrennten Bank- oder Kreditkartenkonten oder sonstiges getrenntes Vermögen habe, schrieb der Mann, der bis 1985 aktiv für Apple arbeitete und nach eigenen Aussagen bis heute noch für das Unternehmen auftritt. Es sei aber hart, an einen Menschen zu kommen, der das korrigiere.
Wenn der Algorithmus Kredite vergibt
Was Wozniak damit meint: Wer einen Kredit bekommt und wer nicht, entscheiden heute oft nicht mehr Bankberaterinnen, sondern maschinell lernende Algorithmen. Die Softwaresysteme berechnen aus allen Daten, die ihnen eingefüttert wurden, wie wahrscheinlich es ist, dass eine Person einen Kredit zurückzahlt. Dafür gewichten sie verschiedene Kriterien: etwa wie viele Kredite jemand schon aufgenommen oder beglichen hat, aber auch Informationen, die man nicht direkt mit dem Kontostand in Verbindung bringt – etwa in welcher Gegend man wohnt, welchen Schulabschluss man hat oder was man in sozialen Medien macht. Es zählen dabei nicht nur die eigenen Daten, sondern auch die anderer Kreditnehmerinnen und Kreditnehmer mit ähnlichen Merkmalen.
Weil die Systeme so komplex geworden sind, steht nun die Vermutung im Raum, Apple diskriminiere Frauen. Das ist erst einmal nicht unplausibel. Noch vor wenigen Jahren arbeiteten Frauen seltener, weil sie sich oft um die Familie kümmerten, hatten also weniger eigenes Geld zur Verfügung. Und bis heute verdienen sie weniger Geld als Männer. Berücksichtigen selbst lernende Systeme auch das Geschlecht, könnten diese älteren Daten noch heute beeinflussen, ob Frauen Kredite bekommen und wie hoch sie liegen.
Schon in anderen Fällen standen selbst lernende Algorithmen unter Diskriminierungsverdacht, bei Bewerbungs- und Gerichtsverfahren etwa. Das ist nicht überraschend: Die Systeme werden von Menschen gebaut und basieren auf Bewertungen, die Menschen getroffen haben. Und die fällen bekanntlich subjektive Entscheidungen, wenn auch nicht immer bewusst. So sehr man sich auch um Neutralität und Objektivität von Algorithmen bemüht: Letztlich sind die Ergebnisse abhängig davon, wer sie programmiert, welche Daten in die Systeme fließen, welche Schlüsse die daraus ziehen und wie sie diese Informationen gewichten.
Das mag erst einmal abstrakt klingen. Im Fall von Krediten wird aber plötzlich spürbar: Ordnen uns Maschinen in bestimmte Schubladen ein, kann das unser Leben stark beeinflussen. Wer Geld bekommt oder nicht, entscheidet in der Konsumgesellschaft darüber, wer eine neue Couch kaufen kann, ein Auto oder ein Haus. Das Kernproblem dahinter ist: Wie Algorithmen entscheiden, wer kreditwürdig ist, lässt sich in der Regel nicht einsehen. Das gilt nicht nur für Apples Kreditkarte, sondern auch für andere Banken, Kreditunternehmen oder Auskunfteien wie die deutsche Schufa.
Dabei muss man wissen, dass Apple selbst offenbar nicht direkt Einfluss auf den Algorithmus nehmen kann: Das Unternehmen kooperiert mit der Investmentbank Goldman Sachs, die eine Banklizenz besitzt. Das Institut gibt die Apple Card offiziell aus und entscheidet auch über Kreditrahmen. Dennoch ist Apple, das sich ja sonst sehr um Diversität bemüht, als Namensgeber der Karte natürlich mit in der Verantwortung, wenn etwas nicht nach Plan läuft.
David Heinemeier Hansson und seine Frau haben nach eigenen Angaben sowohl mit Apple als auch mit Goldman Sachs Kontakt gehabt. Und in beiden Unternehmen hätten die Mitarbeiterinnen und Mitarbeiter den Algorithmus nicht einsehen können. Ein Mitarbeiter habe gegenüber seiner Frau sogar argumentiert, man diskriminiere nicht, "das ist nur der Algorithmus".
Goldman Sachs schreibt in einem Statement: Eine Bewerbung auf eine Kreditkarte werde unabhängig bewertet. Die Entscheidung beruhe unter anderem auf dem Einkommen, der Bonität, wie viele Schulden jemand habe und wie er diese Schulden manage. Es sei möglich, dass Familienmitglieder unterschiedliche Bewertungen erhielten. Das Geschlecht oder der Familienstand fließe nicht in den Prozess mit ein. Genauer wird das Kreditinstitut nicht.
Diese Intransparenz sorgt für Unsicherheit. Weiß man nicht, wie ein System im Detail funktioniert, kann man darüber nur mutmaßen, es entstehen Theorien und Misstrauen.
Kommentare
"Es sei aber hart, an einen Menschen zu kommen, der das korrigiere. "
Lieber Autor
Wenn ein Amerikaner davon spricht, dass etwas "hard" ist, dann meint er damit schwer, und nicht hart.
Lieber Leser, vielen Dank für Ihren Kommentar. Laut Duden sind "hart" und "schwer" Synonyme und laut Langenscheidt kann man "hard" auch mit "hart" übersetzen:
https://www.duden.de/rechtsc…
https://de.langenscheidt.com…
Ich finde es gut, dass er sich selbst mit seiner Partnerin auf Augenhöhe sieht/sehen möchte. Credit Scores sind in der Finanzwelt usus, jetzt auch bei Versicherungen und demnächst wohl beim Friseur.
China wendet es sogar auf die Bürger soziologisch verwertbar ein. Einfach mehr Kohle machen als man braucht und gut ist.
So einfach ist das nicht. Es geht ja gar nicht nur um das, was man sich direkt unter Kredit vorstellt. Schon ein Dispo oder eine Kreditkarte wird problematisch. Wenn ersteres mit etwas Organisation und Luft noch klappen kann, wird das ohne Kreditkarte schon schwieriger. Oft kommt man ohne gar nicht weiter.
Dann geht es schlicht darum, irgendwo kaufen zu können. Der Smartphonevertrag klappt auch nicht mehr. Selbst beim Stromanbieter bekommt man Schwierigkeiten.
"Sich gegen Algorithmen zu wehren ist aber noch schwerer als gegen Bankberater. "
Schöner Satz
Den Wahrheitgehalt dieser Aussage stelle ich mal in Zweifel.
"Sich gegen Algorithmen zu wehren ist aber noch schwerer als gegen Bankberater. "
In welcher Zeit lebt die Autorin? Selbst vor Jahren haben in Filialen Mitarbeiter nur noch beim Ausfüllen von Anträgen geholfen, die Entscheidung traf schon damals ein Algorithmus in der bankeneigenen IT.
Nur das dieser Algorithmus jetzt auch schaut ob sie auf einem Facebook Bild vielleicht eine Zigarette im Mund hatten oder eine Bierflasche.
Schlimm wird es sobald die Gentechnik so weit ist das da Algorithmen durchlaufen.
Ich glaube Sie haben den Aluhut etwas zu fest aufgesetzt.
??? Was soll diese Aussage bedeuten ??? Können Sie da näher drauf eingehen? Mir erschließt sich der Zusammenhang zwischen Gentechnik und dem was landläufig als Algorithmus bezeichnet wird.
DSVGO §22-1:
Die betroffene Person hat das Recht, nicht einer ausschließlich auf einer automatisierten Verarbeitung – einschließlich Profiling – beruhenden Entscheidung unterworfen zu werden, die ihr gegenüber rechtliche Wirkung entfaltet oder sie in ähnlicher Weise erheblich beeinträchtigt.
Ich bin leider kein Jurist, aber für mich hört sich das so an, als ob es ein "Problem" wäre.
"Nur das dieser Algorithmus jetzt auch schaut ob sie auf einem Facebook Bild vielleicht eine Zigarette im Mund hatten oder eine Bierflasche."
Quelle?
Gut dass das mein Bankberater nicht wusste. Der hat mir einfach das vierfache von dem, was der Algorithmus vorgeschlagen hat eingetragen - weil er schlicht in der Lage ist, flexibel zusätzliche Informationen, in dem Fall zu meinen Gunsten, zu berücksichtigen.
Sie können davon ausgehen dass alles was man im Netz verbreitet gelesen und weiter gereicht wird. Ich selbst habe Weihnachtsbettelbriefe bekommen deren Absender ich nicht kannte. Als ich den Absender angeschrieben habe wurde mir mitgeteilt dass meine Adresse für ein gewisses Zeitfenster vermietet !! worden ist.
Auch neue Arbeitgeber informieren sich über das Internet wer sich bei ihnen beworben hat.
Es ist somit auch leicht vorstellbar dass auch Algorithmen Situationen auf Bildern erfassen und diese dann für andere Zwecke verwerten, ein Grund weshalb ich allen dieser Medien fern bleibe, es geht auch sehr gut ohne.
Nun ja so abwegig ist es nicht.
An der DNA kann man (jetzt schon) viel erkennen wissen sie.
Ich hoffe es ist nur Einbildung oder der Bekannte aluhut.
Aber warum sollte Google die diese Daten haben sie nicht nutzen?
Und was ist das Problem, wenn es die Wahrheit abbildet. Sagen wir ein Algorithmus würde jedes Verhalten abbilden und berücksichtigen. Was wäre das Problem? Dass wir uns nicht gänzlich perfekt darstellen können? Das Perfektion zu sehr belohnt wird, bzw. Imperfektion bestraft wird?
Man kann das gerne moralisch in Frage stellen oder gar beängstigend finden, aber ist es falsch? Vielleicht ist es sogar gesetzeswidrig oder gegen die Menschrechte, ja. Und dennoch entspräche es der Wahrheit, dass man vielleicht doch nur zu 63.12365% und damit in die Kreditklassifikation C eingeordnet wird. Vielleicht ist das sogar fairer als heute.
Heute werden vielleicht die ausgemustert, die es gar nicht verdient haben, einfach nur weil sie nicht gut in Verkaufsgesprächen sind.
Ihr Konzept ist grundsätzlich problematisch und falsch dazu.
Es gibt keine Wahrheit außerhalb von Mathematik und Religion, menschliches Handeln ist immer werte- und interessengeleitet.
Wir haben immer nur einen temporären Konsens über alles, der sich schnell ändern kann und überall verschieden ist.
Sie erheben ökonomische Interessen in den Rang von Wahrheiten, was eben doppelt falsch ist.
Sie haben natürlich recht, dass man genau dadurch nicht perfekt ist.
Genau so unperferkt ist jedoch, dass „Produkt“ das ich beziehen will, sei es Kredit oder Versicherung.
Guter Kapitalimus kann aber nur funktionieren wenn einigermaßen informationsgleichstand herrscht.
Und morgen ist Ihr Profil vielleicht zu nah am potentiellen Gefaehrder, wenn dann irgendwann die Polizei sowas einsetzt und Sie werden 5x oefter angehalten als 95% der Autofahrer. Dann dauert es Monate, bis Sie durch erfolglose Durchsuchung des Wagens wieder aus der Kategorie rausrutschen. Daumen gedrueckt, dass der Algorithmus das dann auch schnell genug beruecksichtigt, sonst kriegen Sie irgendwann ein Problem mit dem Arbeitgeber, weil Sie taeglich zu spaet kommen. Sie verlieren Ihren Job, sofort werden Kredite gekuendigt.
Und der Witz kommt erst noch: Nachdem Ihnen all das passiert ist, werden Sie WIEDER jeden zweiten Tag angehalten, weil der Algorithmus bereits WEISS, dass bei x% der Leute, die gerade ihre Arbeit verloren haben, und Kredite in 5stelliger Hoehe fruehzeitig tilgen muessen, eine 79% Chance besteht, dass sie in den naechsten 2-3 Monaten kriminell wird. Da kann man dann natuerlich nichts machen und muss sich fuegen.
Viel Spass.
Das hat doch nichts mit Aluhut zu tun. Sie sind schon ein ziemlich naiver Zeitgenosse.
Erst vor Kurzem hat Jens Spahn einen Vorstoß in die Richtung gemacht besonders schützenswerte, private Gesindheitsdaten, die bei den Krankenkassen liegen, für Interessierte zugänglich zu machen ohne dass die betreffende Person überhaupt darüber informiert wird, geschweigedenn Einspruch erheben kann.
https://www.deutschlandfunk.…
Auf der anderen Seite landen bei den Krankenkassen jetzt schon Genanalysen der Versicherten und es ist nur noch eine Frage der Zeit (wann die Kosten genug sinken) bis eine vollständige Squenzierung zur Standardanamnese jedes Menschen gehört, um Krankheiten vorzubeugen.
https://www.tagesschau.de/in…
In welchem Zusammenhang beliebige Merkmale wie Krankheiten, Hautfarbe oder Sexuelle Orientierung mit den Genen stehen ist schon seit Jahrzehnten ein glühender Gegenstand der Forschung und auch hier ist es nur eine Frage der Zeit, ob sich bald auch noch mehr interessante Informationen aus einem einmal digital vorliegendem Genom lesen lassen.
Die technischen und juristischen Möglichkeiten dies alles dem Missbrauch durch wirtschaftliche Interessen zugänglich zu machen liegen quasi um die Ecke und es braucht nur einen Glückstag für einen Politiker vom Schlage Seehofer diese Türe zu öffnen.
Wenn Ihnen das Recht verwehrt wird, dass ein Mensch die Entscheidung trifft, können Sie sich an den Datenschutzbeauftragten dieses Unternehmens wenden. (Jedes Unternehmen in der EU, das autom. Entscheidungen incl. Profiling trifft, hat einen Datenschutzbeauftragten) Dieser wird dann die "Entscheider" oder deren Vorgesetzten spontan nachschulen. Achtung, dass heißt nicht, dass die Entscheidung anders ausfallen muss. Die Algorithmen (im Falle einer Bank) dienen auch dazu, dass niemand überschuldet wird und auch eine Bank wird das Recht haben das Ausfallrisiko zu begrenzen und helfen dem Berater bei der Entscheidungsfindung.
Meistens sollte ein klärendes Gespräch, egal wie es ausgeht, hilfreicher sein. Ich weiß, manchmal klappt das nicht. In einer Bank haben es die Berater tatsächlich nicht leicht, alles zu wissen. Und wer von uns weiß schon alles?
Der Datenschutzbeauftragte hat zwar selbst -zurecht - keine Befugnis, einen solchen Mißstand abzustellen. Spätestens nach der Schulung klappt das aber meistens.
Naja, das mag noch eine Weile weg sein.
Die Idee ist wohl, dass sich anhand von genetischen Eigenschaften Neigungen z. B. best. Krebssorten ablesen lassen. Solche Daten in den Händen von Versicherungen könnten dazu führen, dass dann eine best. Behandlung nicht bezahlt wird. Oder z. B. ein Spenderorgan nicht an Sie vergeben wird, weil Sie eine "Neigung", oder eine theoretische geringere Lebenserwartung haben.
Und das wird bereits gemacht: Die Leistungen nach den Gewinnerzielungsvorstellungen der Krankenkassen angepasst.
Bei Gesundheitsdaten müssen Sie aber zustimmen, oder es braucht eine Gesetzesänderung. Also immer beobachten, wer Ihnen hier Rechte vorenthalten möchte...
In der Sache sehe ich das ähnlich und doch ist es gut und menschlich, wenn das Recht besteht, nicht ausschließlich durch eine Maschine bewertet und - wenn Sie so wollen - [ver/be]urteilt wird.
Die Algorithmen in den Banken mögen sogar recht gut sein mit Blick auf den Zweck, aber es gibt genug Beispiele, bei denen die Wahrheit eben nicht hinreichend genau abgebildet wird, oder dem Ergebnis viel zu sehr vertraut wird.
Das ist philosophisch völlig richtig und wunderbar formuliert. Ich werde es mir merken, vielen Dank hierfür. Für unser Zusammenleben und dass nicht einer den anderen übervorteilt, brauchen wir aber etwas das uns schützt. Das wird nicht perfekt sein soll aber zumindest so lange vor der noch weniger perfekten Situation schützen, bis es besser geht.
(Ihr Satz war eleganter formuliert)
"Und was ist das Problem, wenn es die Wahrheit abbildet. Sagen wir ein Algorithmus würde jedes Verhalten abbilden und berücksichtigen. Was wäre das Problem? … Vielleicht ist das sogar fairer als heute.
Heute werden vielleicht die ausgemustert, die es gar nicht verdient haben, einfach nur weil sie nicht gut in Verkaufsgesprächen sind."
Sag ma mal, so`n Dödel, der nicht mal ein Verkaufsgespräch führen kann, hat doch eh keinen Kredit verdient.
Ein Herr von und zu Guttenberg konnte zum Beispiel ganz hervorragende Verkaufsgespräche führen, der hat sogar ne Doktorarbeit verkauft, die er gar nicht geschrieben hat, der ist kreditwürdig.
"Was ist Wahrheit?" fragt Pilatus Jesus.
Und welche Wahrheit findet der Algorithmus, der jeden Pups von uns weiß (aha, Verdauungsstörung, falsche Ernährung)