In der Tagesschau sagten sie gerade, die Schufa hätte Daten über 80 Millionen Einwohner Deutschlands. Nach Daten von 2021 hat Deutschland 83.237.124 Einwohner, davon 13,9 Millionen Kinder und Jugendliche unter 18 Jahren. Heißt das also, man wird spätestens als Kita-Kind bei der Schufa registriert???
TLDR: Banken werden dir ab jetzt nicht mehr sagen, dass sie dich ablehnen wegen des Schufa Scores. Ansonsten alles wie gehabt.
Welche Existenzgrundlage hat die Schufa denn sonst noch außer dieses legalisierten kriminellen Monopols, das über gut und schlecht entscheiden darf?
Die Verordnung schreibt vor, dass Entscheidungen, die für Betroffene rechtliche Wirkung entfalten, nicht nur durch die automatisierte Verarbeitung von Daten getroffen werden dürfen.
Also wenn ich manuell die genau gleiche Berechnung durchführe ist das okay?
Es ist vlt. noch nicht okay, aber es ist zumindest deutlich besser.
Das bedeutet, dass zumindest ein Memsch drübergeschaut haben muss und Fehler im System bemerkt werden können (Wenn das gewollt ist). Vollautomatische Systeme die komplexe Entscheidungen treffen können unentdeckte Fehler lange mitschleppen. Gerade wenn z.B. ein neuronales Netz die Bonität prüft können so Fehlschlüsse wie “ausländischer Name = schlecht” oder der Schufaklassiker Postleitzahl als Einflussfaktor rauskommen.
Dann sollen sie vorschreiben dass hier ein bekannter, nachvollziehbarer Algorithmus verwendet werden muss statt irgendwelcher AI-Verfahren, das ist aber nicht das gleiche with manuell und Automatisierung. Im übrigen schleppen gerade manuelle Prozesse auch sehr oft problematische Verfahren über Jahrzehnte mit ohne dass jemand groß darüber nachdenkt.
Du kannst auch einfach gar nicht antworten (als Vermieter z.B. nicht auf Nachfragemails reagieren), oder dir einfach eine andere Begründung aus den Fingern saugen, wie bisher auch schon.
Mein Punkt war dass Automatisierung hier doch nicht das Problem ist, im Gegenteil, Automatisierung heißt eigentlich wenn überhaupt bessere Nachvollziehbarkeit wie eigentlich entschieden wird. Manuelle Entscheidungen führen nämlich genau zu dem was du gerade beschrieben hast.
Mit KI sind teilweise selbst die automatisierten Entscheidungen schlecht nachvollziehbar.
Wie stellen sie sich das denn vor das nicht “nur” auf dieser Grundlage zu machen?
Soll das heißen man braucht z.B. 3 Kriterien und muss sowohl bei Zusagen als auch bei Ablehnung immer mindestens zwei haben die in die entsprechende Richtung zeigen? Was hindert eine Firma daran zu sagen “Aus unseren 3 Kriterien ist eins dass wir nur Verträge mit Leuten machen deren Nachname in der ersten Hälfte des Alphabets liegt und eines dass wir nur Verträge mit Leuten machen deren Nachname in der zweiten Hälfte des Alphabets liegt und daher haben wir immer ein zusätzliches Ablehnungskriterium in Reserve neben der Schufa-Bonitätsprüfung” (etwas verschleierter als so aber effektiv mit der gleichen Wirkung)?