aber woher kriegt Lauterbach so einen mächtigen Integrationstest
Es reicht, wenn das in Ausschreibungstexten oder Verordnungen steht.
Wenn die jetzt erst einmal mit synthetischen Daten ein Model trainieren
Du stellst dir das zu kompliziert vor. Man trainiert nicht nur ein Modell, man testet ALLES komplett. Also z.B. auch die Datenweitergabe in die USA. Wenn dann jemand am anderen Ende private/geheime synthetische Daten extrahieren kann, ist nichts wichtiges verloren.
Abgesehen davon weiß momentan vermutlich kaum jemand, was konkret geplant ist. Dafür muss man vermutlich noch auf Konkretes warten. Das war ja nur eine Ankündigung bisher.
Ich rede hier über die KI selbst und nicht was mit den Daten vor der Eingabe bzw. nach der Ausgabe geschieht. Und da ist das Testen weder trivial noch lange nicht vollständig gelöst. Es einfach zu fordern hilft da wenig.
Daher muss mMn immer davon ausgegangen, dass solche KI es schafft Daten zu deanonymisieren. Entsprechend muss auch die Verantwortung für und Transparenz über deren Nutzung sowie der gesammelten Eingabedaten strikt reguliert werden, wovon wir ja auch noch weit entfernt sind.
und nicht was mit den Daten vor der Eingabe bzw. nach der Ausgabe geschieht
Das ist aber das einzig relevante. Ein Modell selbst enthält nie wirklich schützenswerte Daten im Sinne des Datenschutz.
muss mMn immer davon ausgegangen, dass solche KI es schafft Daten zu deanonymisieren
Deswegen wird vorher getestet. Aber mit synthetischen Daten.
Entsprechend muss auch die Verantwortung für und Transparenz
Da bin ich voll bei dir. Wird auch gemacht soweit das technisch machbar und sinnvoll ist.
über deren Nutzung sowie der gesammelten Eingabedaten strikt reguliert werden, wovon wir ja auch noch weit entfernt sind.
Was würdest du vorschlagen, was über die EU Initiative hinaus geht?