Ich bin etwas skeptisch ob ein Drüberlesen oder Prüfungsprozess ausreicht. Gerade auch weil auf Wikipedia nicht nur, oder ich nehme an nicht flächendeckend und ausreichend erfahrene und wissende, sorgfältige Freiwillige mitarbeiten dass das ausreichend sichergestellt werden könnte.
Dazu verlinke ich den EN Artikel Why AI Can Push You to Make the Wrong Decision at Work.
When the AI provided an incorrect result, researchers found inexperienced and moderately experienced radiologists dropped their cancer-detecting accuracy from around 80% to about 22%. Very experienced radiologists’ accuracy dropped from nearly 80% to 45%.
Wikipedia ist mir zu wichtig um dort großflächig zu experimentieren, ohne klaren Aus- oder Rückweg, wenn man befürchten muss dass beim Prüfen nur 20-40 % der Falschaussagen bemerkt werden.
Kann man vielleicht nicht so gleich setzen, aber macht mich zumindest skeptisch. Für Zuversicht bräuchte ich andere Argumentation oder Grundlagen. Text auf Fakten prüfen ist auch nicht unbedingt simpel. Ist ja jetzt vielleicht schon ein Problem.
Ein Ansatz von jemand der sich auskennt schreibt mit einer KI könnte besser sein als wir akzeptieren KI Beiträge und prüfen das. Zum Beispiel.
Interessanter könnte sein KI zum Prüfen und Melden von Verdachtsfällen zu nutzen.