Kennt ihr den schon? Frau bittet ChatGPT, den Kaffeesatz zu lesen (nein, wirklich!), ob ihr Mann fremdgeht.
ChatGPT so: ja, tut er.
Die Frau so: Reicht Scheidung ein. So offenbar geschehen in Griechenland (Webseite ist auf griechisch).
Der Vater wird jetzt das alleinige Sorgerecht für die beiden Kinder beantragen.
Das wollte ich euch nicht vorenthalten.
Mein „Keine weiteren Fragen, euer Ehren“-Moment mit Menschen & Ai-Rotz war ganz zu Anfang als der Schmutz aufkam eine Story von einem Freund, der bei Kleinanzeigen einen Lattenrost verkauft hat und als die Person mit einem sehr kleinen Auto kam um den abzuholen, fragte er, ob sie sicher ist, dass das hinhaut und die Person meinte dann: „Ja, ich hab ChatGPT gefragt“.
Tja.
Die Frage war bestimmt so präzise formuliert wie “kann man mit einem Auto einen Lattenrost transportieren?”. Das sind dann bestimmt auch die Leute die immer in ganzen Sätzen googeln.
Es ist sehr sinnvoll in ganzen Sätzen zu googeln, da Google schon seit Jahren versucht, die Intension hinter einer Suchanfrage zu ermitteln.
Echt? Ich fahre bis jetzt immer noch gut damit hauptsächlich Stichworte zu suchen außer wenn ich Fragen hab die auch genaus so in einem Forum beantwortet worden sein können.
Irgendwie fehlt da die Schlußpointe. Hat es am Ende funktioniert? Falls ja, wäre das zumindest interessant. Andernfalls natürlich lustiger und würde rhetorisch durch die Wiederholung des Offensichtlichen leiden. Trotzdem taugt die Geschichte so, wie sie ist tatsächlich nur zur Bestätigung des jeweiligen Vorurteils des Lesers und bringt keinen echten Erkenntnisgewinn. Prinzipiell funktionieren genau so übrigens rechte Fakenews bzw. Halbwahrheiten: das tatsächliche Ende bleibt offen, das Vorurteil bestehen. Nicht, dass ich ChatGPT über den Weg trauen würde, aber etwas Kritik tut durchaus auch bei Information, die einem ins Welbild passen würde, not.