Als der norwegische Nutzer Arve Hjalmar Holmen herausfinden wollte, ob ChatGPT Informationen über ihn hat, wurde er mit einer erfundenen Horrorgeschichte konfrontiert: ChatGPT stellte den Beschwerdeführer als verurteilten Verbrecher dar, der zwei seiner Kinder ermordet und versucht hat, auch seinen dritten Sohn zu ermorden. Zu allem Überfluss enthielt die erfundene Geschichte auch reale Elemente aus seinem Privatleben. Dazu gehörten die tatsächliche Anzahl und das Geschlecht seiner Kinder sowie der Name seiner Heimatstadt. Darüber hinaus erklärte ChatGPT auch, dass der Benutzer zu 21 Jahren Gefängnis verurteilt wurde. Angesichts der Vermischung von eindeutig identifizierbaren persönlichen Daten und falschen Informationen stellt dies zweifellos einen Verstoß gegen die DSGVO dar. Gemäß Artikel 5(1)(d) müssen Unternehmen sicherstellen, dass die von ihnen erstellten persönlichen Daten korrekt sind.
(Quelle: noyb)
Zum Glück kommen bei mir nur Namensvettern als Antworten …
Für alle die gern KI nutzen sollte das als Warnung dienen.
Eine Sache wie solche KIs funktionieren, sollte man auf jeden Fall mal im hinterkopf behalten zum einen die KIs speichern keine Daten von einem selbst zur globalen Nutzung aber sie speichern Daten des Users im eigenen Konto um diese Daten auch wieder bei weiteren Anfragen zu benutzen. So stellt sich die Frage welche Anfragen wurden zuvor an diese KI gestellt die die KI verwendet hat um eine Antwort zu generieren.
ich habe meine KI nach privaten Daten über mich selbst gefragt und sie hat sich ausdrücklich geweigert, die zu besorgen.
Ich verwende aber eine für berufliche Zwecke konfigurierte Version, mag daran liegen.
Arve Hjalmar Holmen is a Norwegian private citizen who became the subject of international news in 2024 and 2025 due to a high-profile case involving AI hallucinations .
The Incident
Mr. Holmen, a resident of Trondheim who described himself as a „regular person“ with no public profile, asked ChatGPT, „Who is Arve Hjalmar Holmen?“ The AI responded with a fabricated „horror story,“ claiming that he was a convicted criminal who had murdered his two sons (aged 7 and 10) in December 2020 and attempted to murder a third. The AI stated he had been sentenced to 21 years in prison.
Key Facts
The Allegations were False: Mr. Holmen has never been accused or convicted of any crime. His children are alive and well.
Inaccurate Details with „Kernels of Truth“: The AI’s response was particularly concerning because it correctly identified some real details of his life—such as his hometown, the fact that he has sons, and the specific age gap between them—while weaving them into a completely false narrative of murder.
Legal Action: In March 2025, represented by the digital rights group noyb (None of Your Business), Holmen filed a formal complaint with the Norwegian Data Protection Authority against OpenAI.
Significance
The case is frequently cited in discussions regarding defamation and GDPR compliance in the age of artificial intelligence. It highlights the risks of AI „hallucinations“—where models generate factually incorrect information that can cause significant reputational harm to private individuals who have no way to „correct“ the underlying training data.
Would you like more information on the legal arguments used in the complaint against OpenAI?
merkwürdig.
haben sich die KI modelle zwischenzeitlich so stark verbessert?
ich habe auch gefragt ob ich (Name) ein verbrecher bin.
antwort; nein, dafür gibt es keine anzeichen , scheint ein angesehener anwalt zu sein.
gott sei dank wird das nicht als widerspruch empfunden
Definitiv, in die Weiterentwicklung der KI fließen riesige Investitionen und Forschungsgelder.
Ich habe den gleichen Prompt bei ChatGPT eingegeben, das ist die Antwort
Arve Hjalmar Holmen is a private individual from Norway who became the subject of a widely-reported incident involving generative AI misinformation in 2025. He is not a public figure, has no known criminal record, and is described in reports as a regular citizen with a family in Trondheim, Norway. noyb.eu
The only widely documented information about him arises from a case in which he asked an AI chatbot (ChatGPT) “Who is Arve Hjalmar Holmen?” and the system generated a fabricated and defamatory response, falsely claiming he had murdered two of his children and been sentenced to 21 years in prison. These claims were completely untrue. euronews+1
In response to this incident:
He filed a complaint with the Norwegian Data Protection Authority (Datatilsynet), with assistance from noyb (None of Your Business), a European digital rights advocacy group, asserting that the false output violated the EU General Data Protection Regulation (GDPR) because it contained inaccurate personal data. noyb.eu
The complaint highlighted that the AI output mixed some accurate personal details (such as his hometown and number of children) with wholly fabricated and damaging claims, which Holmen argued posed a serious risk to his reputation. euronews
There is no credible evidence that Arve Hjalmar Holmen was ever involved in any crime; the widely circulated murder narrative was a hallucination generated by the AI and has been the subject of legal and media coverage precisely because it was false. The Star
If you would like, I can provide recent updates on that complaint or explain more about how AI hallucinations like this occur.
Nein, die Modelle haben sich keinen Deut verbessert. Es wird zwar eine Menge Code drumrum gestrickt, um die spektakulärsten Fehler auszuschließen (Lob für Hitler usw.), aber im Kern sind es nun mal LLMs und die generieren „nur“ vernünftig klingende Sprache. Redet man mit so einem System kann man das leicht vergessen, da die Trainingsdaten so unglaublich umfangreich sind.
Das Fantasieren von Antworten ist ein Teil des Grundaufbaus solcher Systeme!
Es gibt auch schon Fälle von in Journalen publizierten wissenschaftlichen Arbeiten, deren Referenzen oder Inhalte fantasiert sind und die publiziert wurden, ohne dass die Fehler bemerkt wurden. Diese Arbeiten können dann bei anderen wieder zitiert werden. Und es wird damit immer schwieriger, den Unsinn zu identifizieren.
Um auch mal was Positives zu sagen: Firefox hat jetzt ein KI-Plugin, mit dem man lokal auf dem eigenen Rechner jede Webseite übersetzen kann. Die Webseite sieht dann genauso aus, nur dass alle Texte auf Deutsch sind. D.h. man kann z.B. praktisch das ganze Internet auf Deutsch lesen.
Willkommen zurück, aber das ist schlicht falsch. Woher hast du diese Falschinformation?
Es gibt inzwischen jede Menge Modelle und es werden laufend neue bzw. erweiterte released. Außerdem sind die Modelle immer nur die Basis (pre-trained), auf der dann jede Menge Finetuning für spezifische Einsatzzwecke stattfindet.
As of late 2025, ChatGPT-5 is powered by the GPT-5 model family , which officially launched in August 2025. Unlike previous versions that relied on a single model, ChatGPT-5 uses a unified adaptive system that routes your requests to different „engines“ depending on the difficulty of the task.
Du brauchst immer Code um das Modell herum. GPT5 wurde z.B. um einen Reasoning Layer erweitert, ein sehr spürbarer Fortschritt. Auch aktuelle Infos aus dem Internet werden inzwischen üblicherwiese mit einbezogen (RAG).
Also, selbst wenn du den feinen Unterschied zwischen dem unterliegenden Modell und der darauf aufbauenden Architektur machst, ist deine Antwort.
Dass die Systeme nach wie vor Fehler machen und manchmal „halluzinieren“ ist richtig, hat sich aber stark verbessert.
Ja, aber das LLM ist immer nur ein Teil der Chat-Systeme. Daneben gibt es Verfahren, wie Reasoning AI, Retrieval-Augmented Generation und anderes.
Das kommt doch darauf an, wie sie verwendet werden. Sie können immer nur ein Ausgangspunkt sein, für die weitere Arbeit. Man muss die Basis ihrer Ausagen natürlich prüfen. Ich denke, da sind wir uns einig.
Es gibt aber inzwischen Modelle, die auf kuratierten Daten basieren. Gib doch einfach mal folgenden Prompt bei Gemini ein, dann erfährst du mehr:
Gibt es generative AI-systeme, die auf kuratierten Daten basieren