<?xml version="1.0" encoding="utf-8" standalone="yes"?><rss version="2.0" xmlns:atom="http://www.w3.org/2005/Atom"><channel><title>Chatgpt on CTOMultiplier</title><link>https://ctomultiplier.com/de/tags/chatgpt/</link><description>Recent content in Chatgpt on CTOMultiplier</description><generator>Hugo</generator><language>de</language><lastBuildDate>Mon, 23 Mar 2026 17:59:59 +0100</lastBuildDate><atom:link href="https://ctomultiplier.com/de/tags/chatgpt/feed.xml" rel="self" type="application/rss+xml"/><item><title>Warum halluzinieren ChatBots?</title><link>https://ctomultiplier.com/de/warum-halluzinieren-chatbots/</link><pubDate>Thu, 05 Oct 2023 10:28:23 +0000</pubDate><guid>https://ctomultiplier.com/de/warum-halluzinieren-chatbots/</guid><description>&lt;p&gt;Diejenigen von Ihnen, die ChatGPT, Google Bard oder Ähnliches verwendet haben, haben wahrscheinlich festgestellt, dass diese Chatbots manchmal die Antworten auf unsere Fragen erfinden. Das ist das, was gemeinhin als Halluzinationen bekannt ist.&lt;/p&gt;
&lt;p&gt;Um zu verstehen, warum sie auftreten, muss man zunächst auf einer sehr grundlegenden Ebene verstehen, wie diese Chatbots funktionieren. Der grundlegende Baustein sind die Sprachmodelle (LLMs, &lt;em&gt;large language models&lt;/em&gt;). Diese Modelle werden mit großen Datenmengen trainiert, wie zum Beispiel Webseiten im Internet und gemeinfreien Büchern, unter anderem. Die Aufgabe der LLMs besteht darin, das nächste Wort oder die nächste Wortfolge aus einem Text vorherzusagen, den der Benutzer eingibt. Wenn wir beispielsweise eine Frage stellen, sagt das Modell die Wörter vorher, die direkt nach dieser Frage kommen. Da das Modell mit Millionen von Dokumenten trainiert wurde, ist es wahrscheinlich, dass es in einem (oder vielen) dieser Dokumente eine ähnliche Frage zusammen mit der Antwort gesehen hat. Grob gesagt funktioniert das LLM wie ein statistisches Modell: Zunächst lernt es während seines Trainings die Wahrscheinlichkeit, dass zwei oder mehr Wörter zusammengehören, und dann nutzt es bei der Verwendung diese Wahrscheinlichkeit, um die nächste Wortfolge vorherzusagen;&lt;/p&gt;</description></item></channel></rss>