Loading color scheme

Chatbot, LLM, GPT und Prompten Licht ins Dunkel der KI-Welt

 chatgptvsauto3

Am Anfang war ChatGPT

Am 22. November wurde die digitale Welt um eine neue Dimension erweitert: ChatGPT erblickte das Licht der Welt. Was zunächst nur Technikbegeisterte und Nerds faszinierte, verbreitete sich in rasantem Tempo auch unter ganz normalen Internetnutzern. Schon nach wenigen Monaten war „ChatGPT“ ein Begriff, den fast jeder kannte. Doch viele Begriffe rund um diese neue Technologie werden bis heute häufig verwechselt – Zeit also, etwas Klarheit zu schaffen.

ChatGPT ist ein Chatbot, also ein generatives KI-Tool – aber um das besser zu verstehen, hilft ein Vergleich mit einem Auto. Stell dir vor, ChatGPT ist dein Fahrzeug, mit dem du auf den Straßen des Wissens unterwegs bist. Jedes Auto braucht einen Motor, und dieser Motor heißt GPT – eine Form des sogenannten Large Language Model (LLM).

Dieser Sprachmotor wurde mit riesigen Mengen an Texten aus dem Internet bis einschließlich 2021 trainiert. Neuere Modelle enthalten teilweise Informationen bis Ende 2022 oder Anfang 2023. Danach endet das sogenannte „Wissens-Cut-off“ – also der Punkt, bis zu dem das Modell gelernt hat. Nach diesem Zeitpunkt lernt das Modell nicht mehr automatisch dazu. Es kann nur dann aktuelle Informationen liefern, wenn es über Zusatzfunktionen wie Deep Research oder Webzugriff auf das Internet zugreift. Vergleichbar mit coolen Extras eines Autos.

Damit der Motor läuft, braucht er Benzin – und dieses Benzin bist du: deine Eingaben, also das Prompten. Je klarer und besser dein „Benzin“ ist, desto reibungsloser läuft der Motor. Mit präzisen Fragen und Anweisungen bekommst du bessere, nützlichere Antworten, die dich schlauer machen oder dir im Alltag helfen.

chatbotvsauto2

Wie ein modernes Auto hat auch ChatGPT im Laufe der Zeit viele Extras erhalten: Deep Research, Lern- und Studienhilfen, mathematische Fähigkeiten, das Arbeiten mit Canvas sowie Bild- und Videoanalysen in Echtzeit. So wird aus dem Chatbot ein regelrechter Supersportwagen – oder, wie man scherzhaft sagt, eine digitale eierlegende Wollmilchsau.

chatbotvsauto4

 

Was ist ein LLM?

Ein Large Language Model (LLM) ist ein riesiges Sprachmodell, das auf unzähligen Texten aus dem Internet, aus Büchern, Artikeln und Foren trainiert wurde. Ziel dieses Trainings ist es, zu lernen, wie Menschen schreiben, denken und Informationen ausdrücken. Das Modell versucht also nicht, „die Wahrheit“ zu kennen, sondern Wahrscheinlichkeiten für das nächste sinnvolle Wort zu berechnen.

Man kann sich das so vorstellen: Wenn du sagst „Guten …“, dann weiß das Modell aus Erfahrung, dass danach sehr oft „Tag“ oder „Morgen“ folgt. Dieses Prinzip wird auf ganze Sätze und Themen angewendet – nur eben in gigantischem Maßstab.

Je größer das Modell (also je mehr Parameter es hat), desto besser versteht es Zusammenhänge, Nuancen und Bedeutungen. GPT – das steht für Generative Pretrained Transformer – ist ein bestimmter Typ eines solchen LLM. Es wurde speziell darauf trainiert, Texte zu erzeugen, die wie menschliche Sprache klingen und sich logisch entwickeln. GPT ist also der Motor, während das LLM die zugrunde liegende Technologie beschreibt.

GPT-4 etwa arbeitet mit Hunderten Milliarden solcher Parameter und kann dadurch erstaunlich natürliche, kreative und logische Texte erzeugen

LLM ist keine Suchmaschine

Ein Large Language Model wie GPT funktioniert ganz anders als eine Suchmaschine. Während Google oder Bing das Internet nach passenden Webseiten durchsuchen und dir Links zu Informationen zeigen, die bereits existieren, arbeitet ein LLM völlig anders. Es sucht nicht, sondern formuliert neu.

Ein LLM erzeugt Antworten auf Grundlage des Wissens, das es beim Training aus unzähligen Texten gelernt hat. Es versucht also nicht, „die Wahrheit“ zu finden, sondern berechnet, welche Wörter und Sätze mit hoher Wahrscheinlichkeit gut zusammenpassen. Dadurch entstehen Antworten, die oft erstaunlich menschlich klingen – aber nicht immer korrekt sind.

Der entscheidende Unterschied liegt also darin, dass eine Suchmaschine Informationen findet, während ein LLM sie erzeugt. Eine Suchmaschine zeigt dir Quellen, aus denen du selbst nachlesen und prüfen kannst, was stimmt. Ein LLM dagegen gibt dir direkt eine formulierte Antwort – die kann richtig sein, muss es aber nicht.

Deshalb ist es wichtig, die Ergebnisse eines LLMs kritisch zu betrachten, vor allem wenn es um Fakten, Zahlen oder aktuelle Ereignisse geht. Allerdings kann man mit einem klaren und gezielten Prompt den Chatbot dazu bringen, keine erfundenen Inhalte – sogenannte „Halluzinationen“ – zu erzeugen. Wenn man ihn ausdrücklich anweist, nur Fakten zu nennen, die er im Netz gefunden und aus mindestens drei vertrauenswürdigen Quellen bestätigt hat, wird die Zuverlässigkeit der Antworten deutlich höher. Gute Prompts sind also der Schlüssel zu fundierten Ergebnissen. Und wenn eine Antwort unklar oder unvollständig ist, kann man jederrzeit nachfragen oder nachschärfen, um genauere Informationen zu erhalten – so wird der Chatbot zu einem echten Dialogpartner. In vielen Browsern ist bereits der KI-Modus (Goolge Chrome - KI Modus) vorhanden.

Prompten die Kunst der guten Eingabe

Das Prompten ist der wichtigste Teil bei der Arbeit mit einem Chatbot wie ChatGPT. Ein Prompt ist einfach gesagt die Eingabe, also das, was du in das Textfeld schreibst. Die Qualität der Antwort hängt direkt davon ab, wie klar, vollständig und strukturiert deine Anfrage formuliert ist. Je präziser dein Prompt, desto hilfreicher und genauer wird die Antwort.

Ein guter Prompt beschreibt genau, was der Chatbot tun soll, in welcher Rolle er antworten soll und welches Ziel du verfolgst. Statt nur allgemein zu fragen, sollte man dem Chatbot konkrete Anweisungen geben, zum Beispiel, in welcher Sprachebene oder Perspektive er antworten soll. Dadurch kann er die Antwort besser an dein Vorwissen und dein Ziel anpassen.

Hilfreich ist es auch, Prompts wie Arbeitsanweisungen zu formulieren. Wenn du schreibst, dass der Chatbot sich in eine bestimmte Rolle versetzen soll – etwa als Lehrer, Journalist oder Forscher –, werden die Antworten automatisch zielgerichteter und verständlicher.

Wenn du Fakten brauchst, kannst du zusätzlich angeben, dass der Chatbot nur Informationen aus vertrauenswürdigen Quellen verwenden soll. Besonders effektiv ist es, wenn du ihn aufforderst, mindestens drei solcher Quellen zu prüfen und nur bestätigte Fakten wiederzugeben. Auf diese Weise lässt sich die Gefahr von sogenannten „Halluzinationen“ – also erfundenen Informationen – deutlich verringern.

So wird das Prompten zur eigentlichen Schlüsselkompetenz im Umgang mit Chatbots: Wer gute Eingaben formuliert, bekommt präzise, nützliche und überprüfbare Ergebnisse.

Mensch und Maschine ein starkes Team

In der Schule steht am Vormittag der Mensch im Vordergrund – Lehrerinnen, Lehrer und Mitschülerinnen schaffen Raum für Begegnung, Diskussion und gemeinsames Lernen. Doch gerade hier wird auch der Grundstein gelegt, um verantwortungsvoll mit der digitalen Welt umzugehen.

Am Nachmittag hingegen können generative KI-Tools zu mächtigen Lernbegleitern werden. Sie bieten Jugendlichen Unterstützung bei Aufgabenstellungen, helfen beim Kontrollieren von Lösungen und liefern präzise Erklärungen – oft schneller und klarer als jedes Schulbuch. So verhindert man, dass sich falsches Wissen einschleicht, und erhält gleichzeitig eine sofortige Korrektur inklusive verständlicher Begründung.

In manchen Fällen ersetzt eine gut genutzte KI sogar den teuren Nachhilfelehrer. Denn generative KI ist geduldig, rund um die Uhr verfügbar und hört niemals auf, zu erklären. Richtig eingesetzt, wird sie zum digitalen Lernpartner – nicht als Ersatz für den Menschen, sondern als Ergänzung, die Lernen persönlicher, individueller und effizienter macht.