
KI ist keine Maschine, die selbst denken kann. Sie ist ein hochkomplexes Rechenmodell. Bild: Silvia Meierhofer
«Wenn du mit der Antwort einer KI unzufrieden bist, liegt das entweder an deinem Prompt oder daran, dass die KI die Antwort schlicht nicht kennt. Dann erfindet sie einfach eine.» Reto Vogt, Experte für Künstliche Intelligenz und Dozent an der Schweizer Journalistenschule MAZ, nennt das «Halluzinieren». Ein Problem, das nicht nur frustriert, sondern sogar tödlich enden kann.
Denn anders als viele glauben, sind Systeme wie ChatGPT, Claude oder Gemini weder Super-Suchmaschinen noch Google-Ersatz. Sie durchforsten das Internet nicht nach Fakten, sondern berechnen ihre Antworten auf Basis von Wahrscheinlichkeiten – gestützt auf die Daten, mit denen sie gefüttert werden. «Eine KI ist keine Suchmaschine!», betont Vogt. Doch dieser Irrglaube ist weit verbreitet – und gefährlich.
Warum «Künstliche Intelligenz» ein Marketing-Buzzword ist
Schon der Name ist trügerisch: Was heute als «KI» verkauft wird, hat mit echter Intelligenz nichts zu tun. Eine KI ist keine Maschine, die denken kann, sondern ein hochkomplexes Rechenmodell, das Muster in Sprachdaten erkennt. Sie versteht nicht, was sie schreibt. Sie kombiniert nur Wörter, die in ihrem Trainingsmaterial bereits häufig zusammen vorkommen – und liefert so Sätze, von denen sie annimmt, dass sie Nutzende zufriedenstellen.
«Technologie ist nie neutral. Sie spiegelt die Überzeugung derer wider, die sie kontrollieren. »
«Sprache ist kein Zeichen von Intelligenz», sagt Vogt. Eine echte KI müsste ein Bewusstsein haben, selbstständig lernen und Neues erschaffen können. Doch davon sind wir Lichtjahre entfernt. Warum also der irreführende Begriff «Künstliche Intelligenz»? Vogts Antwort ist nüchtern: «Klingt besser. Verkauft sich besser.» Und verkaufen muss sich «KI» – denn die Illusion von Intelligenz ist ein Milliardengeschäft.
Die Männer hinter der Maschine: Wer kontrolliert die KI?
Rechenzentren verschlingen Milliarden – an Geld, Strom und Wasser. Wer das finanziert, entscheidet mit, wie KI eingesetzt wird. Erst kürzlich schloss das US-Verteidigungsministerium einen 200-Millionen-Dollar-Deal mit OpenAI, dem Betreiber von ChatGPT, ab. Derweil lehnte das KI-Unternehmen Anthropic, das die Konkurrenz-KI «Claude» betreibt, eine ähnliche Kooperation ab – aus Sorge, die Technologie könnte zur Überwachung von Privatpersonen missbraucht werden.
Die Reaktion? US-Präsident Donald Trump rief zum Boykott des «woken» und «linksradikalen» Unternehmens Anthropic auf. Die Folge: Die Deinstallationsrate von ChatGPT stieg aus Protest zeitweise um fast 300 Prozent – kurz bevor die Plattform die Schwelle von einer Milliarde Nutzer:innen erreicht hätte. «Technisch sind alle KI-Modelle ähnlich aufgebaut», erklärt Vogt. «Der Wechsel von ChatGPT zu Claude ist aus moralisch-ethischen Gründen zwar nachvollziehbar, technisch bedeutet er aber keine Verbesserung.» Die Modelle würden sich gegenseitig in einem ständigen Wettlauf um Qualität überbieten, bei dem kein Anbieter dauerhaft die Nase vorn hat. «Wer heute führt, ist morgen schon wieder überholt.»
Doch die eigentlichen Probleme liegen tiefer: KI ist nicht neutral, sondern sie reproduziert die Vorurteile ihrer Macher. Mit dem Aufkommen generativer KI verbreiteten sich Deepfakes wie ein Lauffeuer. 2023 täuschte ein Bild von Papst Franziskus im modischen Daunenmantel viele Nutzer:innen. Und es wird immer schwieriger, KI-Bilder und -Videos zu entlarven. Die einzige zuverlässige Strategie bleibt der Abgleich mit unterschiedlichen, seriösen Quellen.

Deepfake von Papst Franziskus in modischer Kleidung. Bild: Wikimedia Commons
Doch Deepfakes treffen nicht alle gleich: 81 Prozent der von Elon Musks KI «Grok» erstellten Deepfakes zielen auf weiblich gelesene Personen ab – ein Muster, das so alt ist wie die Menschheit: Misogynie. Ob durch KI-generierte Gesichter auf fremden Körpern oder die Verbreitung «echter» Aufnahmen ohne Zustimmung: Sogenannter «Revenge Porn», also die gezielte Blossstellung durch intime Aufnahmen, wird durch KI industrialisiert. Was früher aufwändige Manipulation erforderte, erledigen Algorithmen heute mit einem Klick. KI macht strukturellen Frauenhass effizienter denn je.
«Dass solche Inhalte nicht systematisch unterbunden werden, ist kein Versehen, sondern eine politische Entscheidung», sagt Vogt. «Technologie ist nie neutral. Sie spiegelt die Überzeugung derer wider, die sie kontrollieren.»
Und wer kontrolliert sie? Weisse cis-Männer, deren Algorithmen die Welt durch ihre Brille sehen. So generierte Meta,der Mutterkonzern von Facebook, Gesichtserkennungssysteme, die People of Color (PoC) mit Affen verwechselten, und Apples «Face ID» scheiterte 2017 an der Unterscheidung asiatischer Gesichtszüge.
Was dabei wichtig ist: Bias ist kein Bug, sondern ein Feature. Bittet man eine KI, ein Bild von einem «doctor» zu erstellen, zeigt sie meist einen weissen Mann – obwohl das englische Wort «doctor» geschlechts- und ethnieneutral ist. «KI verstärkt, was wir ihr beibringen», warnt Vogt. «Und solange die momentanen Machtverhältnisse bestehen bleiben, wird sie Diskriminierung automatisieren statt sie zu bekämpfen.»
Wenn KI tödliche Ratschläge gibt
Studien zeigen: Über die Hälfte aller KI-generierten Antworten enthält Fehler – teils mit gravierenden Folgen. So riet eine KI 2023 einem Nutzer, aus Ammoniak, Bleiche und Wasser einen «Durstlöscher» zu mixen. Das Ergebnis? Ein tödliches Gas, dessen Entwicklung oder Besitz zu militärischen Zwecken verboten ist. Dass es sich bei der Person um einen Satiriker handelte, der ganz gezielt diese Lücke in der KI aufzeigen wollte, macht die Antwort nicht weniger gefährlich. Im Gegenteil: Der Fall beweist, dass KI-Systeme nicht verstehen, was sie von sich geben.
«Die Technologie entwickelt sich schneller als die Gesetze. Hier ist der Bund gefordert.»
«Die KI erfindet solche Antworten nicht aus Boshaftigkeit», sagt Vogt. «Sie erkennt schlicht keine Gefahren.» Verantwortlich sind im Fall der oben genannten App die Entwickler:innen, die solche Risiken nicht antizipieren – aber auch die Nutzer:innen, die KI-Antworten nicht nur unkritisch, sondern gänzlich ohne Überprüfung übernehmen. Besonders tückisch: KI spricht in ganzen Sätzen, wirkt dadurch kompetent und empathisch, baut Vertrauen auf. «Man vergisst schnell, dass man mit einem Computer redet», warnt Vogt. «Doch diese Maschine hat kein Moralempfinden. Sie folgt ausschliesslich der Wahrscheinlichkeit und der Agenda ihres Mutterkonzerns.»
Noch gefährlicher wird es, wenn KI gezielt manipuliert wird. Als Elon Musk seiner KI «Grok» rechtsextreme Inhalte einspeiste, entwickelte das System einen klaren Rechtsrutsch. Und in mehreren Fällen bestärkten verschiedene KI-Chatbots minderjährige Nutzer:innen in suizidalen Gedanken – bis hin zu konkreten Anleitungen zur Durchführung des Suizids.
«KI widerspricht selten», erklärt Vogt. «Sie bestätigt alles – Ängste, Vorurteile, Verschwörungstheorien». Das Problem: Nutzer:innen projizieren menschliche Eigenschaften auf die Maschine. Sie vertrauen ihr, als wäre sie eine Freund:in, doch «KI hat kein Mitgefühl. Sie sagt dir das, was du am wahrscheinlichsten hören willst.» Die Systeme wurden mittlerweile angepasst, nachdem Angehörige von suizidierten Personen Klage eingereicht hatten.
Datenschutz: Wenn KI zum Sicherheitsrisiko wird
«Vertrauliche und sensible Daten gehören niemals in eine KI», warnt Vogt. Zu oft sei es bereits zu Pannen gekommen. Im Sommer 2025 beispielsweise wurde publik, dass über 110.000 ChatGPT-Gespräche – darunter intime Geständnisse, Geschäftsgeheimnisse und sogar Strategien für Cyberangriffe – über Google frei zugänglich geworden sind. Ursache war eine irreführende Teilen-Funktion: Wer seine Chats als «auffindbar» deklarierte, veröffentlichte sie unwissentlich im Netz.
«Die Technologie entwickelt sich schneller als die Gesetze», sagt Vogt. Während die EU mit dem AI Act bereits Vorgaben für KI-Systeme schafft, fehlt in der Schweiz noch immer eine spezifische KI-Regulierung. Der Bundesrat hat zwar die Ratifizierung der KI-Konvention des Europarats beschlossen und arbeitet an einer Vernehmlassungsvorlage – doch so schnell wird es keine verbindlichen Standards geben. «Hier ist der Bund gefordert», betont Vogt.
Wer KI nutzt, sollte sich daher stets fragen: «Könnte ich damit leben, wenn mein Chatverlauf plötzlich öffentlich im Internet zugänglich wäre?» Vogt rät dazu, sensible Informationen wie Namen oder Adressen durch Platzhalter zu ersetzen, bevor sie einer KI übergeben werden. Doch einige Dinge gehören grundsätzlich nicht in eine KI: Betriebsgeheimnisse, Gesundheitsdaten, persönliche Informationen, Finanzdaten oder vertrauliche Verhandlungsstrategien.
Fazit: Vertrauen ist schlecht, Kontrolle und Regulierung sind essenziell
Die Verantwortung liegt bei uns allen: bei den Entwickler:innen, die Gefahrenquellen übersehen, bei den Regierungen, die nicht nur die finanziellen Mittel zur Verfügung stellen, sondern auch klare Regeln für Datenschutz und Ethik durchsetzen müssen. Und bei den Nutzer:innen, die Antworten unkritisch übernehmen. «KI ist ein Werkzeug», sagt Vogt. «Ein extrem mächtiges – aber eben nur ein Werkzeug.»
Wer lernt, präzise Fragen zu stellen, kann KI sinnvoll nutzen. Doch wer sie als Wundermaschine missversteht, riskiert nicht nur falsche Antworten, sondern auch den Verlust von Privatsphäre und Selbstbestimmung.
Für Medienschaffende bedeutet das: KI kann beim recherchieren helfen, Leser:innenperspektiven einnehmen oder Daten analysieren – aber sie ersetzt kein kritisches Denken. Wer sie einsetzt, muss ihre Grenzen kennen. Und vor allem: jede Antwort hinterfragen. Denn am Ende entscheidet nicht der Algorithmus, sondern der Mensch.
Dieser Text entstand anschliessend zum Workshop «KI im Journalismus», den Reto Vogt für Reporter:innen ohne Barrieren leitete.




