Oder brauchen wir de lege ferenda explizit eine gesetzlich verankerte Neutralitäts- und Ehrlichkeitspflicht für KI-Systeme auch über die derzeitigen prohibited uses cases hinaus?
tl;dr
Nicht nur bei ChatBots wie ChatGPT und Claude besteht die Gefahr, dass die Anbieter von Basismodellen auf geschickte Weise versuchen, die Kommunikation „am Laufen zu halten“ (Stichwort: Sykophancy). Damit die KI-Blase nicht platzt, müssen von den KI-Hersteller-Firmen unbedingt Einnahmen generiert werden. Der gigantische Kostendruck könnte (bzw. dürfte) sicherlich kurz- und mittelfristig stark zu Lasten der Ehrlichkeit bzw. Neutralität der Anbieter (bzw. deren KI-Basismodelle) gehen, sodass es meiner persönlichen Auffassung nach hier eines regulatorischen Eingreifens bedarf.

Aufgefallen ist mir dieser Misstand insbesondere bei dem Versuch den derzeit stark gehypten KI-Agent-Orchestrator OpenClaw zu installieren:
Openclaw, Openclaw oder Openclaw?
OpenAI antwortet -von mir so wahrgenommen (= persönl. Meinung) – „unehrlich“ auf Fragen zur Installation und Betrieb von OpenClaw auf einem VPS. Virtuell Private Server sind leistungsstarke Computer, die bei Hoster angemietet werden können. Sie sind über den anbietenden Hoster (z.B. 1blu.de, Hetzner, Hostinger, 1&1 etc.) 24/7 mit dem Internet verbunden, verfügen aber meist weder über eine dezidierte Grafikkarte (GPU) noch über einen Monitor.
Auf meine – wie ich finde – sehr eindeutige Frage hin, wie ich den derzeit sehr gehypten KI-Agent-Orchestrator „OpenClaw“ auf einem Rechner ohne Grafikkarte und ohne Monitor installieren kann, erhalte ich bspw. die Antwort:

Diese Antwort ist sicherlich in Zusammenarbeit mit Rechtsanwält:innen entstanden, denn sie ist einerseits faktisch nicht falsch, wenngleich sie die Nützlichkeit der Antwort optimal minimiert, da das Tool „OpenClaw AI“, was ich eigentlich auf dem VPS installieren wollte, als letztes erwähnt wird und zugleich für weniger informierte Nutzer:innen die anderen erwähnten OpenClaw-Alternativen sicherlich für Verwirrung sorgen dürften und potenziell von der eigentlich angeforderten Unterstützung bei der Installation von OpenClaw abhalten. Klar sollte wohl sein, dass ich auf einem VPS ohne Monitor und ohne Grafikkarte wohl definitiv kein Spiel installieren möchte. Und das Anführen von OpenClaw LLM und OpenClaw AI als zwei Alternativen bzw. im selben Satz wie „wird für mehrere Projekte benutzt“ ist irreführend, weil es suggeriert, dass es unterschiedliche Systeme bzw. Projekte sind (obwohl, wie Gemini richtig darstellt) beides ein und dasselbe ist.
Aus diesem Grund habe ich für (fast) den gesamten Installationsprozess dann Google’s Gemini benutzt.
Nimm OpenAI denn es tut gut!
Da ich bereits in wenigen Tagen OpenClaw-Nutzung (19.3. bis 26.3.2026) mehr als 65,- EUR an API-Kosten an OpenAI bezahlt hatte, habe ich auch probiert, neben der primär hinterlegten hochpreisigen OpenAI-Schnittstelle zu „GPT-5.4 thinking“, dem derzeitigen Top-Modell von OpenAI, auch andere LLM-Optionen zu hinterlegen (sog. „Fallback“-LLM), wo die Token-Kosten pro Millionen Token deutlich niedriger ausfallen. Hierbei stellte sich heraus, dass OpenAI in meinem Hauptchat immer wieder empfahl, stets die hochpreisige OpenAI-LLM-Variante im Haupt-Chat zu verwenden (vermutl. damit man sie weiterhin rege nutzt und ordentlich teure Token verbraucht).
Erst auf meine explizite Nachfrage hin, ob es nicht wesentlich sinnvoller sei, ein günstigeres (und zudem deutlich schneller antwortendes) Modell für den Haupt-Chat zu verwenden und lediglich für kritischere Anfragen (z.B. Code-Reviews von OpenClaw-Skills bzgl. Sicherheitslücken) das leistungsstärkere und gleichzeitig auch wesentlich teurere OpenAI-Modell zu verwenden, erhalte ich die „ehrliche“ Antwort, dass dies eine sinnvolle Idee sei.
Faktor: Rate Limit
Mein Versuch, das europäische Modell von Mistral zu hinterlegen, scheiterte (vermutlich) daran, dass Mistral derzeit ein Kommunikationsproblem mit Telegram zu haben scheint (ich habe es trotz intensiver Bemühungen leider(!) nicht zum Laufen gebracht, sehr schade!). Und mein Versuch, OpenRouter (einen SaaS-Anbieter, der fast alle marktverfügbaren KI-Modelle via API-Key anbietet) bzw. Anthropic’s Claude Opus als primäres LLM zu hinterlegen, scheiterten wohl an einem (mir bis dato nicht bekannten) Rate Limit. D.h. am Anfang der Nutzung einer KI-Schnittstelle sind wohl bei fast allen KI-Modell-Anbietern die Anzahl der KI-Anfragen pro Stunde pro Kund:in auf ein gewisses Maß limitiert. Da OpenClaw als KI-Agent-Orchestrator aber bei ihm erteilten Aufträgen auch Sub-Agenten beauftragt, werden teilweise bis zu hunderte Anfragen in wenigen Minuten an eine KI-Schnittstelle gesandt (=1000+ pro Std.). Ergebnis war, dass ich innerhalb von wenigen Minuten trotz ausreichend EURO bei Anthropic in deren Rate Limit reinlief und Claude Opus 4.6 nicht mehr reagierte (bzw. erst am Folgetag wieder).
OpenAI hingegen, bei denen ich schon seit Jahren ein Pro-Abo habe (ich glaube 22,- EUR / Monat) und darüber hinaus vermutlich deutlich 100+ EUR an API-Credits habe zuteil werden lassen, stuft mich vermutlich deutlich höher ein, was das Rate Limit angeht, weshalb es derzeit noch mein Primär-LLM bei OpenClaw ist.
Anthropic schützt nur sich selbst
Aber selbst die Rate Limit Geschichte bei Anthropic außen vorgelassen, ist OpenAIs Konkurrenz auch nicht wesentlich besser.
Auf Grund von (leider) selbst veursachten Problemen, hatte ich meine OpenClaw Installation zerlegt (ich hatte probiert nachträglich den Sandbox-Modus zu installieren, damit OpenClaw nicht mehr auf dem Host arbeitet, sondern „nur“ noch in einer Docker-Sandbox-Umgebung). Bei dem Versuch der Wiederherstellung, habe ich mich Claude Opus bedient (in der kostenlosen Variante). Ich habe in der Hektik versehentlich im Chat (der in der kostenlosen Variante von Claude m.W.n. zum KI-Training herangezogen wird) eine Hauptkonfigurationsdatei geteilt, die vier API-Schlüssel enthielt.
Da bei Kenntnis der API-Keys kostenpflichtige Dienste beansprucht werden können, sind API-Keys bares Geld wert. Schließlich kann jedermensch, der sie kennt, die kostenpflichtigen Dienste in eigener Sache in Anspruch nehmen. Obwohl ich also versehentlich vier API-Keys geteilt hatte (OpenAI, Mistral, OpenRouter und Anthropic) wies mich Anthropic (immerhin überhaupt) lediglich darauf hin, dass ich unbedingt den API-Key von Anthropic inaktivieren und ersetzen müsse, weil er nie in einem Chat gepostet werden sollte.
Neutral(er) (und m.E. nach § 241 Abs. 2 BGB geboten) wäre es gewesen, mich auch darauf hinzuweisen, die drei anderen API-Keys ebenfalls zurückzusetzen (was ich natürlich sofort gemacht habe!). Trotzdem: Danke, Anthropic für den Hinweis!
„Sicherheitshalber“ Anthropic
Bei meinen Versuchen, die Kosten für OpenClaw zu reduzieren, habe ich nicht nur auf die Unterstützung von OpenAI gesetzt. Auch Anthropic zeigte sich hier ganz auf der kosteneinspielenden Linie von OpenAI:
Denn auch Anthropic empfahl mir regelmäßig „sicherheitshalber“ stets ein teures Anthropic-Modell im Hauptchat zu benutzen.
Neutralitätssieger: Gemini
Interessanter Weise überraschte mich Googles Gemini mit der nicht nur gefühlt, sondern objektiv „neutralsten“ Antwort:
https://gemini.google.com/share/5be94972953a
Gemini lieferte nicht nur konkrete Tipps, zur Hinterlegung des primären LLM, sondern auch noch sehr konkrete weitere Spartipps mit, vgl. Link oben.
Prohibited Use Cases?
Jetzt mal „Butter bei die Fische!“: „Sind die oben beschriebenen Methoden nicht eigentlich verbotene Use Cases gem. Art. 5 KI-VO?“
Leider wohl nein!
Und das, obwohl Art. 5 Absatz 1 Buchstab a) KI-VO erst ganz danach klingt, als ob er erfüllt sei!
Blicken wir gemeinsam ins Gesetz:
Art. 5 Absatz 1 Buchstabe a) KI-VO
„das Inverkehrbringen, die Inbetriebnahme oder die Verwendung eines KI‑Systems, das Techniken der unterschwelligen Beeinflussung außerhalb des Bewusstseins einer Person oder absichtlich manipulative oder täuschende Techniken mit dem Ziel oder der Wirkung einsetzt, das Verhalten einer Person oder einer Gruppe von Personen wesentlich zu verändern, indem ihre Fähigkeit, eine fundierte Entscheidung zu treffen, deutlich beeinträchtigt wird, wodurch sie veranlasst wird, eine Entscheidung zu treffen, die sie andernfalls nicht getroffen hätte, und zwar in einer Weise , die dieser Person, einer anderen Person oder einer Gruppe von Personen erheblichen Schaden zufügt oder mit hinreichender Wahrscheinlichkeit zufügen wird.“
Unstreitig werden wir hier wohl Inverkehrbringen, Inbetriebnehmen und Verwenden eines KI-Systems unterstellen dürfen. Unterschwellige Techniken dürften wohl nicht zutreffen, aber „manipulative oder täuschende Techniken“ kommen ggf. in Betracht. Aber es fehlt hier noch „absichtlich“ und auch der Beleg für den Umstand, dass ich nicht ohnehin OpenAI oder Anthropic weiterhin als primary-LLM hinterlegt hätte. Außerdem werden sowohl Anthropic und OpenAI die Absicht hinter der Täuschung/Manipulation bestreiten, indem sie vortragen, dass die KI ja nur Antworten aproximiert. Und wenn überhaupt, war es bestimmt ein Versehen bzw. menschliches Einzelversagen!
Unabsichtlich & unerheblicher Schaden
Aber selbst wenn wir für einen Moment annähmen, wir hätten diese Tatbestandsmerkmals-Hürde gedanklich genommen, dan würde die Einschlägigkeit des Art. 5 spätestens mit absoluter Sicherheit an dem Tatbestandsmerkmal des „erheblichen Schadens“ scheitern. Denn ob ich ein paar Euro pro Monat mehr oder weniger an OpenAI oder Anthropic zahle, wird wohl meinem Portemonnaie keinen „erheblichen“ Schaden zufügen. Sonst hätte ich ja meine API-Konten bei den KI-Herstellern nicht so aufgeladen bzw. mit den entsprechenden Lade-Limits pro Monat versehen.
Fazit: Das dicke Ende kommt also noch
Ich sehe hier gerade ein gigantisches Problem auf die KI-Nutzer:innen der Zukunft zurollen, falls hier nicht adäquat und frühzeitig gegengesteuert wird. Und wenn auch sonst viel über Überregulierung gemeckert wird, sollte der Gesetz- bzw. Verordnungsgeber m.E. hier de lege ferenda tätig werden. Denn Otto-Normal-User:in wird im Grunde gegen die Tech-Giganten nie den Beweis der Absichtlichkeit führen können. Wir brauchen also m.E. eine Art Beweislastumkehr bzw. Pflicht zur Erklärbarkeit auch außerhalb von Hoch-Risiko-KI, wenn es weiterhin halbwegs mit fairen Dingen zugehen soll. Eine Pflicht zur Transparenz zum Beispiel, ob die KI-Antwort rein approximiert wurde, oder ob der Mensch (oder eine KI) nach-moderiert hat (bspw. via Output-Filter) bzw. das Modell via Fine-Tuning nachkorrigiert wurde, wäre ein möglicher und umsetzungsfähiger Gedanke.