Wenn der Chatbot Quatsch erzählt – wer ist dann schuld?
KI im Alltag – genial, aber nicht ohne Risiko
ChatGPT hier, Support-Bot da – KI ist längst in vielen Unternehmen angekommen. Sie übernimmt den Kundensupport, beantwortet Anfragen rund um die Uhr und gibt sogar technische Tipps. Klingt super, oder?
Aber was passiert, wenn der Bot plötzlich Quatsch erzählt? Wenn er falsche Infos raushaut, Kundendaten falsch verarbeitet oder einfach mal danebenliegt?
Kurz gesagt: Dann stehst du als Betreiber in der Verantwortung.
Chatbot = dein Werkzeug. Verantwortung = bei dir.
Auch wenn ein Chatbot auf künstlicher Intelligenz basiert und beeindruckend selbstständig antwortet – er ist und bleibt ein Werkzeug in deinem Unternehmen. Und alles, was er von sich gibt, wird dir zugerechnet. Rechtlich gibt es da keine Ausflüchte.
Beispiele gefällig?
-
Der Bot gibt einen falschen Preis aus → Kunde bestellt → du haftest.
-
Er speichert Daten ohne Einwilligung → Datenschutzverstoß → Bußgeld.
-
Er beeinflusst Bewerbungsverfahren oder Prüfungen → Hochrisiko-KI → Schulungspflicht!
Und jetzt wird’s spannend: Die EU-KI-Verordnung greift schon – teilweise.
Viele denken: „Ach, die KI-Verordnung kommt doch erst 2026.“
Falsch gedacht. Ein Teil davon ist schon in Kraft – und betrifft dich vielleicht schon jetzt.
Artikel 4: Schulungspflicht seit Mai 2025
Was viele übersehen: Artikel 4 der EU-KI-Verordnung ist bereits seit Mai 2025 verbindlich. Und der hat es in sich. Da steht nämlich drin:
Alle Nutzer von Hochrisiko-KI-Systemen müssen dafür sorgen, dass ihr Personal angemessen geschult ist.
Das bedeutet:
-
Du musst deine Mitarbeitenden fit machen im Umgang mit dem System.
-
Sie müssen wissen, wie die KI funktioniert – aber auch, wo ihre Grenzen liegen.
-
Und sie müssen verstehen, was sie dürfen – und was nicht.
Was zählt als Hochrisiko-KI?
Hier ein paar typische Beispiele:
-
Chatbots, die in Bewerbungsverfahren eingesetzt werden.
-
Systeme, die Schulungen bewerten oder Zertifikate ausstellen.
-
KI, die sicherheitsrelevante Entscheidungen trifft (z. B. im Maschinenumfeld).
-
Digitale Assistenten, die Mitarbeitende oder Kunden beraten.
Wenn du also z. B. in der Weiterbildung tätig bist (wie wir bei der Peiffer Academy), dann betrifft dich das ziemlich sicher.
Und wer haftet, wenn’s schiefgeht?
Kurz und knapp:
-
Du.
-
Nicht die KI.
-
Nicht der Hersteller.
-
Auch nicht „die Technik“.
Du bist verantwortlich für:
-
Falsche Antworten,
-
Datenschutzverstöße,
-
Irreführende Informationen,
-
Fehlentscheidungen aufgrund der KI.
Was solltest du jetzt tun?
1. Kennzeichne deinen Bot klar als KI.
Der Nutzer muss wissen: „Ich spreche nicht mit einem Menschen.“
2. Begrenze, was dein Chatbot darf.
Keine freien Internetsuchen. Keine „Ich denke mal“-Antworten. Nur geprüfte Inhalte.
3. Bau eine Notbremse ein.
Bei komplexen Fragen → „Bitte wenden Sie sich an unser Team.“
4. Protokolliere die Antworten.
Falls später Fragen auftauchen, kannst du belegen, was passiert ist.
5. Schule dein Team. Jetzt.
Denn Artikel 4 ist nicht optional. Die Schulungspflicht gilt schon.
Fazit: KI ist kein Spielzeug. Aber richtig eingesetzt ein echter Gamechanger.
Ein Chatbot kann dir den Alltag erleichtern, Prozesse beschleunigen und sogar Geld sparen. Aber: Er ist nicht fehlerfrei. Und er denkt nicht mit.
Die Verantwortung liegt bei dir – und die beginnt mit Wissen.
Peiffer Academy hilft dir dabei.
Du willst deinen Chatbot sicher einsetzen?
Du brauchst eine rechtssichere Schulung für dein Team?
Oder einfach jemanden, der dir sagt, ob du überhaupt in die Schulungspflicht fällst?
Dann melde dich bei uns.
Wir machen dich fit für die neue KI-Welt – praxisnah, verständlich und ohne Juristenkauderwelsch.