Künstliche Intelligenz wird zunehmend in Wirtschaft, Verwaltung und Alltag eingesetzt – und stellt das Strafrecht vor neue Fragen. Wer trägt die Verantwortung, wenn ein Algorithmus Fehler macht oder eine Straftat ermöglicht? Der Beitrag zeigt, weshalb die Haftung weiterhin beim Menschen liegt und welche Pflichten Entwickler, Betreiber und Unternehmen heute beachten müssen.
Künstliche Intelligenz verändert das Strafrecht: Wer haftet, wenn Algorithmen Fehler verursachen oder Straftaten ermöglichen? Dieser Beitrag erläutert, weshalb die Verantwortung weiterhin beim Menschen liegt – und welche Risiken daraus entstehen.
Wer trägt die Verantwortung, wenn Algorithmen Straftaten ermöglichen?
Künstliche Intelligenz prägt zunehmend unseren Alltag – von automatisierten Entscheidungssystemen über Chatbots bis hin zu selbstfahrenden Fahrzeugen. Doch was geschieht, wenn eine KI „falsch handelt”? Wer trägt die Haftung, wenn ein technisches System einen Schaden verursacht oder gar eine Straftat ermöglicht?
In diesem Beitrag untersuchen wir, wie das Strafrecht gegenwärtig mit Vorfällen durch KI umgeht, wer für fehlerhafte oder riskante Algorithmen zur Verantwortung gezogen werden kann und weshalb die Haftung weiterhin beim Menschen verbleibt.
Warum KI (bislang) nicht als strafbare Täterin angesehen werden kann
Nach geltender Rechtslage kann eine künstliche Intelligenz nicht als Täterin im strafrechtlichen Sinne angesehen werden. Das Strafrecht setzt Schuldfähigkeit, Einsicht und Willensbildung voraus – Eigenschaften, die Maschinen nicht besitzen. Strafrechtlich zur Verantwortung gezogen werden können demnach nur natürliche Personen, beispielsweise:
- Programmierer oder Entwickler, wenn sie fehlerhafte oder manipulierte Software erstellen
- Betreiber oder Anwender, die den Algorithmus einsetzen
- Unternehmensverantwortliche, die Kontrollpflichten vernachlässigen
- Endnutzer, sofern sie KI bewusst für rechtswidrige Zwecke nutzen
KI wird damit als Werkzeug des Menschen verstanden – nicht als eigenständiger Akteur. (Hinweis: Eine echte Unternehmensstrafe nach deutschem Recht existiert bislang nicht; in Betracht kommen jedoch Ahndungen nach dem OWiG, insbesondere § 30 OWiG.)
Haftung: Wann wird der Mensch für Handlungen einer KI verantwortlich?
Ob eine Person für Handlungen einer KI strafrechtlich haftet, richtet sich nach den konkreten Umständen des Einzelfalls. Maßgeblich ist, ob die Person das System gezielt zur Begehung einer Straftat eingesetzt, Pflichten verletzt oder Risiken fahrlässig außer Acht gelassen hat.
Beispiele aus der Praxis:
- Deepfakes und Fake-News-Bots: Verbreitet eine KI ehrverletzende Inhalte, haftet in der Regel der Betreiber oder Auftraggeber.
- Autonome Fahrzeuge: Bei einem Unfall wird geprüft, ob technische Überwachungspflichten verletzt wurden oder ob die Risiken vorhersehbar waren.
- Algorithmischer Handel: Verstößt eine KI gegen Marktregeln, kann der verantwortliche Finanzdienstleister oder der Entwickler zur Verantwortung gezogen werden.
Relevante Straftatbestände im Kontext Künstlicher Intelligenz
Bei KI-bezogenen Vorfällen kommen verschiedene Vorschriften in Betracht, zum Beispiel:
- § 263 StGB – Betrug (etwa bei automatisierten Täuschungssystemen)
- § 303a StGB – Datenveränderung
- § 202a StGB – Ausspähen von Daten
- §§ 186, 187 StGB – Üble Nachrede und Verleumdung durch KI-erzeugte Inhalte
- § 13 StGB – Strafbarkeit durch Unterlassen
- § 130 OWiG – Verletzung von Aufsichtspflichten in Unternehmen
Die strafrechtliche Haftung hängt somit stets davon ab, wer hinter der KI steht und welche Handlungen ihm rechtlich zugerechnet werden können.
KI als Instrument – nicht als Täter
Aus strafrechtlicher Sicht ist KI ein Instrument, vergleichbar mit einem Computer oder einem Fahrzeug. Wird sie fehlerhaft eingesetzt, dient sie als Mittel zur Begehung einer Straftat.
Besonders kritisch sind selbstlernende Systeme (Machine Learning), weil sie eigenständig Entscheidungen treffen. In der juristischen Diskussion ist umstritten, ob unvorhersehbare Fehlentscheidungen dem Verantwortlichen als Fahrlässigkeit oder als bedingter Vorsatz zuzurechnen sind.
Ermittlungsfragen und technische Herausforderungen
Die Aufklärung KI-bedingter Straftaten ist für Ermittlungsbehörden Neuland. Polizei und Justiz sehen sich mit komplexen Fragestellungen konfrontiert:
- Wer hat die Programmierung oder die Entscheidungsfindung beeinflusst?
- Lässt sich der technische Ablauf vollständig nachvollziehen und rekonstruieren?
- In welchem Umfang besteht tatsächlich menschliche Kontrolle?
- Sind digitale Beweismittel wie Protokolle oder Trainingsdaten vor Gericht verwertbar und belastbar?
Solche Ermittlungen machen zunehmend den Einsatz technisch spezialisierter Sachverständiger sowie eine interdisziplinäre Zusammenarbeit zwischen Juristen, Informatikern und IT-Forensikern erforderlich.
Verantwortung von Unternehmen und strafrechtliche Prävention
Insbesondere Unternehmen, die KI einsetzen oder entwickeln, sollten wirksame Compliance-Strukturen etablieren. Fehlende Kontrollen oder unklare Zuständigkeiten können rasch eine Aufsichtspflichtverletzung nach § 130 OWiG darstellen.
Empfehlenswert sind:
- eindeutige Zuständigkeiten für Entwicklung und Einsatz
- regelmäßige technische Audits
- rechtssichere Dokumentation der Funktionsweisen und Entscheidungsprozesse der KI
Nur so lässt sich vermeiden, dass Strafverfolgungsbehörden im Nachgang mangelhafte Überwachung oder organisatorisches Versagen vorwerfen.
Fazit: Die Verantwortung liegt (vorerst) weiterhin beim Menschen
Die Leistungsfähigkeit Künstlicher Intelligenz nimmt stetig zu – rechtlich gilt sie jedoch weiterhin als Werkzeug des Menschen. Ob Entwickler, Betreiber oder Anwender: Wer KI einsetzt, ist für die daraus entstehenden Folgen verantwortlich. Strafrechtlich maßgeblich sind insbesondere Vorsatz, Fahrlässigkeit und die Beachtung von Sorgfaltspflichten.
Die rechtlichen Risiken durch KI werden künftig weiter zunehmen – sei es bei Vorwürfen wegen Fahrlässigkeit, unterlassener Aufsicht oder unzulässiger Nutzung. Eine sachkundige Verteidigung ist in diesen Fällen unerlässlich. Kontaktieren Sie unsere Kanzlei im Strafrecht, wenn Sie rechtliche Unterstützung bei Fällen mit künstlicher Intelligenz benötigen.

