
Maschinen mit Rechten? Warum das Recht (noch) an den Menschen glaubt
Warum die Frage nach der Rechtspersönlichkeit von KI überhaupt relevant ist
Künstliche Intelligenz ist längst mehr als ein technologisches Schlagwort – sie trifft Entscheidungen, steuert Maschinen, generiert Inhalte, und verändert zunehmend Prozesse, die früher Menschen vorbehalten waren. Damit wird eine Frage aktuell, die lange der Science-Fiction vorbehalten war: Sollten autonome KI-Systeme oder Roboter rechtlich als eigene Subjekte – als juristische Personen – anerkannt werden?
Das ist keine rein philosophische Spielerei. Denn mit zunehmender Autonomie von KI-Systemen wird es schwieriger, Handlungen klar Menschen zuzurechnen. Wer haftet, wenn ein autonomes Fahrzeug einen Fehler macht, den niemand vorhersehen konnte? Oder wenn ein KI-System Verträge schliesst, ohne dass ein Mensch den konkreten Inhalt kennt?
Was ist eine juristische Person – und wie könnte KI dazugehören?
Das geltende Recht unterscheidet zwischen natürlichen Personen (Menschen) und juristischen Personen (z. B. Unternehmen oder Vereinen). Juristische Personen sind künstlich geschaffene Rechtssubjekte, die es ermöglichen, kollektive Interessen zu vertreten oder komplexe wirtschaftliche Aktivitäten zu strukturieren.
Das zeigt: Rechtspersönlichkeit ist nicht an biologische Merkmale gebunden, sondern kann durch gesetzliche Regelung geschaffen werden, wenn dies als funktional oder rechtspolitisch sinnvoll erscheint. In Einzelfällen wurde dieser Status auch auf nicht-menschliche Entitäten übertragen – etwa dem Whanganui-Fluss in Neuseeland, der durch Gesetz als juristische Person anerkannt wurde.
Ein anderer Weg wird in der Schweiz beschritten: Hier gelten Tiere seit einer Gesetzesreform von 2003 nicht mehr als Sachen, sondern als Rechtsobjekte eigener Art (Art. 641a ZGB). Obwohl sie keine Rechtspersönlichkeit besitzen und nicht klagefähig sind, anerkennt das Schweizer Recht damit ihren besonderen ethischen Status. Dies zeigt: Zwischenformen sind möglich – jenseits der klassischen Dichotomie von Person und Sache.
Daraus ergibt sich die Frage: Könnte auch eine künstliche Intelligenz Rechtssubjekt werden – also Trägerin von Rechten und Pflichten –, wenn sie dauerhaft autonom handelt und am Rechtsverkehr teilnimmt? Und: Welche rechtlichen und ethischen Konsequenzen hätte das?
Status quo: KI ist weltweit kein Rechtssubjekt
Derzeit wird nirgendwo auf der Welt KI als juristische Person anerkannt. Weder in der EU, noch in den USA, noch in China oder im Völkerrecht. Stattdessen gilt sie rechtlich als Produkt oder Werkzeug. Für Schäden, die durch KI verursacht werden, haften ihre Entwickler, Hersteller, Eigentümer oder Nutzer – nicht die KI selbst.
Dieses Modell funktioniert bisher, stösst aber an Grenzen, wenn Systeme so komplex und selbstlernend sind, dass menschliche Verantwortung schwer nachweisbar wird. Trotzdem ist der rechtliche Konsens klar: Keine eigene Rechtspersönlichkeit für KI, sondern stärkere Regulierung und Haftung der menschlichen Akteure.
Europa: Die gescheiterte Idee der „elektronischen Person“
Besonders intensiv wurde die Debatte in der EU geführt: 2017 schlug das Europäische Parlament vor, für fortgeschrittene autonome Systeme eine elektronische Person zu schaffen – vor allem, um Haftung zu klären.
Die Reaktion war heftig: Über 150 Expert:innen warnten in einem offenen Brief vor einer gefährlichen Fiktion, die nur dazu dienen könnte, menschliche Verantwortung zu verschleiern. Auch ethische Bedenken wurden laut: Maschinen könnten nicht Träger von Rechten oder moralischer Verantwortung sein.
Inzwischen hat sich die EU klar gegen diese Idee positioniert. Stattdessen setzt sie auf Regeln wie den AI Act, überarbeitete Produkthaftungsrichtlinien und die klare Zuweisung von Verantwortlichkeiten an Menschen und Unternehmen.
USA und China: Kein eigener Rechtsstatus für KI – aber unterschiedliche Wege im Umgang
Weder in den USA noch in China wird künstlicher Intelligenz ein eigener rechtlicher Status zugesprochen. In beiden Ländern gilt: Nur Menschen – oder von Menschen geschaffene juristische Personen – können Träger von Rechten und Pflichten sein. KI wird hingegen als Werkzeug betrachtet, das vom Menschen gesteuert und verantwortet wird. Jurist:innen sprechen in diesem Zusammenhang von einem „anthropozentrischen“ Rechtsverständnis – also einem Recht, das den Menschen ins Zentrum stellt.
In den USA erfolgt der Umgang mit KI hauptsächlich über bestehende Rechtskonzepte wie Produkthaftung, Vertragsrecht oder Fahrlässigkeit. Auch im Patentrecht ist die Linie klar: Nur Menschen können als Erfinder gelten – nicht KI-Systeme.
China folgt demselben Grundprinzip, geht aber deutlich regulativer vor. Die Verantwortung liegt auch hier klar beim Anbieter oder Nutzer der KI. Gleichzeitig schafft China rasch neue Regeln – etwa zu algorithmischen Empfehlungssystemen oder generativer KI. Ziel ist es, Risiken zu kontrollieren und klare Vorgaben für Unternehmen zu schaffen.
Rechtsphilosophische Perspektiven: Was macht eine Person im Recht aus?
In der Tiefe geht es um eine grundsätzliche Frage: Wer oder was kann überhaupt Rechtsträger sein?
Der klassische Ansatz sagt: Nur vernunftbegabte, moralisch urteilsfähige Wesen – also Menschen – oder von ihnen kontrollierte Konstrukte (z. B. Unternehmen) können Träger von Rechten und Pflichten sein.
Demgegenüber argumentieren einige Stimmen: Wenn Rechtspersönlichkeit eine nützliche Fiktion ist, könnte sie auch für KI genutzt werden – etwa, um klare Haftungsstrukturen zu schaffen oder KI-Systeme am Markt handeln zu lassen.
Ein Kompromissvorschlag lautet: Eine begrenzte, funktionale Rechtspersönlichkeit für besonders autonome KI – z. B. mit eigenem Haftungsfonds, ohne Bürgerrechte oder moralischen Status. Aber auch das ist juristisch und ethisch umstritten.
Ausblick: Kein KI-Status, aber mehr Regulierung
Kurz- und mittelfristig ist nicht davon auszugehen, dass KI den Status einer Rechtsperson erhält. Die Bedenken überwiegen – sowohl aus rechtlicher Perspektive (etwa wegen potenzieller Haftungslücken), als auch aus ethischer Sicht (wegen einer möglichen Verwässerung des menschenzentrierten Rechtsverständnisses) und gesellschaftlicher Perspektive (etwa mit Blick auf Vertrauen, Legitimation und Akzeptanz).
Stattdessen richtet sich der Fokus weltweit auf folgende Handlungsfelder:
- Haftungsregeln, die auch autonome Systeme rechtlich fassbar machen
- Versicherungspflichten, etwa zur Abdeckung von Schäden durch KI
- Technische Standards zur Sicherheit, Transparenz und Nachvollziehbarkeit
- Menschenzentrierte Kontrolle, etwa durch Governance-, Audit- und Transparenzmechanismen
Langfristig könnte sich diese Einschätzung ändern – etwa dann, wenn KI-Systeme tatsächlich bewusstseinsähnliche oder intentionale Eigenschaften entwickeln würden. In einem solchen Fall müsste das Recht neu über Subjektstatus, Verantwortung und Schutzwürdigkeit nachdenken – nicht nur funktional, sondern auch normativ.
Fazit
Die Diskussion um die juristische Identität künstlicher Intelligenz ist kein Randthema, sondern berührt das Fundament unserer Rechtsordnung. Zwar behandelt das Recht KI derzeit als Werkzeug – nicht als handelndes Subjekt. Doch je mehr Verantwortung Maschinen in realen Entscheidungsprozessen übernehmen, desto intensiver müssen wir über die Grenzen unserer rechtlichen Kategorien von Person, Verantwortung und Zurechnung nachdenken.
Diese Debatte ist kein technisches Detail – sie stellt eine der zentralen Zukunftsfragen im Zusammenspiel von Recht, Technologie und Gesellschaft dar.