Was genau sind „Soundalike-Stimmen“?
Eine sogenannte „Soundalike-Stimme“ ist eine mittels künstlicher Intelligenz erzeugte Stimme, die der Stimme einer realen Person verblüffend ähnlich klingt. So ähnlich, dass Zuhörer oft nicht unterscheiden können, ob tatsächlich die echte Person spricht oder nicht.
Im konkreten Fall, der vom LG Berlin entschieden wurde, nutzte ein YouTuber eine solche KI-generierte Stimme, die fast identisch mit der eines bekannten Synchronsprechers war. Diese Stimme wurde in mehreren politischen Videos verwendet, die auf einem monetarisierten YouTube-Kanal mit angeschlossenem Shop veröffentlicht wurden – allerdings ohne Zustimmung des betroffenen Sprechers.
Für Sie als Unternehmer gilt daher: Es spielt juristisch keine Rolle, ob eine reale Person eine Stimme imitiert oder ob eine KI dahintersteht. Entscheidend ist allein, ob Ihr Publikum glauben könnte, die Person selbst spreche tatsächlich.
Der rechtliche Schutz der Stimme als Persönlichkeitsrecht
Stimme als Bestandteil des Allgemeinen Persönlichkeitsrechts
Das sogenannte „Allgemeine Persönlichkeitsrecht“ (APR) schützt die individuelle Identität eines Menschen. Dazu gehören nicht nur offensichtliche Merkmale wie Name oder Bild, sondern auch die Stimme einer Person. Gerichte erkennen inzwischen die Stimme klar als eigenständiges Merkmal der Persönlichkeit an, dessen Schutz genauso ernst genommen werden muss wie andere Persönlichkeitsmerkmale.
Das LG Berlin II hat diese Schutzlinie nun ausdrücklich auf KI-generierte Stimmen angewendet. Das bedeutet, dass Unternehmen genauso sorgsam mit künstlich erzeugten Stimm-Imitationen umgehen müssen wie mit tatsächlichen Audio-Aufnahmen realer Personen.
Die wirtschaftliche Dimension einer Stimme
Gerade bei bekannten Persönlichkeiten kann die Stimme einen erheblichen wirtschaftlichen Wert darstellen. Viele Prominente nutzen ihre Stimme gezielt kommerziell, beispielsweise in Werbung oder für Synchronisationen. Daher betrachten Gerichte die Stimme regelmäßig auch als wirtschaftlich relevantes Recht.
Nutzen Unternehmen eine bekannte Stimme ohne entsprechende Erlaubnis, droht ein Anspruch auf eine sogenannte „fiktive Lizenz“. Das bedeutet: Das Unternehmen muss nachträglich das zahlen, was normalerweise für eine ordentliche Lizenzvereinbarung fällig geworden wäre. Diese Praxis wurde bereits 2021 vom Bundesgerichtshof (BGH, I ZR 120/19) bestätigt, etwa im bekannten „Clickbaiting“-Urteil, in dem Prominente ungefragt für Werbung eingesetzt wurden.
Im aktuellen Fall setzte das LG Berlin II die fiktive Lizenz auf 2.000 Euro je Video an, was sich im Ergebnis auf insgesamt 4.000 Euro belief.
Stimme als biometrisches Datum und Datenschutz
Nach der Datenschutz-Grundverordnung (DSGVO) gelten biometrische Daten, die eine Person eindeutig identifizierbar machen, als besonders schutzwürdig. Dazu zählen inzwischen auch Stimmprofile („Voiceprints“). Deshalb ist bei der Verwendung solcher Daten, beispielsweise beim Einsatz von KI zur Nachahmung von Stimmen, besondere Vorsicht geboten. Üblicherweise ist hierfür eine ausdrückliche Einwilligung der betroffenen Person erforderlich.
Für Ihr Unternehmen bedeutet das konkret: Beim Voice-Cloning müssen Sie sowohl die Persönlichkeitsrechte der betroffenen Person als auch die strengen datenschutzrechtlichen Vorgaben berücksichtigen. Ein Verstoß kann empfindliche Bußgelder nach sich ziehen und Ihre Reputation erheblich schädigen.
Neue Transparenzpflichten durch die EU-KI-Verordnung
Mit der neuen EU-KI-Verordnung (Verordnung (EU) 2024/1689) kommen weitere Anforderungen auf Unternehmen zu. Diese Vorschriften, insbesondere Artikel 50 der KI-Verordnung, sehen ab dem 02.08.2026 eine klare Kennzeichnungspflicht für KI-generierte Inhalte vor. Unternehmen müssen dann deutlich machen, dass bestimmte Stimmen, Bilder oder Videos nicht echt, sondern künstlich erzeugt wurden.
Im Berliner Fall hatte der YouTuber eine solche Kennzeichnung überhaupt nicht vorgenommen. Zukünftig wäre dies zusätzlich zur Verletzung der Persönlichkeitsrechte ein klarer Verstoß gegen europäische Regelungen gewesen, was weitere rechtliche Folgen nach sich ziehen könnte.
Zusammenfassung des Urteils LG Berlin II (2 O 202/24)
Das Gericht stellte fest, dass der YouTuber mit der Nutzung der KI-generierten Stimme eindeutig das Persönlichkeitsrecht des Synchronsprechers verletzte. Die Verwendung der Stimme auf einem wirtschaftlich betriebenen YouTube-Kanal ohne Zustimmung führte zur Festsetzung einer fiktiven Lizenzgebühr von 4.000 Euro. Das Urteil verdeutlicht, dass auch satirische Inhalte keinen uneingeschränkten Freiraum bieten, wenn sie vorrangig kommerziellen Zwecken dienen.
Praktische Empfehlungen für Unternehmen
Unternehmen sollten sich insbesondere bewusst sein, dass jede Verwendung einer Stimme, die einer bekannten Person eindeutig zugeordnet werden kann, kritisch geprüft werden muss. Wichtig ist dabei:
Eine ausdrückliche schriftliche Einwilligung der betreffenden Person einzuholen.
Inhalte transparent als KI-generiert zu kennzeichnen (ab dem 02.08.2026 verpflichtend).
Datenschutzrechtliche Grundlagen klarzustellen und entsprechende Einwilligungen einzuholen.
Vertragsklauseln hinsichtlich der Nutzung und Weiterverwendung von Audio-Daten sorgfältig auszugestalten.
Mitarbeiter regelmäßig zu schulen und klare interne Richtlinien zu etablieren, um rechtliche Risiken zu minimieren.
Bewertung und Optionen für Unternehmen
Unternehmen sollten das Berliner Urteil als Weckruf verstehen: Unbefugte Nutzung von KI-generierten Stimmen birgt erhebliche rechtliche und finanzielle Risiken. Um dies zu vermeiden, sollten bestehende Inhalte sorgfältig geprüft und zukünftige Projekte klar vertraglich geregelt und systematisch dokumentiert werden.
Häufige Fragen (FAQ)
In der Regel nein. Entscheidend ist nicht der Name, sondern die Wiedererkennbarkeit. Sobald ein relevanter Teil des Publikums die Stimme einer bestimmten Person zuordnet, wird deren Allgemeines Persönlichkeitsrecht berührt. Das LG Berlin II stellt ausdrücklich darauf ab, dass Zuschauer in Kommentaren die echte Person erkannten. Name weglassen hilft daher meist nicht.
Die Kennzeichnung als KI-Stimme ist unter der EU-KI-Verordnung ab dem 02.08.2026 Pflicht, löst aber das Persönlichkeitsproblem nicht. Wenn die Stimme klar einer realen Person zugeordnet werden kann und keine Einwilligung vorliegt, bleibt die Nutzung in der Regel unzulässig – auch mit transparentem Hinweis. Kennzeichnung ist Compliance-Basis, keine Freikarte.
Die Gerichte berechnen Schadensersatz häufig über eine fiktive Lizenz: Was hätte die Nutzung gekostet, wenn man sie ordnungsgemäß gebucht hätte? Im Berliner Urteil ging es um 2.000 € je Video, insgesamt 4.000 €. Bei sehr prominenten Stimmen, großen Kampagnen oder wiederholter Nutzung können die Beträge deutlich höher ausfallen.
Nein. Satire und Meinungsfreiheit sind wichtig, aber sie rechtfertigen nicht automatisch jede Nutzung einer prominenten Stimme. Nach LG Berlin II kommt es darauf an, ob die Stimme für die inhaltliche Auseinandersetzung wirklich erforderlich ist – oder nur als „Reichweiten-Booster" dient. Kommerzielle oder werbliche Nutzung wird besonders streng gesehen.
Solange KI-Stimmen ausschließlich intern getestet werden, nicht veröffentlicht werden und eine saubere datenschutzrechtliche Grundlage (z. B. Einwilligung oder anonymisierte Daten) vorliegt, ist das Risiko geringer. Sobald Inhalte nach außen gehen oder aus Tests „schnell eine Kampagne" wird, greifen die vollen Maßstäbe des Persönlichkeitsrechts und der DSGVO. Die Grenze zwischen intern und extern sollte klar definiert sein.
Verträge helfen, aber lösen nicht alles. Ein Sprecher kann Nutzungsrechte an seiner Stimme einräumen, etwa für bestimmte Medien, Zeiträume oder KI-Trainingszwecke. Diese Rechte müssen aber klar, transparent und fair vereinbart sein. Vollständige „Total-Buy-Outs" ohne klare Grenzen sind riskant und können ggf. als überraschend oder unangemessen bewertet werden. Saubere Vertragsgestaltung ist entscheidend.
Nicht alles, aber vieles wird transparenter werden müssen. Wer KI für Bilder, Videos oder Stimmen nutzt, sollte ab 02.08.2026 systematisch kennzeichnen, welche Inhalte KI-generiert oder -manipuliert sind. Das betrifft Prozesse, Templates, Tools und Schulungen. Sinnvoll ist, diese Vorgaben mit bestehenden Datenschutz- und Medienrechtsprozessen zu verzahnen, statt eine zusätzliche Parallelwelt zu schaffen.
In der Praxis haften regelmäßig sowohl die Agentur als auch das Unternehmen. Die Agentur oder Produktionsfirma ist in der Regel „Täterin", weil sie die Inhalte konkret erstellt. Das Unternehmen haftet häufig mit, weil es die Veröffentlichung veranlasst und von ihr profitiert. Vertragliche Freistellungsklauseln können die Haftung intern verlagern, ändern aber nichts daran, dass sich die betroffene Person aussuchen kann, wen sie in Anspruch nimmt.
Im Fokus steht eine Gesamtschau von Indizien: Hörvergleiche zwischen Originalaufnahmen und KI-Stimme, ggf. unterstützt durch ein sachverständiges phonetisches Gutachten, sind zentral. Hinzu kommen Dokumente aus dem Projekt (Briefings, E-Mails, Prompts wie „klingt wie XY"), Kommentare von Nutzerinnen und Nutzern („Das ist doch Stimme XY!") und technische Logs der verwendeten Tools. Je konsequenter Sie Projekte dokumentieren, desto besser sind Sie im Streitfall aufgestellt.
In vielen Fällen ja. Maßgeblich ist, ob sich die Inhalte erkennbar auch an ein deutsches Publikum richten (Sprache, Zielmarkt, Werbeausrichtung) und ob die Persönlichkeitsrechtsverletzung in Deutschland eintritt. Dann können deutsche Gerichte zuständig sein und deutsches Recht anwenden, selbst wenn Produktion und Hosting im Ausland stattfinden. Reine Auslandskampagnen ohne ersichtlichen Deutschlandbezug sind anders zu bewerten, sollten aber im Einzelfall geprüft werden.
Zunächst sollten Sie eine Bestandsaufnahme machen: Welche Inhalte, auf welchen Kanälen, mit welcher Reichweite? Bei erkennbarer Nähe zu realen Personen ist es oft sinnvoll, die Inhalte vorübergehend offline zu nehmen, bis eine rechtliche Bewertung erfolgt ist. Im Ergebnis kommen Depublizierung, Nachlizenzierung, Neu-Schnitt mit anderer Stimme oder – ab 02.08.2026 – zumindest klare Kennzeichnung infrage. Wichtig ist, Entscheidungen zu dokumentieren und künftige Produktionen anzupassen.
Medienhaftpflicht- oder Vermögensschaden-Haftpflichtversicherungen können Persönlichkeitsrechtsverletzungen grundsätzlich erfassen, oft aber mit Einschränkungen und Ausschlüssen (etwa bei Vorsatz oder bekannten Risiken). Es lohnt sich, bestehende Policen konkret auf KI- und Persönlichkeitsrechtsrisiken prüfen zu lassen. Versicherungen ersetzen zudem nicht die eigene Compliance: Wer sehenden Auges Soundalikes einsetzt, kann sich im Schadenfall nicht darauf verlassen, dass der Versicherer widerspruchslos leistet.
Wesentlich ist, Ruhe zu bewahren und Fristen im Blick zu behalten. Unterschreiben Sie keine Unterlassungserklärung und geben Sie keine Stellungnahme ab, bevor der Fall geprüft wurde. Sichern Sie sämtliche relevanten Inhalte und Kommunikationsverläufe (Briefings, Mails, Verträge), informieren Sie ggf. Ihren Versicherer und ziehen Sie spezialisierte rechtliche Beratung hinzu. Oft lässt sich über eine modifizierte Unterlassungserklärung und angepasste Inhalte eine wirtschaftlich sinnvolle Lösung finden.
Zunächst sollten Sie Beweise sichern: Aufzeichnungen, Screenshots, Links, Kommentare und Angaben zur Reichweite. Anschließend kommen außergerichtliche Abmahnungen mit Unterlassungs- und Lizenzforderungen in Betracht sowie – bei schwerwiegenden Fällen – gerichtliche Schritte. Parallel kann eine Beschwerde bei der Datenschutzaufsichtsbehörde sinnvoll sein, wenn Stimmprofile ohne Rechtsgrundlage verarbeitet wurden. Wichtig ist, zügig zu reagieren, da Inhalte sich schnell verbreiten und die Verhandlungsposition mit der Zeit schwächer werden kann.
Quellen & weiterführende Hinweise
LG Berlin II, Urteil vom 20.08.2025 – 2 O 202/24 (KI-Soundalike-Stimme eines Synchronsprechers)
Originalurteil und weiterführende Infos zum Fall.
https://openjur.de/u/2532836.htmlOLG Hamburg, Beschluss vom 08.05.1989 – 3 W 45/89 (Stimmenimitation Heinz Erhardt)
Grundsatzentscheidung zur unzulässigen Stimmenimitation prominenter Personen.
https://dejure.org/dienste/vernetzung/rechtsprechung?Gericht=OLG%20Hamburg&Datum=08.05.1989&Aktenzeichen=3%20W%2045%2F89BGH, Urteil vom 21.01.2021 – I ZR 120/19 („Clickbaiting“ – unzulässige Bildnutzung zu Werbezwecken)
Höchstrichterliches Urteil zur fiktiven Lizenz bei Persönlichkeitsrechtsverletzungen.
https://www.bundesgerichtshof.de/SharedDocs/Pressemitteilungen/DE/2021/2021013.htmlBundesnetzagentur – Deutscher Überblick zum Data Act
Kompakte Infos speziell für Deutschland, Stand 2025.
https://www.bundesnetzagentur.de/DE/Fachthemen/Digitales/DataAct/start.htmlVerordnung (EU) 2024/1689 über Künstliche Intelligenz (EU-KI-Verordnung), insbesondere Art. 50 (Transparenzpflichten)
Offizieller EU-Rechtstext zur KI-Verordnung, veröffentlicht am 16.05.2024.
https://eur-lex.europa.eu/eli/reg/2024/1689/ojDatenschutz-Grundverordnung (DSGVO) und EDPB-Leitlinien 02/2021 zu biometrischen Daten
DSGVO (EU 2016/679):
https://eur-lex.europa.eu/eli/reg/2016/679/oj
EDPB Leitlinien 02/2021: https://edpb.europa.eu/system/files/2021-05/edpb_guidelines_202102_biometricdata_de.pdf
Sprechen Sie mit uns, wenn Sie Verträge anpassen, Exportpfade festziehen oder einen Wechsel strukturiert vorbereiten möchten. Wir klären die rechtlichen Spielräume und verhandeln belastbare Regelungen.
ELBKANZLEI Fachanwälte stehen für:
- Kompetenz, Erfahrung, Präzision und Umsicht im IT-Recht.
- Feste Ansprechpartner pro Mandat.
- Leistungsstarke und zielgerichtete Mandatsbearbeitung.
- Faire, transparente Honorare.
Bei Bedarf hören wir gern von Ihnen.




