Wenn auf Plattformen wie TikTok Deepfake-Videos oder -Audios auftauchen, die ohne Einwilligung das Bild oder die Stimme einer Person verwenden – etwa um damit unerlaubt für ein Produkt zu werben – stellt sich die Frage nach der rechtlichen Verantwortlichkeit der Plattform. In Deutschland greift hier das allgemeine Persönlichkeitsrecht, insbesondere das Recht am eigenen Bild (und an der eigenen Stimme), sowie haftungsrechtliche Grundsätze für Internet-Plattformen. Auch europäische Vorgaben (z.B. aus der E-Commerce-Richtlinie und dem neuen Digital Services Act) spielen eine Rolle. Im Folgenden wird erläutert, welche Ansprüche Betroffene (etwa Influencer:innen, deren Identität missbraucht wird) geltend machen können und in welchem Umfang Plattformen wie TikTok haften.
Inhaltsverzeichnis
Persönlichkeitsrecht, Recht am eigenen Bild und Stimme
Die ungenehmigte Verwendung von Personenbildern oder Stimmen in Deepfakes verletzt das allgemeine Persönlichkeitsrecht der abgebildeten Person. Dieses Recht ist in Deutschland zwar nicht ausdrücklich gesetzlich normiert, aber es wird aus Art. 2 Abs. 1 i.V.m. Art. 1 Abs. 1 GG sowie Art. 8 Abs. 1 EMRK hergeleitet. Es umfasst ein Bündel von Einzelrechten, u.a. das Recht am eigenen Namen (§ 12 BGB), das Recht am eigenen Bild (gesetzlich konkretisiert im Kunsturhebergesetz (KUG)) und das Recht an der eigenen Stimme.
Recht am eigenen Bild: Nach §§ 22, 23 KUG dürfen Bildnisse einer Person grundsätzlich nur mit Einwilligung der abgebildeten Person veröffentlicht oder zu Werbezwecken benutzt werden. Ausnahmen (z.B. Bildnisse der Zeitgeschichte, Veranstaltungen etc., § 23 KUG) greifen hier regelmäßig nicht, da die Verwendung in Werbung keinerlei berechtigtes öffentliches Informationsinteresse darstellt, sondern primär kommerziell ist. Eine Person – auch wenn sie prominent oder Influencer:in ist – kann also selbst bestimmen, ob und wofür ihr Bildnis verwendet wird. Die Verbreitung ihres Bildes in einem Werbe-Deepfake ohne Zustimmung verletzt dieses Recht eindeutig und ist rechtswidrig.
Recht an der eigenen Stimme: Entsprechendes gilt für die Stimme. Auch sie ist als einzigartiges Persönlichkeitsmerkmal rechtlich geschützt. Es gibt zwar kein spezielles „Stimm-Gesetz“, doch haben Gerichte klargestellt, dass Stimmenimitationen ohne Einwilligung das Persönlichkeitsrecht verletzen können. Bereits 1989 untersagte etwa das OLG Hamburg, die markante Stimme des Komikers Heinz Erhardt für Werbung nachzuahmen, und der BGH hat im „Marlene-Dietrich“-Urteil 1999 bestätigt, dass Name, Bild und Stimme einer Person als erkennbare Identitätsmerkmale unter rechtlichem Schutz stehen. Die Stimme einer Person darf also ebenso wenig ohne Zustimmung in fremder Werbung genutzt werden wie ihr Bild.
Betroffene (z.B. Influencer) haben ein starkes Recht darauf, nicht ohne ihre Einwilligung in Bild oder Ton für Zwecke Dritter „vereinnahmt“ zu werden. Ein Deepfake-Werbevideo, das den Anschein erweckt, die Person unterstütze ein Produkt, ist eine schwere Persönlichkeitsrechtsverletzung. Neben dem ideellen Aspekt (Schutz vor Entstellung des öffentlichen Erscheinungsbildes) ist hier auch der kommerzielle Aspekt relevant: Prominente und Influencer finanzieren sich gerade durch kontrollierte Werbekooperationen – ein ungefragter Deepfake untergräbt diese selbstbestimmte kommerzielle Nutzung ihres Images.
Haftung der Plattform als „mittelbare Störerin“
Direkt verantwortlich für die Rechtsverletzung ist zunächst derjenige, der den Deepfake erstellt oder hochlädt. Die Plattform (etwa TikTok) ist nicht selbst Urheber des Inhalts. Nach deutschen und europäischen Vorschriften genießen Host-Provider grundsätzlich ein Haftungsprivileg, solange sie keine Kenntnis von der Rechtswidrigkeit der konkreten Inhalte haben. Sie müssen Inhalte vorab nicht generell filtern oder moderieren (sog. Keine allgemeine Prüfungspflicht). Dieses Prinzip ist in der E-Commerce-Richtlinie (2000/31/EG) und nun im Digital Services Act (DSA) verankert. Erst nach Hinweis auf einen rechtswidrigen Inhalt entfällt das Privileg für diesen Inhalt, und die Plattform muss reagieren (Notice-and-Takedown).
Kommt die Plattform ihrer Pflicht zur Entfernung nach Hinweis nicht nach oder lässt sie gleiche Verstöße immer wieder zu, kann sie selbst als „mittelbare Störerin“ in Anspruch genommen werden. Die sog. Störerhaftung nach § 1004 Abs. 1 S. 2 BGB (analog) i.V.m. § 823 Abs. 1 BGB greift, wenn jemand – ohne Täter oder Teilnehmer der ursprünglichen Tat zu sein – durch die Verletzung zumutbarer Prüfungs- und Handlungspflichten zur Aufrechterhaltung des rechtswidrigen Zustands beiträgt. Der Plattformbetreiber muss sich also zwar nicht jedes Nutzerverhalten zurechnen lassen, ist aber verantwortlich dafür, angemessen auf Rechtsverletzungen zu reagieren, sobald er davon konkret Kenntnis hat. In dem Moment der Kenntnis wandelt sich die vorherige Neutralität in eine Pflicht zum Handeln: Das Unternehmen darf die Rechtsverletzung nicht weiter fortbestehen lassen.
Nach konkreter Kenntnis (z.B. nachdem die betroffene Person einen Verstoß gemeldet, eine Abmahnung geschickt oder einstweilige Verfügung erwirkt hat) muss der Plattformbetreiber den betreffenden Inhalt unverzüglich löschen oder sperren. Unterlässt er dies, haftet er auf Unterlassung – und unter Umständen auch auf Schadensersatz – als Störer. Wichtig: Diese Kenntnis bezieht sich auf spezifische Rechtsverletzungen; eine allgemeine Überwachungspflicht aller Uploads besteht weiterhin nicht.
OLG Frankfurt (2018–2024): Pflichten nach Kenntnis – Löschen und Filtern
Die Frage, wie weit diese Pflichten nach Kenntnis gehen, hat die Rechtsprechung in den letzten Jahren präzisiert. Ein Meilenstein war das Urteil des Oberlandesgerichts Frankfurt am Main vom 25. Januar 2024 (Az. 16 U 65/22) im Fall Renate Künast (oft als „Künast II“ bezeichnet). Darin ging es zwar um ein diffamierendes Fake-Zitat auf Facebook, doch die Grundsätze sind allgemein und lassen sich auch auf Deepfakes übertragen.
Kernaussage des OLG: Wenn ein Host-Provider konkrete Kenntnis von einer Persönlichkeitsrechtsverletzung erlangt (hier: ein Fake-Post mit Bild und falschem Zitat), muss er sicherstellen, dass nicht nur dieser eine Post, sondern auch inhaltsgleiche Beiträge künftig nicht mehr veröffentlicht werden. Die bisher übliche Praxis vieler Plattformen – nur das konkret gemeldete Posting zu löschen und abzuwarten, ob eine Variante erneut gemeldet wird – greift zu kurz. Laut OLG Frankfurt begründet bereits der erstmalige Hinweis auf den Verstoß eine erweiterte Prüf- und Handlungspflicht: Das Unternehmen muss von sich aus tätig werden, um Wiederholungen desselben Rechtsverstoßes zu verhindern.
Im Künast-Fall hatte Facebook (Meta) den ersten gemeldeten Post zwar gelöscht, gleiche Memes tauchten aber wiederholt auf, jeweils leicht abgewandelt, und wurden von Meta erst nach erneuten Hinweisen gelöscht. Das OLG entschied, dass nach dem ersten Hinweis weitere Hinweise nicht mehr erforderlich sind. Die Plattform muss also proaktiv nach „kerngleichen“ Inhalten suchen und diese entfernen, ohne dass die Betroffene jedes Duplikat einzeln melden muss. Mit anderen Worten: Ein Hinweis genügt, um den Betreiber in die Pflicht zu nehmen, alle identischen oder sinngleichen Verstöße zu unterbinden.
Zur Konkretisierung führte das Gericht aus, was „sinngleich“ bedeutet: Technisch marginal veränderte, aber inhaltlich gleiche Posts – etwa derselbe Fake in anderer Aufmachung oder Auflösung – gelten als kerngleicher Inhalt. Solche Variationen (anderer Bildzuschnitt, Filter, geringfügig anderer Wortlaut) entbinden die Plattform nicht von der Pflicht, sie ebenfalls zu eliminieren. Entscheidend ist der Verstoß in seinem Kern, nicht die pixelgenaue Identität. Im Künast-Beispiel waren etwa Memes mit minimalen Änderungen (anderer Rand, zusätzliche Caption) dennoch als im Wesentlichen Wiederholungen anzusehen.
Das OLG stützte den Unterlassungsanspruch gegen die Plattform ausdrücklich auf das zivilrechtliche Persönlichkeitsrecht (als „sonstiges Recht“ i.S.d. § 823 Abs. 1 BGB). Zwar war Meta nicht Täter der Ehrverletzung, aber als Betreiber eben mittelbarer Störer. Rechtswidrig im Sinne dieser Störerhaftung wird das Verhalten der Plattform ab dem Zeitpunkt, wo sie trotz Kenntnis ihre zumutbaren Pflichten zur Verhinderung weiterer identischer Rechtsverletzungen verletzt. Das Gericht stellte klar, dass diese Pflichtenerweiterung nötig ist, um das allgemeine Persönlichkeitsrecht der betroffenen Person wirksam zu schützen – andernfalls liefe der Schutz ins Leere, weil immer neue Varianten online gestellt werden könnten (Stichwort „Whack-a-Mole“-Problem).
Ein wichtiger Aspekt ist die Zumutbarkeit solcher Maßnahmen für die Plattform. Hierzu verwies das OLG Frankfurt auf die Rechtsprechung des Europäischen Gerichtshofs: Danach ist es zulässig und großen Anbietern auch zuzumuten, automatisierte Filtertechnologien einzusetzen, um bekannte Rechtsverstöße aufzuspüren. Die EuGH-Entscheidung C‑18/18 (Glawischnig-Piesczek ./. Facebook) hatte bereits 2019 klargestellt, dass Gerichte Host-Providern aufgeben können, identische sowie sinngleiche rechtswidrige Inhalte aufzuspüren und zu entfernen, ohne hierdurch gegen das Verbot allgemeiner Überwachungspflichten zu verstoßen. Dem schließt sich das OLG an: Ein Konzern wie Meta mit eigener KI-Infrastruktur kann erwartet werden, technisch in der Lage zu sein, solche Dubletten zu erkennen und zu blockieren. Algorithmen dürfen also als erste Filterstufe dienen. Natürlich müssen Grenzfälle letztlich von Menschen geprüft werden, insbesondere wenn Algorithmen unscharfe Ergebnisse liefern – aber diese manuelle Nachkontrolle hält das Gericht für zumutbar und erforderlich, um den Sinngehalt eines Posts zu erfassen und Missgriffe der KI zu vermeiden.
Im Ergebnis hat das OLG Frankfurt in Künast II Meta dazu verurteilt, zukünftige gleichgelagerte Rechtsverletzungen auf der Plattform zu unterbinden, und zwar nicht nur wort- oder bildidentische, sondern auch kerngleiche Inhalte. Dieses Urteil wurde als Grundsatzentscheidung gefeiert: Es erweitert die Löschpflichten von sozialen Netzwerken deutlich und stärkt das Persönlichkeitsrecht Betroffener. (Anmerkung: Einen geltend gemachten Schadensersatz von 10.000 € für die Persönlichkeitsverletzung hat das OLG im Künast-Fall hingegen verneint – Plattformbetreiber haften in solchen Konstellationen also in erster Linie auf Unterlassung, nicht zwingend auf Geldentschädigung, solange sie nach Hinweis tätig werden. Bei gröblicher Pflichtverletzung oder Verzögerung käme ein Schadensersatzanspruch jedoch in Betracht.)
Ausblick: Das Künast-Urteil ist derzeit beim BGH anhängig. Interessanterweise hat der BGH das Verfahren ausgesetzt und dem EuGH vorgelegt (Rs. C-492/23), um höchstrichterlich klären zu lassen, inwieweit diese proaktive Filterpflicht mit europäischem Recht vereinbar ist bzw. geboten wird. Es bleibt abzuwarten, ob der EuGH die Linie bestätigt – die Tendenz der bisherigen Rechtsprechung spricht dafür, dass gezielte „Stay-Down“-Anordnungen (bezogen auf konkret benannte Rechtsverstöße) zulässig sind, solange sie verhältnismäßig bleiben.
Deepfake-Werbung: Anwendung der Grundsätze auf aktuelle Fälle
Die beschriebenen Grundsätze lassen sich eins zu eins auf Deepfake-Inhalte übertragen, insbesondere wenn diese zum Zweck der Werbung oder Irreführung verbreitet werden. Ein aktueller Fall vor dem OLG Frankfurt (Beschluss v. 04.03.2025, Az. 16 W 10/25) betraf genau ein solches Szenario: Ein Deepfake-Werbevideo zeigte den bekannten Arzt und TV-Moderator Dr. Eckart von Hirschhausen, als würde er ein dubioses Diätprodukt empfehlen – natürlich ohne sein Einverständnis. Das Video war eine komplette Fälschung, verletzte seine Persönlichkeitsrechte und täuschte zugleich die Verbraucher. Es wurde zunächst nach Meldung gelöscht, tauchte aber kurz darauf inhaltsgleich wieder auf, leicht modifiziert (andere Auflösung, Filter, minimal veränderter Schnitt).
Hier hat das OLG – in Konsequenz der Künast-Rechtsprechung – eindeutig zugunsten des Betroffenen entschieden: Die Plattform (Facebook in dem Fall) musste nicht nur den gemeldeten Deepfake entfernen, sondern auch dafür sorgen, dass alle sinngleichen Varianten dieses Videos gelöscht und künftig nicht wieder veröffentlicht werden. Meta hatte argumentiert, man bräuchte für jede neue Video-Version eine separate Meldung, doch das Gericht hat dem ausdrücklich widersprochen: Eine erneute Inkenntnissetzung war nicht erforderlich – nach dem ersten Hinweis musste die Plattform von sich aus tätig werden. Insbesondere sind auch leicht veränderte Versionen (andere Auflösung, Farbfilter, Hintergrundaudio etc.) erfasst, solange der inhaltliche Kern – nämlich die falsche Werbebotschaft mit dem Gesicht/der Stimme des Betroffenen – gleichbleibt. Das OLG definierte dies als „sinngleiche Verletzung“, was den erweiterten Unterlassungsanspruch auslöst.
Diese Entscheidung überträgt die Pflichten aus Künast II direkt auf Deepfake-Videos. Für die Praxis bedeutet das: Plattformen wie TikTok, Facebook, YouTube etc. können nach einer ersten Meldung eines rechtswidrigen Deepfake-Inhalts verpflichtet sein, ihr System so einzustellen, dass derselbe Unfug nicht immer wieder auftaucht. Sie müssen also proaktive Filter einsetzen – etwa Hash-Matching für Videos, Bilderkennungssoftware für gefälschte Gesichter oder Audio-Fingerprinting für Stimmen – um bereits bekannte Deepfakes mit identischem Inhalt beim erneuten Upload abzufangen. Bei großen Anbietern mit entsprechenden technischen Ressourcen ist das nach Ansicht der Gerichte auch zumutbar. Sollte eine Variation so verändert sein, dass sie nicht automatisch erkannt wird, verlangt die Rechtsprechung immerhin manuelle Prüfungen bereits hochgeladener Inhalte, sobald ein bestimmtes Muster bekannt ist. Damit wird verhindert, dass Täter durch minimale Änderungen das Verbot umgehen.
Für TikTok und ähnliche Video-Plattformen, die stark von viralen Clips leben, heißt das konkret: Wenn etwa ein/ eine Influencer:in einen Deepfake-Werbeclip meldet, in dem ihr Gesicht auf fremde Inhalte montiert wurde, muss die Plattform nicht nur diesen Clip löschen, sondern technisch sicherstellen, dass derselbe Fake (oder im Kern identische Fälschungen) nicht wieder auftauchen – notfalls durch Sperrung bestimmter Hash-Werte, Keywords oder andere Erkennungsmerkmale. Kommt die Plattform dem nicht nach und kursiert das beanstandete Deepfake weiterhin oder erneut, macht sie sich als mittelbare Störerin angreifbar. Gerichte könnten sie dann per (einstweiliger) Verfügung zwingen, entsprechende Filtermaßnahmen umzusetzen, und bei Zuwiderhandlung drohen Ordnungsgelder.
Weiterlesen:
Deepnudes – Was tun bei manipulierten pornografischen Inhalten?
Zivilrechtliche Ansprüche: Unterlassung, Löschung, Schadensersatz
Betroffene Personen – z.B. die influencer, deren Bild oder Stimme im Deepfake missbraucht wurde – haben verschiedene zivilrechtliche Ansprüche, um gegen solche Inhalte vorzugehen:
Unterlassungsanspruch: Zentrales Mittel ist der Anspruch auf Unterlassung weiterer Veröffentlichungen (§§ 823, 1004 BGB analog i.V.m. APR, bzw. § 22 KUG). Dieser erlaubt es, dem Störer gerichtlich zu verbieten, den rechtswidrigen Zustand fortzusetzen. Im Kontext von Plattformen bedeutet das ein Verbot, das konkrete Deepfake-Video und kerngleiche Inhalte weiter zu verbreiten. Ein solcher Unterlassungstitel kann auch zukünftige Uploads gleicher Machart erfassen – genau das hat das LG/OLG Frankfurt gegenüber Meta angeordnet. Praktisch wird der Unterlassungsanspruch oft zuerst durch eine Abmahnung geltend gemacht: Die Plattform soll eine strafbewehrte Unterlassungserklärung abgeben und so verbindlich zusagen, das beanstandete Deepfake und äquivalente Inhalte zu entfernen und nicht erneut zuzulassen. Weigert sich der Betreiber, kann der Betroffene beim Landgericht eine Einstweilige Verfügung oder Klage auf Unterlassung einreichen.
Löschungsanspruch (Beseitigung): Eng verbunden ist der Anspruch auf Löschung bzw. Entfernung bereits veröffentlichter Inhalte. Im Persönlichkeitsrecht wird dieser meist zusammen mit dem Unterlassungsanspruch geprüft (denn die Entfernung des bestehenden Posts ist Teil der Erfüllung des Unterlassungsgebots). Sobald die Rechtsverletzung angezeigt ist, muss der konkrete Deepfake gelöscht werden. Tut die Plattform das nicht umgehend freiwillig, kann man auch gerichtlich die Beseitigung verlangen. In der Praxis veranlassen allerdings die meisten großen Plattformen nach einer formellen Notice (oder spätestens nach einer gerichtlichen Verfügung) die Löschung, da sie sich sonst dem Vorwurf vorsätzlichen Handelns aussetzen würden.
Schadensersatzanspruch: Daneben kommt ein Anspruch auf Schadensersatz in Betracht (§ 823 Abs. 1 BGB i.V.m. APR, § 249 BGB). Dieser kann einerseits einen immateriellen Ausgleich für die Persönlichkeitsverletzung umfassen (sog. Geldentschädigung bei schwerwiegenden Eingriffen) und andererseits materielle Schäden bzw. Lizenzentschädigungen. Gerade bei Werbung mit dem Bild einer Person ohne Erlaubnis wird häufig der fiktive Lizenzwert als Schaden geltend gemacht – also die Summe, die der Verletzer hätte zahlen müssen, wenn er eine Lizenz zur Nutzung des Bildes eingeholt hätte. Influencer:innen verdienen ihr Geld mit solchen Werbelizenzen; wird ihre Identität unberechtigt genutzt, liegt es nahe, zumindest den üblichen Marktwert als Schaden anzusetzen. So etwas ist in der Vergangenheit z.B. bei unerlaubter Prominenten-Werbung zugesprochen worden. Im Bereich von Deepfakes ist die Rechtsdurchsetzung hier aber komplizierter: Der primäre Schädiger (der Uploader/Ersteller des Deepfakes) ist oft anonym oder insolvent, und die Plattformen konnten sich in der Vergangenheit auf ihre Haftungsprivilegien berufen. Im Künast-Fall wurde, wie erwähnt, Meta letztlich nicht zur Zahlung von Schmerzensgeld verpflichtet. Das bedeutet jedoch nicht, dass Plattformen immer um Schadensersatz herumkommen – wenn sie etwa zögerlich agieren oder gegen einen Unterlassungstitel verstoßen, können durchaus Kosten und Schäden entstehen (z.B. Kosten für Rechtsverfolgung, Verdienstausfall durch Image-Schaden etc.). In der Regel bleibt der Unterlassungsanspruch aber das effektivere und vorrangige Mittel, da er auf schnellen Schutz vor weiterer Verbreitung abzielt.
Weitere Ansprüche: Je nach Konstellation können noch andere Ansprüche relevant werden. Zu denken ist an § 12 BGB (Schutz des Namens, falls z.B. der Name des Influencers im Fake benutzt wird), an datenschutzrechtliche Ansprüche nach DSGVO (denn Bild und Stimme sind personenbezogene Daten – die unbefugte Verarbeitung, insbesondere für Werbezwecke, verstößt gegen Art. 6 DSGVO und Betroffene könnten Löschung nach Art. 17 DSGVO verlangen). Auch wettbewerbsrechtlich könnte ein Deepfake-Werbevideo unlauter sein (irreführende geschäftliche Handlung), wobei der Influencer selbst meist nicht in der Rolle eines Mitbewerbers ist und daher eher über Persönlichkeitsrecht als über UWG vorgeht. Schließlich besteht bei Identitätsmissbrauch ein Auskunftsanspruch gegen die Plattform (§ 14 Abs. 3 TMG a.F., nun Art. 15 DSA i.V.m. §§ 21, 22 TTDSG), um die Bestandsdaten des Verletzers zu erhalten – das kann wichtig sein, um direkt gegen den Ersteller vorzugehen oder Strafanzeige zu erstatten (z.B. wegen Urkundenfälschung oder Identitätsdiebstahl, wobei das Strafrecht bei Deepfakes noch Lücken hat).
Praktische Relevanz für Influencer und Plattformen
Gerade für Influencer:innen und Prominente ist der Missbrauch ihrer Identität durch Deepfakes in der Werbung ein hochaktuelles Problem. Ihre Reputation und wirtschaftliche Interessen stehen auf dem Spiel: Ein gefälschtes Werbevideo kann das Vertrauen der Follower und Geschäftspartner erschüttern und bestehende Kooperationen torpedieren. Daher ist effektiver Rechtsschutz essenziell.
Die oben erläuterten Regelungen und Urteile bieten Influencern wirksame Hebel:
Schneller stoppen statt „Whack-a-Mole“: Früher lief es oft frustrierend: Man ließ ein Fake löschen, kurz darauf erschien die nächste Kopie – und das Spiel begann von vorn. Nun aber genügt eine einmalige Meldung, um alle gleichartigen Kopien erfassen zu lassen. Die Plattform wird verpflichtet, systematisch nach vergleichbaren Verstößen zu suchen und diese zu entfernen. Für Betroffene bedeutet das erhebliche Entlastung: Sie müssen nicht jede einzelne Verletzung selbst aufspüren und zur Anzeige bringen. Der „Whack-a-Mole“-Effekt (dauerndes Hinterherlaufen) wird entschärft.
Gestärktes Persönlichkeitsrecht: Die Rechtsprechung – insbesondere das OLG Frankfurt – hat deutlich gemacht, dass der Schutz des Persönlichkeitsrechts Vorrang hat vor etwaigen Geschäftsinteressen der Plattform an möglichst unbeschränktem Upload. Hate Speech und Deepfake-Missbrauch dürfen nicht dadurch begünstigt werden, dass Plattformen sich auf Unkenntnis zurückziehen. Influencer:innen können sich daher heute mit mehr Rückendeckung der Gerichte auf ihr Recht am eigenen Bild/Wort berufen. Das OLG bezeichnete die erweiterten Pflichten als “wichtig im Kampf” gegen solche Rechtsverletzungen. Dies kommt letztlich allen Personen zugute, die online Ziel von Verleumdungen oder Identitätsdiebstahl werden.
Klarer Handlungsrahmen für Plattformen: Für Betreiber wie TikTok bedeuten diese Vorgaben allerdings auch mehr Verantwortung. Sie müssen intern Mechanismen etablieren, um nach einer Beschwerde ähnliche Inhalte erkennen zu können – etwa durch Content-Hashing, Bildersuche oder KI-gestützte Mustererkennung. Der Digital Services Act (DSA) schreibt zwar keine Vorabzensur vor, verlangt aber effektive Notice-and-Action-Systeme. Die deutsche Rechtsprechung konkretisiert dies nun dahingehend, dass bei wiederholten Persönlichkeitsrechtsverletzungen durchaus proaktive Filtermaßnahmen erwartet werden. Das ist ein Paradigmenwechsel: Plattformen können sich nicht mehr damit begnügen, nur zu reagieren; sie müssen gewissen Rechtsverstößen aktiv vorbeugen, sobald sie einmal bekannt sind. Für große Social-Media-Dienste mit Millionen von Uploads täglich mag das technisch anspruchsvoll sein – doch gerade Big Player haben die Mittel, solche Lösungen zu implementieren. Langfristig könnten diese Anforderungen sogar Anreize schaffen, Deepfake-Detektionstools einzubauen, die derartige Fake-Werbevideos automatisch markieren oder einer manuellen Prüfung zuführen, bevor sie viral gehen.
Vorbeugung und Aufklärung: Aus Influencer-Sicht ist es zudem ratsam, präventiv tätig zu werden: Klare Kommunikation an Follower (z.B. Warnung vor kursierenden Fake-Werbungen), Zusammenarbeit mit der Plattform (viele betreiben inzwischen Rights Manager-Programme oder verifizierte Accounts, um Missbrauch schneller zu erkennen) und notfalls der Gang an die Öffentlichkeit können den Druck erhöhen, dass Fakes schnell entfernt werden. Die aktuelle Rechtslage gibt ihnen dabei ein starkes Argument in die Hand: Nachweislich rechtswidrige Deepfakes müssen von der Plattform entfernt und ferngehalten werden – alles andere wäre Rechtsbruch.
Zusammenfassend lässt sich sagen, dass Influencer:innen wirksame rechtliche Mittel haben, um gegen unerlaubte Deepfake-Werbung vorzugehen, und dass Plattformen verpflichtet sind, nach Kenntnis solch rechtswidriger Inhalte aktiv deren weitere Verbreitung zu unterbinden. Die OLG-Frankfurt-Rechtsprechung (Künast II und die Folgesachen) stellt hierbei einen Meilenstein dar: Sie markiert einen Wendepunkt hin zu mehr Verantwortlichkeit der Plattformbetreiber im digitalen Raum. Nach deutschem (und in Einklang mit europäischem) Recht kann sich eine Plattform nicht darauf beschränken, jedes neue Fake-Video erst auf separate Beschwerde hin zu löschen, sondern sie muss gleichartige Inhalte von sich aus filtern und entfernen, um die Persönlichkeitsrechte effektiv zu schützen.
Diese Entwicklung zeigt die Tragweite des OLG-Urteils: Für alle vergleichbaren Fälle – etwa Deepfake-Videos mit Prominenten – setzt es den Standard, dass einmal festgestellte Rechtsverletzungen kein zweites Mal geduldet werden dürfen. Damit wird der rechtliche Rahmen an die technischen Realitäten angepasst: Die Opfer digitaler Fälschungen werden besser geschützt, während Plattformen ihr Governance-Modell anpassen müssen. Im Ergebnis entsteht ein ausgewogeneres Verantwortungsgefüge nach deutschem und europäischem Recht: Meinungs- und Informationsfreiheit bleiben gewahrt, aber Persönlichkeitsrechte werden gegen neue digitale Angriffe entschlossen durchsetzbar gemacht. TikTok & Co. tun gut daran, diese Rechtsprechung ernst zu nehmen – zum Schutz der Nutzer und um ihre eigene Haftung zu vermeiden. Denn die Botschaft der Gerichte ist klar: „Facebook, do your job“ – sprich, sorge dafür, dass identitätsverletzende Deepfakes nach Hinweis nicht immer wieder auftauchen.
Weiterlesen:
Sie sind Social Influencer und brauchen rechtliche Unterstützung?
Betroffen von Deepfake Inhalten? Wir gehen gegen Verbreiter vor
- Unterlassung durchsetzen
- Geldentschädigung erhalten
- Täter ausfindig machen
Sie sind von Deepfake Inhalten betroffen? Egal, ob Ihre Stimme oder Ihr Bild verwendet wird, wir beraten Sie gerne. Als Kanzlei im Medienrecht sind wir auf diese Themen spezialisiert. Wir kennen uns mit KI-generierten Inhalten bestens aus und haben jahrelange Erfahrungen im Persönlichkeitsrecht. Überzeugen Sie sich selbst und kontaktieren Sie uns noch heute!
- Schnelle Hilfe & Abwicklung
- Kostenlose telefonische Ersteinschätzung
- 100 % digitale Arbeitsweise
- Über 15.000 bearbeitete Akten
- Transparentes Vorgehen & kalkulierte Kosten
- Vielfach ausgezeichnete und top bewertete Kanzlei


Biene Bunt15 November 2023 Ausgesprochen schnelle und freundliche Rückmeldung. Mein Dank geht dabei insbesondere an Herrn Bönsch, der auch noch spät Abends erreichbar war und alle meine Fragen beantwortet hat. Ich habe mich insgesamt sehr gut aufgehoben gefühlt und werde die Media Kanzlei gerne überall weiterempfehlen Katja Blondin12 Oktober 2023 Ich bin mega zufrieden! Gute Beratung, ausgesprochen freundlicher Kontakt. Ich habe mein Anliegen erklärt und man hat sich sofort an die Arbeit gemacht. Der Fall konnte mit einem einzigen Anschreiben erledigt werden. Kontakt via Telefon und E-Mail. Würde mich immer wieder an diese Kanzlei wenden, wenn auch ich das lieber nicht möchte :) Rita Röscher3 Oktober 2023 Als mein Instagram-Account gehackt wurde, nahm ich die rechtliche Hilfe von der Media Kanzlei in Anspruch. Meine Ansprechpartnerin war Lisa-Marie Peter. Durch ihre kompetente, zuverlässige Unterstützung ist der Account wieder in meinem Besitz. Danke, dafür. Ich kann die Kanzlei jedem/jeder empfehlen, der/die einen rechtlichen Beistand in Sachen "Medienrecht" sucht bzw. benötigt. Wien mal anders26 September 2023 Super Service und schnelle Abwickelung! Wir haben unseren Instagram wieder, danke dafür. :) Steffiii Blackmamba26 September 2023 Sehr Kompetent schnelle Hilfe bei gehackten Sozial Media Account nur weiter zu empfehlen Google Gesamtbewertung 4.9 von 5,
basierend auf 133 Bewertungen
MEHRFACH AUSGEZEICHNETE KANZLEI
weiterlesen
Dr. Severin Riemenschneider Anwalt des Jahres 2019, 2020, 2021, 2022, 2023
für Medienrecht
JUVE Ranking 2020, 2021, 2022, 2023 Presse- und Äußerungsrecht, The Legal 500 2023 Presse- und Verlagsrecht, Best Lawyers Ranking 2020, 2021, 2022, Medien- und Urheberrecht – Handelsblatt, Most Outstanding Specialist Media Law 2020, 2021 – Acquisition INTL, Legal Tech Kanzlei 2020 – Legal Tech Kanzleien, Lawyer of the Year 2019, 2020, 2021, 2022, Medienrecht – Lawyer Monthly, Media Law International (MLI) ranked firm 2018, 2019, 2020, 2021, 2022, 2023



