KW 7: Google reCAPTCHA DSGVO-konform, Discover Update, IAB-Gesetz gegen AI-Scraping
In der vergangenen Woche: Google macht reCAPTCHA ab April 2026 DSGVO-konformer durch Auftragsverarbeitung statt eigener Datenhoheit, während das Februar Discover Core Update lokal relevante Inhalte priorisiert. IAB veröffentlicht Gesetzentwurf gegen KI-Scraping zum Schutz werbefinanzierter Publisher. Microsoft plant Publisher Content Marketplace für AI-Lizenzierung, parallel starten britische Verlage gemeinsame Programmatic-Plattform für skalierte Premium-Werbung.
Google reCAPTCHA wird DSGVO-konformer durch Auftragsverarbeitung
Ab dem 2. April 2026 ändert Google grundlegend das Betriebsmodell von reCAPTCHA. Der Bot-Schutz-Dienst wandelt sich von einem Angebot mit eigener Datenhoheit zu einer klassischen Auftragsverarbeitung. Damit schlüpfen Webseitenbetreiber in die Rolle des Data Controllers und bestimmen Zweck und Mittel der Datenverarbeitung, während Google nur noch als Data Processor agiert. Die erhobenen Informationen dürfen fortan ausschließlich für Bereitstellung, Wartung und Sicherheit des reCAPTCHA-Dienstes verwendet werden – eine klare Trennwand zu Googles Werbegeschäft. Das bedeutet mehr Rechtssicherheit: Die Verweise auf Googles allgemeine Datenschutzerklärung verschwinden aus dem reCAPTCHA-Badge, und Publisher können den Einsatz des Tools besser mit berechtigten Interessen nach DSGVO argumentieren. Die Verarbeitung erfolgt künftig einheitlich im Rahmen des Cloud Data Processing Addendum, das euch die benötigte Compliance-Grundlage liefert. Technisch bleibt alles beim Alten – bestehende Site-Keys behalten ihre Gültigkeit, und es gibt keine Service-Unterbrechungen.
Quelle: Heise
Google Discover Core Update priorisiert lokale Inhalte
Google hat das February 2026 Discover Core Update veröffentlicht, das zunächst für englischsprachige Nutzer in den USA ausrollt und in den kommenden Monaten global erweitert wird. Das Update priorisiert lokal relevante Inhalte von Websites aus dem jeweiligen Land des Nutzers, reduziert sensationelle Inhalte und Clickbait und hebt Artikel mit nachgewiesener Expertise im jeweiligen Themenbereich hervor. Googles Systeme identifizieren dabei Expertise themenspezifisch – eine lokale News-Site mit dedizierter Gartensektion kann in diesem Bereich als Experte gelten, auch wenn sie andere Themen abdeckt.
Bezüglich potenzieller Traffic-Schwankungen aus Google Discover: Betroffen sein könnten nicht-US-Websites, die bisher für ein US-Publikum publiziert haben – dieser Effekt dürfte sich mit der globalen Ausrollung relativieren. Der Rollout dauert bis zu zwei Wochen. Google betont, dass viele Sites keine Änderungen sehen werden, während andere Zu- oder Abnahmen verzeichnen könnten. Die Personalisierung basierend auf Creator- und Quellen-Präferenzen der Nutzer bleibt bestehen.
Quelle: Search Engine Land
IAB veröffentlicht Gesetzentwurf gegen KI-Content-Scraping
Das Interactive Advertising Bureau hat den AI Accountability for Publishers Act vorgestellt – einen Gesetzentwurf gegen großflächiges Content-Scraping durch KI-Systeme. Der Entwurf zielt darauf ab, dass KI-Firmen für genutzten Content zahlen müssen, bevor das wirtschaftliche Modell werbefinanzierter Inhalte kollabiert. Das Gesetz basiert auf dem Konzept der ungerechtfertigten Bereicherung – wer Content nimmt, muss dafür bezahlen. Cohen zieht Parallelen zum Niedergang lokaler Nachrichtenportale Mitte der 2000er Jahre, als Werbeerlöse zu Tech-Plattformen abwanderten und tausende Outlets schlossen. Ohne sofortiges legislatives Handeln drohe der werbefinanzierten Publishing-Industrie ein ähnliches Schicksal. Litigation könne Jahre dauern – Zeit, die Publisher nicht hätten.
Quelle: IAB
Microsoft entwickelt Publisher Content Marketplace für KI-Lizenzierung
Microsoft arbeitet am Publisher Content Marketplace, einem Lizenzierungs-Hub, der Nutzungsbedingungen von Publishern transparent macht. KI-Unternehmen können dort einfach Konditionen einsehen und Deals zum Grounding ihrer KI-Modelle abschließen, während Content-Besitzer nutzungsbasierte Reports erhalten, um Preise zu setzen.
Microsoft entwickelt PCM gemeinsam mit Vox Media, The Associated Press, Condé Nast, People und anderen Publishern. Das System soll Publisher aller Größen unterstützen – von großen Organisationen bis zu unabhängigen Publikationen. Das Ziel soll sein, dass Publisher nach geliefertem Wert bezahlt werden, während KI-Entwickler skalierbaren Zugang zu lizenziertem Premium-Content erhalten. Microsoft argumentiert, dass das implizite Wertversprechen des offenen Webs – Publisher machen Inhalte zugänglich, Suchmaschinen helfen beim Finden – nicht sauber in eine KI-First-Welt übertragbar ist, in der Antworten zunehmend in Konversationen geliefert werden. Die Plattform wird auf Permutive gehostet und befindet sich in der Pilotphase, wobei Yahoo bereits als Partner ongeboardet wurde.
Quelle: The Verge
Britische Publisher starten gemeinsame Programmatic-Plattform Atria
Sechs der größten britischen Publisher – Bauer, Future, Hearst UK, Hello!, Immediate und Time Out – haben die Programmatic-Plattform Atria gelauncht. Die Plattform ermöglicht Werbetreibenden den Zugang zu einer kombinierten Reichweite von 33 Millionen Konsumenten über Premium-Magazine-Umfelder in einem einzigen Marketplace. Atria nutzt Permutive zur Umwandlung von First-Party-Daten der Publisher in eine Plattform, auf der Agenturen und Advertiser über vertrauenswürdige redaktionelle Umfelder planen und buchen können.
Die Kategorisierung basiert auf starken Datensignalen: Wer beispielsweise drei vegane Rezepte in einem bestimmten Zeitraum ansieht, wird als an veganen Rezepten interessiert kategorisiert. Für Werbetreibende bedeutet dies Zugang zu Brand-sicheren Premium-Umfeldern mit hoher Nutzer-Engagement-Zeit – gerade bei Hobbyist-Titeln wie Kochmagazinen bleiben Leser deutlich länger auf der Seite. Die Plattform vereinfacht den Einkauf durch einen einzigen Premium-Programmatic-Buy statt separater Deal-IDs bei sechs verschiedenen Websites.
Quelle: MediaCat



