Frau Niederauer-Kopf, in Österreich wird ab September die Quotenmessung umgestellt. Basis für die Ermittlung der linearen TV-Quoten ist dann nicht mehr ein TV-Panel wie in Deutschland, sondern mehr als 1,1 Millionen mit dem Internet verbundene HbbTV-Geräte. Das Panel bleibt jedoch bestehen, die Datenbestände werden miteinander verschmolzen. Wie bewerten Sie diesen Schritt Ihrer Kolleginnen und Kollegen in Österreich?

Kerstin Niederauer-Kopf: Ganz grundsätzlich ist die Kombination von Smart Data aus einem Panel und Big Data wie in diesem Fall von HbbTV-Geräten ein hybrider Ansatz, wie ihn die AGF vergleichsweise schon seit vielen Jahren in der Streamingmessung verfolgt. Insofern ist das für uns auch bei der Betrachtung der linearen TV-Nutzung perspektivisch ein Weg, der spannend ist und den wir selbstverständlich auch verfolgen, um ähnliche Wege zu bestreiten wie die Kollegen in Österreich.

Aber?

Wichtig ist: Das Panel tritt in der Messung nicht zurück, so wie wir das verstanden haben, ist das auch nicht in Österreich Fall. Für die Zukunft ist es ein innovatives Verfahren, Paneldaten und große, anonyme Gerätedaten zueinander in Bezug zu setzen. Sie brauchen definitiv immer ein Panel, um soziodemografische Informationen ableiten zu können. Andernfalls haben Sie nur einen großen Block an anonymen Gerätedaten, die Medienbranche braucht jedoch auch Gesichter zu diesen Geräten.

Es gibt immer wieder Kritik am Panel.

Wer kritisiert denn das Panel? Diejenigen, die kein repräsentatives haben? Panels gelten gemeinhin als "Source of Truth". Alle innovativen internationalen Ansätze, so auch Crossmedia-Ansatz der WFA, sehen Panels im Zentrum. Wir werden aufgrund der Kleinteiligkeit und Fragmentierung nicht mehr originär alles aus den Panels messen können, aber wir brauchen sie als repräsentatives Fundament für die Modellbildung im Zusammenhang mit großen anonymen Gerätedatenbeständen. So verstehe ich den Ansatz in Österreich und das sind auch die Ansätze, die wir bereits umsetzen und ausbauen. Insofern ist der Schritt der österreichischen Kollegen und Kolleginnen für uns vollkommen nachvollziehbar und zukunftsgewandt.

Was bedeutet das für den deutschen Markt?

Wir in Deutschland müssen schauen, wie sich ein solcher Ansatz in das Gesamtgefüge unseres Forschungssystems einbetten lässt. Wir schauen ja nicht nur auf klassisch lineares Fernsehen, sondern mit der Integration der Digitalmessung auf weitaus mehr. Und dort, wo es viele Regeln gibt und mittlerweile drei Panels [AGF-Panel sowie Mobile und Desktop Panel, Anmerkung der Redaktion] im Einsatz sind, muss man immer beachten, dass Anpassungen Auswirkungen auf verschiedene Bereiche haben können. Wenn ich an einer Schraube drehe, müssen andere Schrauben ggf. nachjustiert werden. Und wie gesagt: Zielsetzung ist, der anonymen Masse ein Gesicht geben und das geht am besten mithilfe eines Panels. Wichtig ist auch, dass nicht jeder großer Gerätedatenbestand auf jedes Segment der Grundgesamtheit passt.

Wir werden aufgrund der Kleinteiligkeit und Fragmentierung nicht mehr originär alles aus den Panels messen können, aber wir brauchen sie als repräsentatives Fundament für die Modellbildung im Zusammenhang mit großen anonymen Gerätedatenbeständen. 


Haben Sie da ein Beispiel?

Ein sehr gut nachvollziehbares Beispiel ist Sky. Dort gibt es aus Set-Top-Boxen große Datenmengen, aber das alleine reicht nicht. Die Daten sind nicht automatisch repräsentativ für die Grundgesamtheit, nur weil es viele sind. In diesem speziellen Datensegment kann ich eine Aussage für die Sky-Haushalte und deren Nutzungspräferenzen treffen, nicht für die gesamte TV-Nutzung über verschiedene Empfangswege hinweg. Und da die Pay-Plattform auch eine spezielle Zuschauerschaft hat, ist es wichtig, diese Datenquelle zu den Smart-Data-Segmenten im Panel in Bezug zu setzen. Unser Panel ist in den vergangenen Jahren nicht kleiner geworden, im Gegenteil. Wir wollen es perspektivisch auch nicht verkleinern. Je mehr wir messen, auch crossmedial, desto besser muss die Stichprobe sein, die wir für die Modellbildung heranziehen.

Wie weit sind Sie, wenn es um die hybride Messung der linearen TV-Nutzung geht?

Wir haben schon vor einigen Jahren mit der GfK begonnen, uns mit der Integration von drei Datenquellen zu beschäftigen. Das war und ist eine sehr ambitionierte Sache. Eine davon ist RedTech, also das Fundament von TV Insight [Das Unternehmen, das in Österreich die neue Quotenmessung wesentlich vorangetrieben hat, Anmerkung der Redaktion]. Wir sind nach wie vor in einem sehr guten Austausch mit TV-Insight. Dort gibt es mittlerweile auch interessante Weiterentwicklungen und wir schauen, wie und ob wir das nutzbar machen können für den deutschen Markt. Ganz wichtig ist: Das wäre additiv zum bestehenden System, weil wir die Digitalmessung zusätzlich noch haben.

Welches sind die anderen beiden Datenquellen, die sich die AGF anschaut?

Die anderen beiden Datenquellen, die wir getestet haben, sind Smartclip und Sky. Die Prüfungen laufen weiter und wir haben in der Vergangenheit auf drei Datenquellen aufgesetzt, um eine möglichst große Abdeckung zu haben. Daneben führen wir auch sehr gute Gespräche mit Telko-Unternehmen oder Endgeräteherstellern. Auch hier gibt es vielversprechende Optionen. Es ist ideal einen möglichst holistischen Datensatz für dieses Vorhaben zur Verfügung zu haben. Die AGF-Daten haben eine hohe Relevanz und werden vielfältig genutzt, insofern ist hier kein Aktionismus angezeigt. Nur mit einem Teilsegment zu arbeiten, ist sehr schwierig, denn wir befinden uns in Deutschland in einem Markt, der keine große Toleranz für Instabilität zulässt.

So mutig wir in der Crossmedia-Messung sind, so risikoavers sind wir im Bereich der klassischen TV-Messung, wenn es um große Umbrüche geht, die dann später womöglich noch einmal neu evaluiert werden müssen. Wenn man da etwas verändert, muss es passen.  


Bei der Streamingmessung läuft es ja etwas anders, hier nutzt die AGF bereits heute ein hybrides Modell.

So mutig wir in der Crossmedia-Messung sind, so risikoavers sind wir im Bereich der klassischen TV-Messung, wenn es um große Umbrüche geht, die dann später womöglich noch einmal neu evaluiert werden müssen. Wenn man da etwas verändert, muss es passen. Alles muss sehr genau auf mögliche Auswirkungen geprüft werden und mit drei Datenquellen waren wir zuletzt sehr ambitioniert unterwegs, weil es natürlich auch Überschneidungen in den Datenquellen gibt. Aus den vergangenen Jahren haben wir einige Learnings mitgenommen, die wir in die Weiterentwicklung einbeziehen.

Was sind das für Learnings?

Eines ist definitiv, dass es ein holistischer Datensatz sein sollte, da das Verschneiden von verschiedenen Datensätzen eine extrem hohe Komplexität aufweist. Diese müssen wir reduzieren. Gleichzeitig haben wir unfassbar viele methodische und datentechnische Anpassungen vorzunehmen. Außerdem ist es so, dass wir den Datenschutz mitdenken müssen, auch in diesem Zusammenhang ist das ein wichtiges Thema.

In Österreich rechnet die AGTT vor, dass es dort durch die Umstellung praktisch keine Nullerreichweiten mehr gibt. Weil ja auch eigentlich zu jeder Uhrzeit immer irgendjemand TV schaut. Ist das nicht auch ein erstrebenswertes Ziel für Deutschland?

Wir haben eine sehr hohe Kleinteiligkeit in unseren Daten, übrigens auch in der Ausweisung der Daten im System, was in anderen Ländern, die ein Reportingsystem mit feststehenden Zielgruppen nutzen, nicht der Fall ist. Je spitzer die Zielgruppe wird und je fragmentierter das Medienangebot wird, desto mehr kommt es natürlich auch zu Zero-Ratings, was klar ist, denn es gibt ein immer größeres Medienangebot. Unsere Panelisten nutzen auch andere Medienangebote und Verbreitungswege und das gilt es zu erfassen, deshalb ist auch die Crossmedia-Messung für den Markt so wichtig. In einem ersten Schritt haben wir durch die testweise Hinzunahme von großen Datenbeständen versucht, bestehende Lücken zu füllen, wobei Lücken immer auch Aussagen treffen über die Nicht-Nutzung eines Angebots. Auch das ist eine wichtige Aussage. Im Laufe der Zeit wurden die Anforderungen an das Projekt immer herausfordernder, denn wir steigen durch die Veränderung der Angebote im Markt in immer programmatischere Welten ein. Dort geht es dann bspw. auch um Modellierung in Echtzeit. Das ist sehr komplex und das denken wir gerade intensiv durch.

Warum dauert das alles so lange? Ist das alleine mit der Komplexität der Thematik zu erklären?

Das größte Risiko der Data Economy ist ein Bias. Also eine Ergebnisverzerrung durch falsche Untersuchungsmethoden, da müssen wir aufpassen und deshalb ist uns das Panel und die Repräsentativität so wichtig. Wir haben auch eine Verantwortung, denn auf Basis dieser Daten werden ganz unterschiedliche und zum Teil weitreichende Entscheidungen getroffen. Es gibt mit Sicherheit eine Unterscheidung zwischen "Null" und "Nichts", aber unsere Ansätze zeigen sehr genau, dass das Panel in den Aggregatsdarstellungen sehr gut ist. Dass die Messverläufe generell passen, sehen Sie ja auch, wenn Sie diese über die Verläufe von Gerätedaten legen. Das ist für uns erstmal eine gute externe Validierung unserer Panelmessung. Das Einzige, was sich dabei unterscheidet: Bei dem einen Modell habe ich nur Geräte, bei dem anderen messe ich in repräsentativ ausgesteuerten Haushalten an den Endgeräten und rechne auf Personen hoch. Es ist ein Unterschied, ob ich 500.000 eingeschaltete Geräte messe, oder bei unserer Messung X Millionen Zuschauer, da wir neben der Nutzerinformation auch wissen, wie viele Personen und in welchen Konstellationen angemeldet sind. Das heißt wir haben einen Co-Viewing-Faktor und beziehen auch Haushalte mit ein, die keinen offenen Rückkanal haben. Da geht es beispielsweise zudem um die Frage, wie man mit Menschen umgeht, die Tracking-Cookies ablehnen. Diese Personen sind aber durchaus auch relevant für die Programmmacher und die Werbeindustrie.

Das größte Risiko der Data Economy ist ein Bias.


Also in Deutschland bleibt vorerst alles beim Alten.

Ich bin immer sehr vorsichtig bei der Ankündigung von Timelines. Der Teufel steckt oft im Detail. Aber das alles sind hochpriorisierte Projekte bei uns, so viel steht fest. Und wenn es nach uns ginge, hätten wir ein solches Modell lieber gestern gehabt als morgen. Denn wir haben mit unserem Panel eine wunderbare Source of Truth, um Big Data nutzbar zu machen. Das alles sind jedoch Entscheidungen, die große Auswirkungen haben können. Ich wäre sehr gespannt was passiert, wenn wir ankündigen würden, dass wir nur noch Rückkanaldaten nutzen und unsere Kunden ein Reporting über lediglich 15 Zielgruppen erhalten. Das wäre schwierig umzusetzen, denn der Markt ist es gewohnt, mit sehr granularen Daten für sehr individuelle Zwecke zu arbeiten. Das muss alles bedacht werden und da ist auch in unseren Gremien viel Diskussionsbedarf – was sehr gut ist, denn wenn alle Seiten am Tisch sitzen und Anforderungen einbringen, mag es zwar länger dauern, aber es macht neue Ansätze eben auch nachhaltig. Die AGF entwickelt ihre Standards nicht für sich selbst, sondern für und mit dem Markt.

Österreich wagt auch eine Revolution bei der Darstellung der zeitversetzten Nutzung. Künftig will man diese für sieben Tage direkt am Tag nach der Ausstrahlung veröffentlichen. Das funktioniert über modellierte bzw. geschätzte Daten. Nun beschäftigen Sie sich schon Ihr ganzes Berufsleben mit Fernseh- und Marktforschung. Rollt es Ihnen bei der Vorstellung, am nächsten Tag Zahlen zu sehen, die geschätzt sind und nicht gemessen, nicht die Fußnägel hoch?

In der Statistik ist der sogenannte empirische Schätzer ein klassischer Begriff aus der Modellierung. Wir brauchen künftig verstärkt solche Modellierungen, weil der Markt immer stärker fragmentiert. Wir favorisieren die Modellierung aber aus einer repräsentativen Panel-Stichprobe, in der auch gemessen wird. Ich nehme an, dass die Österreicher die Modellierungsvorgabe aus dem Panel nehmen, um dann eine Hochrechnung in Kombination mit den Gerätedaten zu treffen. Ich weiß, dass es da immer Befindlichkeiten gibt, wenn salopp von einem Schätzer gesprochen wird. Aber wenn der Schätzer aus einer hochwertigen Panel-Messung kommt und mit dem Gerätedaten modelliert wird, sehe ich darin zunächst kein Problem.

Ich bin generell interessiert daran, wäre aber vorsichtig.
AGF-Chefin Kerstin Niederauer-Kopf über die neue Darstellung der zeitversetzten Nutzung in Österreich und die Möglichkeit, das auch in Deutschland einzuführen. 


Als
o keine aufgerollten Fußnägel?

Wenn ich einen Schätzer habe, ist das methodische Fundament ausschlaggebend. Es ist wichtig, diesen Schätzer solide und valide ableiten zu können. Wenn der Schätzer mal daneben liegt, was ja durchaus passieren kann, kann das problematisch werden. Denn im Markt gibt es wie schon erwähnt keine sehr große Fehlertoleranz, da eine Vielzahl von nachgelagerten Prozessen betroffen sein können. Wenn die zeitversetzte Nutzung einer Sendung aus einem bestimmten Grund, etwa weil ein Clip daraus viral gegangen ist, extrem hoch ist, der Schätzer das aber nicht berücksichtigt, weil das eine absolute Ausnahme ist, gibt es nach einigen Tagen eine größere Korrektur. Ich bin sehr gespannt, wie gut das System in Österreich funktioniert und wie genau der Schätzer arbeitet. Ich selbst habe damit keine Erfahrungswerte, aber wir gehen in neue Welten hinein und zunächst sollte man sich immer auch eine gewisse Offenheit bewahren, auch für die Modellierung, die wir, unter den oben genannten Voraussetzungen, perspektivisch brauchen werden.

In Deutschland wäre ein solches Vorgehen ohnehin komplizierter, oder?

Ja, das wäre so. Wir haben die Overnight-Daten und sammeln im weiteren Verlauf Daten ein. Die Zeit zwischen vorläufigen und endgültig gewichteten Quoten brauchen wir, weil wir immer mehr Nutzung einfangen. Da geht es um die Nutzung von Streaming, Livestreams, zeitversetzter Nutzung und die Außer-Haus-Nutzung. Wenn man das alles modellieren müsste, ist das ein extrem komplexer Vorgang, der weit über die Modellierung der zeitversetzten Nutzung hinausgeht. Ich bin generell interessiert daran, wäre aber vorsichtig. Gerade die Integration der 24/7-Livestream-Nutzung in die TV-Nutzung ist in diesem Jahr in Deutschland besonders spannend.

weil es mit der Fußball-EM und Olympia zwei sportliche Großereignisse gibt, bei denen die Livestream-Nutzung besonders hoch ist?

Einerseits das, und andererseits ist zum 1. Juli das Nebenkostenprivileg abgeschafft worden. Da ist die Vermutung, dass es künftig mehr Menschen gibt, die verfügbare Livestreams nutzen werden, weil sie einen Smart-TV haben und darüber die Mediatheken stärker nutzen.

Frau Niederauer-Kopf, vielen Dank für das Gespräch!