1
0
Fork 0
mirror of https://github.com/MatomoCamp/recording-subtitles.git synced 2024-09-19 16:03:52 +02:00
recording-subtitles/2021/Background Tracking/output.srt

1681 lines
53 KiB
Text
Raw Normal View History

1
00:00:00,000 --> 00:00:12,240
2022-10-26 18:25:48 +02:00
Willkommen zum ersten Talk vom MatomoCamp, genau gesagt der einen der beiden ersten Talks,
2
00:00:12,240 --> 00:00:17,680
aber hier sind wir im deutschsprachigen Talk. Also der Moderator hier ist Joachim Nickel,
3
00:00:17,680 --> 00:00:24,040
nutzt Matomo und Biwik schon seit über zehn Jahren und engagiert sich auch in verschiedenen
4
00:00:24,040 --> 00:00:28,240
Open-Source-Projekten, wie zum Beispiel vor allem den CMS Contao, von dem ihr vielleicht
5
00:00:28,240 --> 00:00:32,960
schon gehört habt und von dessen Förderverein ist er Präsident. Und er wird euch jetzt ein
6
00:00:32,960 --> 00:00:38,200
bisschen mehr darüber erzählen, wie man mit Background Tracking etwas mehr Daten erfahren
7
00:00:38,200 --> 00:00:44,120
in Matomo bekommen kann und genau gesagt auch damit, welche Alternativen es zum klassischen
8
00:00:44,120 --> 00:00:49,520
Matomo JavaScript Tracking gibt, welches jeder kennt. Damit, Joachim, kannst du anfangen.
9
00:00:49,520 --> 00:00:58,520
Danke, Lukas. Ja, hallo. Fangen wir gleich an mit dem zweiten Slide bei mir. Lukas hat
10
00:00:58,520 --> 00:01:02,720
im Endeffekt schon im Großteil gesagt, ich bin OMT-Botschafter. Auf das Thema OMT
11
00:01:02,720 --> 00:01:07,920
komme ich ein bisschen später noch zum Tragen. Präsident der Contao Association und Matomo
12
00:01:07,920 --> 00:01:13,280
halt eben seit mindestens 2010, wahrscheinlich sogar schon noch ein bisschen länger. Heute
13
00:01:13,280 --> 00:01:16,880
geht es um die Frage erstmal grundsätzlich, kann ich den Zahlen überhaupt vertrauen,
14
00:01:16,880 --> 00:01:20,680
die wir in Matomo oder halt eben auch irgendwo anders in irgendwelchen Statistiksoftware
15
00:01:20,680 --> 00:01:26,520
in dieser Art tracken? Und kleiner Teaser an der Stelle, ich würde mal sagen, ganz klares
16
00:01:26,520 --> 00:01:31,800
nein. Das hat mehrere Gründe, denn wenn wir uns mal angucken, wie das Standard Tracking
17
00:01:31,800 --> 00:01:35,560
funktioniert, was wir in Matomo haben, sei es über den Tag Manager oder über das normale
18
00:01:35,560 --> 00:01:40,440
JavaScript Tracking, dann kommt der Besucher auf unsere Webseite, holt sich die Daten im
19
00:01:40,440 --> 00:01:45,640
Endeffekt ab und in der Webseite steht dieser kleine Code drin, der halt eben sagt, du Browser,
20
00:01:45,640 --> 00:01:50,440
gib mal die Daten dahinten zu unserer Matomo Instance und tracke das Ganze. Und genau
21
00:01:50,440 --> 00:01:55,680
da haben wir halt eben wirklich dieses riesengroße Problem mit der Datenweitergabe, denn zum
22
00:01:55,680 --> 00:02:00,440
einen gibt es diese Tracking-Schutzgeschichten, ETP und ETP, wie sie nicht alle so schön
23
00:02:00,440 --> 00:02:05,080
heißen. Zum anderen haben wir das große Problem, das User-Consent, den wir halt eben häufig
24
00:02:05,080 --> 00:02:10,600
einsetzen müssen, in Verbindung auch mit den Do-Not-Track-Headern. Aber und ganz speziell
25
00:02:10,600 --> 00:02:16,640
das Problem der Ad-Blocker. Für 2021 habe ich eine Statistik gefunden, die davon ausgeht,
26
00:02:16,640 --> 00:02:22,680
dass in Deutschland rund 40 Prozent der Nutzer, die auf den Webseiten unterwegs sind, Ad-Blocker
27
00:02:22,680 --> 00:02:28,040
einsetzen, weltweit über 42 Prozent. Diese Werte differieren immer unterschiedlich von
28
00:02:28,040 --> 00:02:31,840
den Herstellern, die diese Statistiken halt eben herausgeben. Teilweise gehen die Werte
29
00:02:31,840 --> 00:02:37,800
auf bis zu 50 Prozent hoch und es ist sehr, sehr unterschiedlich bei den einzelnen Webseiten,
30
00:02:37,800 --> 00:02:43,000
da kommen wir gleich drauf. Dieser Fakt war für mich im Endeffekt der Grund, warum ich
31
00:02:43,000 --> 00:02:47,800
gesagt habe, dieser Weg vorne, der ist vielleicht nicht unbedingt der beste, weil halt einfach
32
00:02:47,800 --> 00:02:51,880
zu viele Daten verloren gehen und deswegen sage ich, okay, streichen wir den Weg und
33
00:02:51,880 --> 00:02:58,040
gehen direkt aus der Anwendung in Matomo rein, denn Matomo hat etwas sehr Schönes, was andere
34
00:02:58,040 --> 00:03:03,000
Systeme nicht in der Form anbieten, nämlich die Tracking-API. Der Nachteil bei der ganzen
35
00:03:03,000 --> 00:03:07,600
Sache ist, die Umsetzung muss halt eben in der Anwendung erfolgen und wir müssen dort
36
00:03:07,600 --> 00:03:12,200
wirklich alle Parameter, die wir benötigen für das Tracking, halt eben selber uns zusammensammeln.
37
00:03:12,200 --> 00:03:16,160
Wir haben also nicht den schönen Fall wie im JavaScript-Tracking, dass einfach alles
38
00:03:16,160 --> 00:03:21,160
schon mehr oder weniger out of the box zur Verfügung steht und müssen dann halt eben
39
00:03:21,160 --> 00:03:25,760
gesammelt diese Daten an Matomo schicken. Die Aufgaben, die dabei entstehen, ist zum
40
00:03:25,760 --> 00:03:30,560
einen klar, wir müssen das Thema Session Handling klären, das heißt, wie bekommen wir die einzelnen
41
00:03:30,560 --> 00:03:35,280
Besucher-Sessions zusammen? Matomo kann diese Aufgabe an der Stelle für uns nicht übernehmen,
42
00:03:35,280 --> 00:03:40,040
wir müssen diese Aufgabe halt eben übernehmen in der Anwendung. Wir müssen selber uns um
43
00:03:40,040 --> 00:03:44,720
die Borderkennung zum Großteil kümmern, denn alles, was wir halt eben direkt gegen Matomo
44
00:03:44,720 --> 00:03:50,320
werfen, wird dort halt im Endeffekt ausgewertet. Eine Borderkennung an der Stelle ist schwierig,
45
00:03:50,320 --> 00:03:54,160
weil es halt eben nachgeschaltet ist und wir müssen immer berücksichtigen, dass wir eine
46
00:03:54,160 --> 00:03:59,320
gewisse Latenz haben. Das heißt also, die Anwendung selber sollte den Request an Matomo
47
00:03:59,320 --> 00:04:03,360
auch erst dann schicken, wenn im Endeffekt die Ausgabe an die Webseite, also an den Kunden,
48
00:04:03,360 --> 00:04:08,160
an den Webbrowser, das Kunden ausgeliefert wurde. Aber auch dann ist es doof, wenn der
49
00:04:08,160 --> 00:04:13,520
Prozess halt eben noch zu lange braucht, weil der Weg bis zum Matomo API halt eben zu lang ist
50
00:04:13,520 --> 00:04:18,120
und von daher könnte man sich überlegen, halt eben das Ganze auch selber irgendwo lokal zu
51
00:04:18,120 --> 00:04:22,560
cashen und dann nachträglich erst an Matomo zu übergeben. Wir müssen so oder so mit einem
52
00:04:22,560 --> 00:04:29,200
entsprechenden API-Key arbeiten in der Matomo Instanz, die einen Schreibzugriff hat, um zum
53
00:04:29,200 --> 00:04:33,880
Beispiel die IP-Adresse halt eben auch zu übergeben, entweder gekürzt schon oder halt eben auch im
54
00:04:33,880 --> 00:04:39,160
Klartext, um halt eben dort die Geo-IP-Auflösung zu machen oder wir machen eine Geo-IP-Auflösung
55
00:04:39,160 --> 00:04:44,480
direkt in der Anwendung, das geht natürlich auch. Und alle überein, wir haben natürlich das Thema
56
00:04:44,480 --> 00:04:49,040
des Datenschutzes, das heißt, wir haben in der Anwendung natürlich untreifiele Daten,
57
00:04:49,040 --> 00:04:54,000
wir können möglicherweise den Kunden direkt eins zu eins identifizieren und müssen dann halt
58
00:04:54,000 --> 00:04:58,000
eben überlegen, welche Daten übergeben wird, hat Sache an Matomo, nicht, dass wir hinsichtlich
59
00:04:58,000 --> 00:05:04,120
der Datenschutz-Grundverordnung dort dann entsprechende Probleme bekommen. Gucken wir uns
60
00:05:04,120 --> 00:05:09,040
mal im Vergleich an. Ich habe hier zum einen einen Regionalversorger, den ich diesbezüglich
61
00:05:09,040 --> 00:05:14,320
ausgestattet habe, mit dem Standard Tracking und im Background und wenn ich mir das Ganze
62
00:05:14,320 --> 00:05:20,080
angucke, dann habe ich hier einen Unterschied von ungefähr 60 Prozent, 60 Prozent mehr Daten,
63
00:05:20,080 --> 00:05:25,320
die ich im Background Tracking für diesen Kunden identifiziert bekomme. Wir sehen hier unten auch
64
00:05:25,320 --> 00:05:31,720
die Abweichung der Mobiltypen, also das heißt also, ob das ein Desktop-System ist oder halt
65
00:05:31,720 --> 00:05:36,840
eben ein Mobilsystem. Im Background Tracking haben wir wesentlich mehr Desktop-Systeme, was die
66
00:05:36,840 --> 00:05:43,080
Wahrscheinlichkeit oder die Vermutung hoch liegt, dass die Ad-Blocker halt eben auf Desktop-Browsern
67
00:05:43,080 --> 00:05:47,160
höher sind. Man muss dazu sagen, das war zu einer Zeit, wo man auch auf iOS noch nicht so ohne
68
00:05:47,160 --> 00:05:51,040
weiteres den Standard-Browser ändern konnte. Das heißt, jetzt ist es alles schon ein bisschen
69
00:05:51,040 --> 00:05:57,920
anders. Ich persönlich nutze zum Beispiel sowohl auf dem Desktop als auch auf dem Telefon halt
70
00:05:57,920 --> 00:06:02,960
eben den Browser Brave. Der macht halt eben das Tracking schon mal grundsätzlich schwieriger,
71
00:06:02,960 --> 00:06:08,800
aber an der Stelle gleich noch die Information mit Matomo und in Verbindung mit kuckielosem
72
00:06:08,800 --> 00:06:13,320
Tracking, dass die Matomo Instance auch auf dem gleichen Domain ist. Dann kommt sogar das
73
00:06:13,320 --> 00:06:17,880
JavaScript Tracking durch den Brave Browser hindurch, während andere Sachen halt nicht
74
00:06:17,880 --> 00:06:24,120
abgekapselt werden. Gucken wir uns einen zweiten Vergleich an den Kfz-Online-Shop. Hier sieht das
75
00:06:24,120 --> 00:06:30,040
Ganze so aus, dass wir ungefähr 30 Prozent mehr Visits haben, aber schon ungefähr 40 Prozent mehr
76
00:06:30,040 --> 00:06:35,520
Pageviews. Wodurch kommt das zustande? Ganz klar, einfach aus der Situation heraus, bei einem
77
00:06:35,520 --> 00:06:40,720
Online-Shop im Gegensatz zu einem Regionaleinbieter, wo ich halt sehr häufig nur One-Pager-Visits habe,
78
00:06:40,720 --> 00:06:45,360
habe ich hier natürlich wesentlich längere Visits. Und wenn dann halt eben ein Nutzer,
79
00:06:45,360 --> 00:06:50,400
der länger durch den Online-Shop durchgeht, dann einen Blocker hat, dann werden natürlich die
80
00:06:50,400 --> 00:06:55,360
Differenz zwischen der Anzahl der Visits und der Pageviews anders. Und das ist jetzt der Punkt,
81
00:06:55,360 --> 00:07:00,560
wo ich auch dann im weiteren Verlauf draufkomme. Also hier habe ich noch die Erwähnung kurz
82
00:07:00,560 --> 00:07:04,960
hinsichtlich der Thematik der Mobilbrowser. Das heißt, wir hatten im Standard Tracking halt
83
00:07:04,960 --> 00:07:10,840
eben 74 Prozent Mobilbrowser und im Background Tracking dann noch 67. Das heißt, der Anteil
84
00:07:10,840 --> 00:07:14,960
am Desktop ist auch wieder hier gestiegen und diese Unterscheidung, die muss man halt eben auch
85
00:07:14,960 --> 00:07:19,160
immer berücksichtigen, weil möglicherweise gibt es im Background Tracking dann so viele
86
00:07:19,160 --> 00:07:23,680
unterschiedliche Daten von den Systemen, dass man sich überlegen muss, ob die Strategie,
87
00:07:23,680 --> 00:07:31,200
die man eigentlich wählen wollte, wirklich die richtige ist. Ja, jetzt kommen wir zum OMT. Der
88
00:07:31,200 --> 00:07:38,680
OMT ist eine Online-Plattform, der Treffpunkt für Weiterbildung und Netzwerken im Online-Marketing.
89
00:07:38,680 --> 00:07:45,360
Der Claim vom OMT ist, lebenslang voneinander lernen. Ich bin auch Botschafter der OMT und hatte
90
00:07:45,360 --> 00:07:50,120
halt eben die Chance, diese Seite auch auszuwerten. Hier hatten wir eine Installation mit Google
91
00:07:50,120 --> 00:07:56,520
Analytics. Im Parallelflug dann eine Matomo Standard Installation. Dort gab es mehr oder
92
00:07:56,520 --> 00:08:00,680
weniger eigentlich kaum Abweichungen. Deswegen lasse ich das hier an der Stelle mit Google
93
00:08:00,680 --> 00:08:06,360
Analytics im Vergleich weiter raus. Und dann hatten wir einen Uplift von 15 Prozent in den
94
00:08:06,360 --> 00:08:12,000
Visits. Da war erst mal die große Enttäuschung von wegen, wow, der Unterschied ist ja doch relativ
95
00:08:12,000 --> 00:08:17,480
wenig. Anscheinend nutzen gar nicht so sehr viele Leute hier auf dem System Adblocker. Und dann
96
00:08:17,480 --> 00:08:21,800
guckte ich mir die Daten halt eben in den Pageviews an und stellte fest, okay, ich habe jetzt die
97
00:08:21,800 --> 00:08:26,040
Google Analytics rausgelassen, weil das hat uns an der Stelle keine weiteren Punkte gebracht. Wir
98
00:08:26,040 --> 00:08:32,760
haben hier doch ein paar ganz andere Daten und zwar wir haben 80 Prozent mehr Pageviews gegenüber den
99
00:08:32,760 --> 00:08:39,160
Visits. Das heißt also 15 Prozent mehr Visits, aber 80 Prozent mehr Pageviews. Das wollte ich
100
00:08:39,160 --> 00:08:43,440
mir dann halt immer ein bisschen genauer angucken, aber erst mal die Statistik angeguckt, das ist eine
101
00:08:43,440 --> 00:08:48,240
Online-Lernplattform. Das heißt also, die Leute gehen wirklich häufig unter der Woche drauf. Das
102
00:08:48,240 --> 00:08:53,200
heißt also, die Wochenend-Terminis, die sind einfach entsprechend viel, viel geringer und deshalb diese
103
00:08:53,200 --> 00:09:00,360
Einbrüche an der Stelle. Auch hier, wir haben einen enorm hohen Anteil an Desktop-Nutzern. Das heißt
104
00:09:00,360 --> 00:09:05,760
also, selbst im normalen Tracking haben wir 73 Prozent Desktop-User, während wir dann im
105
00:09:05,760 --> 00:09:11,720
Background sogar schon auf 84 Prozent hochkommen. Die 73 bis 84 Prozent merken wir uns schon mal,
106
00:09:11,720 --> 00:09:16,560
weil jetzt kommen wir mal ein bisschen weiter und gucken uns das Ganze in einer Differenzierung an.
107
00:09:16,560 --> 00:09:20,920
Wir haben das Ganze jetzt mal segmentiert und zwar habe ich die ganzen Einzelpageviews
108
00:09:20,920 --> 00:09:26,680
herausgelassen, um mal zu gucken, was dort halt eben passiert und habe halt eben festgestellt,
109
00:09:26,680 --> 00:09:34,120
bei den Visits haben wir jetzt nicht mehr 15 Prozent, sondern schon 35 Prozent mehr und wenn wir
110
00:09:34,120 --> 00:09:39,760
uns die Pageshoes an der Stelle angucken, dann kommen wir hier sogar auf 140 Prozent. Wir merken
111
00:09:39,760 --> 00:09:51,280
vorher 15 Prozent zu 35 Prozent und 80 Prozent zu 180 Prozent und der Anteil der Nutzer im Desktop-
112
00:09:51,280 --> 00:09:59,280
Bereich geht sogar hier mittlerweile auf 91 Prozent hoch. Die Datenbasis, die wir hier haben,
113
00:09:59,280 --> 00:10:06,720
bei den Pageshoes mindestens zwei, sieht so aus. Wir haben also im Standard Tracking 24 Prozent der
114
00:10:06,720 --> 00:10:13,880
Visits, die etwa 53 Prozent der Pageshoes generieren. Im Background Tracking sind das halt eben nur 5
115
00:10:13,880 --> 00:10:19,640
Prozent mehr an Visits, aber wir haben 18 Prozent mehr an Pageshoes, die hier generiert werden. Das
116
00:10:19,640 --> 00:10:23,240
heißt also, wir sehen hier ganz klar die Differenzierung, die Nutzer, die Adblocker
117
00:10:23,240 --> 00:10:29,320
in dem Fall einsetzen, bringen hier in dem Fall eine wesentlich höhere Anzahl an Pageshoes mit
118
00:10:29,320 --> 00:10:34,800
sich und wenn wir das Ganze auf die Pageshoes-Anzahl von mindestens vier anheben, dann ist diese
119
00:10:34,800 --> 00:10:43,640
Differenz noch mal wesentlich höher. Ja, gucken wir uns ganz kurz die Technik an, von vorne und von
120
00:10:43,640 --> 00:10:50,160
hinten. Von vorne ist halt eben klar die normale Standard Tracking Variante. Das Background Tracking
121
00:10:50,160 --> 00:10:55,840
habe ich hier in der Mitte eingefügt und ganz unten zum Vergleich die Variante, wenn wir mit
122
00:10:55,840 --> 00:11:01,160
Matomo Log File Analytics betreiben, dass man so ein bisschen was sehen kann, wie die uns in
123
00:11:01,160 --> 00:11:07,280
Unterschiede sind. Ereignisse, sprich Event Tracking ist im Standard Tracking überhaupt kein Thema.
124
00:11:07,280 --> 00:11:11,160
Über den Tag Manager, über die normale JavaScript Integration oder ähnliches,
125
00:11:11,160 --> 00:11:15,880
perfekte Ausprägung, können wir alles machen. Im Background Tracking ist das per se erst einmal
126
00:11:15,880 --> 00:11:21,080
von Hause aus gar nicht möglich, weil das Tracking erfolgt ja direkt aus der Anwendung
127
00:11:21,080 --> 00:11:26,640
heraus, sprich in dem Augenblick, wenn das HTML generiert wird. Ich weiß also um die gesamten
128
00:11:26,640 --> 00:11:31,840
Nutzerinteraktionen überhaupt nichts. Wenn ich das halt eben mit reinbringen wollte, müsste ich
129
00:11:31,840 --> 00:11:36,240
mir eine eigene Schnittstelle bauen, mit der ich dann halt diese Daten zusätzlich über die
130
00:11:36,240 --> 00:11:41,640
Tracking API innerhalb der Anwendung halt eben nach Matomo einspeise. Das ist ein bisschen komplizierter,
131
00:11:41,640 --> 00:11:46,480
ist aber theoretisch denkbar. Innerhalb des Log File Trackings überhaupt keine Chance,
132
00:11:46,480 --> 00:11:52,000
irgendetwas mit Ereignissen zu machen. Inhaltselemente Tracking, genau das Gleiche.
133
00:11:52,000 --> 00:11:56,320
Standard vorhanden im Background Tracking eben nur über eine eigene Schnittstelle,
134
00:11:56,320 --> 00:12:00,560
die wir schaffen müssen. Das Gleiche gilt auch für die Downloads, wobei die Downloads halt
135
00:12:00,560 --> 00:12:04,480
eben im Log File Tracking halt vorhanden sind. Das heißt, da haben wir keine Probleme an der
136
00:12:04,480 --> 00:12:09,320
Schnittstelle. Ebenfalls die ausgehenden Links, gleiche Variante über den Background Tracking,
137
00:12:09,320 --> 00:12:13,400
ich muss das über eine eigene Sache lösen. Das sind ja alles Interaktionen innerhalb des Browsers,
138
00:12:13,400 --> 00:12:17,480
die passieren, die kann ich so direkt nicht hinbekommen. Im Log File Tracking überhaupt
139
00:12:17,480 --> 00:12:23,160
keine Chance, das Ganze zu regeln. E-Commerce Tracking ist im Background überhaupt kein Thema,
140
00:12:23,160 --> 00:12:28,320
weil die Daten zu E-Commerce stehen halt sogar noch viel früher zur Verfügung, als sie halt
141
00:12:28,320 --> 00:12:32,560
eben per JavaScript Tracking ganz normal zur Verfügung stehen würden. Auch hier im Log File
142
00:12:32,560 --> 00:12:37,960
Tracking keine Chance da ranzukommen. Cookies können wir natürlich verwenden, um die Leute
143
00:12:37,960 --> 00:12:43,160
wiederzuerkennen im Standard Tracking, inwieweit man das machen will, in Hinsicht auf die User
144
00:12:43,160 --> 00:12:47,920
Consent freie Variante oder ob man dort ein Hybrid Tracking nutzt. Das sei halt eben selbst
145
00:12:47,920 --> 00:12:51,800
überlassen. Im Background muss ich mir da halt eben schon ein bisschen was anderes überlegen,
146
00:12:51,800 --> 00:12:56,120
wie ich den Nutzer halt eben dann da wieder erkennen kann. Ich kann natürlich auch aus der
147
00:12:56,120 --> 00:13:00,760
Anwendung heraus einen lebenslangen Cookie setzen, mit dem ich den Nutzer dann nachträglich wieder
148
00:13:00,760 --> 00:13:05,200
identifizieren kann, aber die Logik muss ich mir da natürlich wiederum in die Anwendung reinholen.
149
00:13:05,200 --> 00:13:11,080
Adblocker werden halt beim Standard Tracking oder sind beim Standard Tracking genau das Problem,
150
00:13:11,080 --> 00:13:15,960
weshalb ich ja dieses Background Tracking durchführen möchte. Im Background Tracking ist es
151
00:13:15,960 --> 00:13:20,680
überhaupt kein Thema, da kommen alle Nutzer an Daten an und zwar eigentlich sogar schon viel zu
152
00:13:20,680 --> 00:13:26,280
viele, denn auch die ganzen normalen Bots werden ja halt eben hiermit protokolliert, aber da gehe
153
00:13:26,280 --> 00:13:31,920
ich gleich nochmal drauf ein. Im LogFi Tracking genau das gleiche und das Thema Caching möchte
154
00:13:31,920 --> 00:13:37,680
ich hier in der Stelle kurz erwähnen. Das Standard Caching, also sprich HTTP Caching, ist mit dem
155
00:13:37,680 --> 00:13:43,560
Standard Tracking überhaupt kein Thema. Wenn ich das aktiviere oder gar ein CDN verwende und das
156
00:13:43,560 --> 00:13:49,440
Background Tracking nutzen möchte, habe ich dort Probleme, weil die Daten für das Tracking kommen
157
00:13:49,440 --> 00:13:53,960
ja gar nicht mehr in der Endanwendung an, weil die Daten kommen ja direkt aus dem Caching-System,
158
00:13:53,960 --> 00:13:59,120
aus dem CDN heraus und somit habe ich dort halt eben die entsprechenden Probleme, diese Daten zu
159
00:13:59,120 --> 00:14:05,480
erfassen. Beim LogFi Geschichten müsste ich dann in dem Fall auf das Tracking aus dem CDN setzen,
160
00:14:05,480 --> 00:14:11,920
nicht aus den einzelnen Server. Session Erkennung, klar, wenn ich halt eben nicht auf Cookies setze,
161
00:14:11,920 --> 00:14:15,680
im Standard Tracking passiert das übers Fingerprinting. Im Background Tracking habe
162
00:14:15,680 --> 00:14:20,960
ich das über das System. Meistens habe ich ja so oder so im System die Variante, dass ich zum
163
00:14:20,960 --> 00:14:25,640
Beispiel eine Warenkopf-Funktionalität habe. Ich erkenne ja den Nutzer anhand der Session und
164
00:14:25,640 --> 00:14:29,360
damit habe ich auch eine wesentlich genauere Session-Erkennung, als ich das jemals mit
165
00:14:29,360 --> 00:14:34,200
Fingerprinting oder Ähnlichem hinbekommen könnte. Und beim LogFi Analytics, da brauchen wir gar nicht
166
00:14:34,200 --> 00:14:38,480
drüber nachzudenken, da wird irgendwie versucht gemacht, aus der IP-Adresse dem User Agent
167
00:14:38,480 --> 00:14:44,160
irgendwie grob herauszufinden, ob das eine zusammenhängende Session sein könnte oder nicht.
168
00:14:44,160 --> 00:14:48,880
LogFi Tracking ist immer eine schöne Parallelvariante, um erstmal überhaupt Gefühle
169
00:14:48,880 --> 00:14:53,640
für zu bekommen, was uns im Standard Tracking möglicherweise abhanden geht, um einfach eine
170
00:14:53,640 --> 00:14:58,760
Größenordnung und Zielgrößenordnung halt eben mal zu ermitteln. Und das ohne den Aufwand zu
171
00:14:58,760 --> 00:15:03,640
betreiben, das Ganze innerhalb des Systems möglicherweise zu integrieren. Integration,
172
00:15:03,640 --> 00:15:09,120
klar, Standard JavaScript Code einfach einbinden, fertig ist die Laube. Bei dem Background Tracking
173
00:15:09,120 --> 00:15:15,120
muss das in der Anwendung erfolgen. Ich habe ein fertiges Modul für das CMS Contaro entwickelt.
174
00:15:15,120 --> 00:15:20,920
Für WordPress bin ich ja relativ weit. Da müssen noch ein paar Tests gemacht werden.
175
00:15:20,920 --> 00:15:26,360
Da sind so viele Unwägbarkeiten mit Erweiterungen, die reinkommen, die dann halt in diese Erweiterung
176
00:15:26,360 --> 00:15:30,840
von mir, die ich entwickelt habe, stören könnten. Da müssen wir halt noch ein paar Tests machen.
177
00:15:30,840 --> 00:15:35,520
Wer Interesse an dieser Erweiterung hat, kann sich gerne bei mir melden. Dann können wir mal
178
00:15:35,520 --> 00:15:41,000
gucken, dass wir da einen kleinen Test mitmachen. Und beim LogFi Importing, klar, da muss das Ganze
179
00:15:41,000 --> 00:15:46,600
halt im Lokal aufgesetzt werden, dass die LogFi Importing wird. Kommen wir zu dem wichtigen
180
00:15:46,600 --> 00:15:52,920
Punkt der Erkennung der Bots. Wir haben erstmal grundsätzlich die Situation, innerhalb des
181
00:15:52,920 --> 00:15:58,480
Webs kommen gerade mal so um die 50 Prozent, vielleicht auch 60 Prozent des Traffic, der
182
00:15:58,480 --> 00:16:05,080
echt durch Menschen erfolgt. Ein großer Anteil von 22, 25 Prozent sowas in den Dreh kommt von
183
00:16:05,080 --> 00:16:09,680
unschädlichen Bots. Unschädliche Bots sind also zum Beispiel der Google Bot selber, der Bing Bot,
184
00:16:09,680 --> 00:16:14,680
Yandex und wie sie nicht alle heißen, aber auch die ganzen anderen Dienste wie SysTricks, wie
185
00:16:14,680 --> 00:16:20,200
Ksovi oder anderen Diensten, die halt eben die Webseiten durchkennen oder halt und auch wir selber
186
00:16:20,200 --> 00:16:25,680
im Zweifelsfall mit Screaming Frog oder sowas. All die Bots, die sich halt eben selber anhand des
187
00:16:25,680 --> 00:16:30,880
User Agent Strings identifizierbar machen, dass sie halt eben Bots sind, können wir als unschädliche
188
00:16:30,880 --> 00:16:35,960
Bots identifizieren oder auswerten in der Form, dass wir sagen, ja, wir können die halt sowieso
189
00:16:35,960 --> 00:16:42,920
sofort ausfiltern und wir wissen, was dort passiert und alles ist gut. Der große Punkt, der wichtig ist,
190
00:16:42,920 --> 00:16:47,440
den wir kennen sollten, der aber grundsätzlich, egal ob bei Google Analytics, Matomo, Standard
191
00:16:47,440 --> 00:16:52,880
Tracking oder ähnlichem ist, das sind diese Impersonator Bots. Das sind etwa 25, 26 Prozent
192
00:16:52,880 --> 00:16:59,280
sowas in den Dreh des Traffics, gehen auf solche Bots. Die tun so, als wenn sie echte, ja, Menschen
193
00:16:59,280 --> 00:17:03,680
wären, die die Webseiten absuchen. Das heißt, der User Agent ist gefälscht logischerweise,
194
00:17:03,680 --> 00:17:09,400
als wäre es halt eben ein normaler Windows Rechner mit einem Chrome Browser und ähnlichen Geschichten.
195
00:17:09,400 --> 00:17:14,280
Er akzeptiert auch Cookies, Obsession Cookies, auch Langzeit Cookies. Diese Cookies werden
196
00:17:14,280 --> 00:17:19,760
teilweise auch über die Instanzen hinweg geteilt. Ich habe also teilweise Sachen gesehen, wo ich
197
00:17:19,760 --> 00:17:23,760
sagte so, dass diesen Menschen möchte ich echt gerne mal kennenlernen, der innerhalb von gerade
198
00:17:23,760 --> 00:17:30,200
mal 15 Minuten einmal aus Asien, einmal aus USA und einmal aus Schweden auf die Webseite zugreift
199
00:17:30,200 --> 00:17:33,760
und jedes Mal immer nur eine und dieselbe Seite und zwar nicht die Startseite, sondern irgendeine
200
00:17:33,760 --> 00:17:39,760
Unterseite. Und daran erkennen wir halt eben ganz klar, das sind halt eben diese Impersonator Bots,
201
00:17:39,760 --> 00:17:45,240
die so tun, als wenn sie Menschen wären, die machen auch Scroll-Events aus, die lösen auch
202
00:17:45,240 --> 00:17:50,840
Lesezeit-Trigger und solche Geschichten aus. Die klicken auch tatsächlich halt eben auf Buttons
203
00:17:50,840 --> 00:17:58,520
und lösen CTAs aus. Das heißt also, wir erkennen anhand des Verhaltens dieser Bots nicht, ob das
204
00:17:58,520 --> 00:18:03,920
wirklich Menschen sind oder ob das eben Bots sind. Die machen wirklich einen verdammt guten Job und
205
00:18:03,920 --> 00:18:09,640
die nerven uns in den Statistiken. Ich habe hier von 2020 noch mal eine etwas aktualisierte Version
206
00:18:09,640 --> 00:18:14,280
von einem anderen Anbieter. Der geht halt eben davon aus, dass wir ebenfalls so um die 25 Prozent
207
00:18:14,280 --> 00:18:20,680
Bad Bots haben. Hier geht man von etwa 60 Prozent Humans aus. Die Werte, muss man jetzt immer wieder
208
00:18:20,680 --> 00:18:25,760
sagen, solche Statistiken sind immer gefärbt. Je nachdem, was für Zugriffe die Anbieter der
209
00:18:25,760 --> 00:18:30,520
Statistiken haben, sind die unterschiedlich. Deswegen, es kommt immer darauf an, schlussendlich,
210
00:18:30,520 --> 00:18:36,560
was auf eurer eigenen Webseite, die ihr überwachen wollt, identifizierbar ist und getrackt werden kann
211
00:18:36,560 --> 00:18:41,280
und dann muss man halt eben die Sachen machen. Ich habe hier mal einen kleinen Vergleich mitgebracht,
212
00:18:41,280 --> 00:18:46,840
was das Thema Impersonator Bots angeht. Dieser Vergleich ist ein bisschen unfair. Das ist meine
213
00:18:46,840 --> 00:18:53,400
eigene Webseite, die ich vom 31. August bis zum 19. September mal im Parallel-Tracking hatte,
214
00:18:53,400 --> 00:19:00,760
und zwar mit einer Matomo-Instanz, wo keinerlei Bot-Erkennung in den Griff war und eine Instanz,
215
00:19:00,760 --> 00:19:06,520
in der ich halt eben alles drin hatte, was ich auffahren konnte, eine manuell gepflegte IP-Adress-
216
00:19:06,520 --> 00:19:13,320
Ausschlussliste von Bot-Netzwerken und Ähnlichem. Der Unterschied sieht halt so aus. Die Kurve ist
217
00:19:13,320 --> 00:19:19,400
identisch, aber die Anzahl halt nicht. Ich habe also fast die Hälfte nur an realen Zugriffen,
218
00:19:19,400 --> 00:19:24,840
die ich halt eben identifizieren konnte, dass das halt wirklich Menschen waren. Der Rest sind
219
00:19:24,840 --> 00:19:30,280
tatsächlich halt eben solche Impersonator Bots gewesen, und die produzieren halt eben auch in
220
00:19:30,280 --> 00:19:35,760
den Seitenansichten gänzlich andere Werte für mich. Das heißt, die Daten, die ich hier habe,
221
00:19:35,760 --> 00:19:43,160
hinsichtlich Lesezeit, hinsichtlich Absprungrate und Ähnlichem, die sind komplett aus dem Ruder
222
00:19:43,160 --> 00:19:48,760
gelaufen, weil ich so viele Impersonator Bots darauf habe. Warum habe ich bei mir so viele? Das
223
00:19:48,760 --> 00:19:53,840
ist ja fast das Doppelte von dem, was ich an normalen Besuchern habe. Ich sagte, wie gesagt,
224
00:19:53,840 --> 00:19:58,920
dieser Vergleich ist so ein bisschen gemein. Bei meiner Webseite www.job.de verwende ich auch
225
00:19:58,920 --> 00:20:03,560
gleichzeitig als Weiterleitungsziel von über 100 anderen Domains, teilweise abgelaufenen
226
00:20:03,560 --> 00:20:09,400
Expired Domains, teilweise Domains, die ich halt eben selber mal von Projekten hatte, aber auch
227
00:20:09,400 --> 00:20:14,200
bestimmt an die 30, 40 Domains, die noch nie irgendwo in Erscheinung getreten sind,
228
00:20:14,200 --> 00:20:18,600
die ich mal registriert habe, die aber ansonsten nie irgendwo in Erscheinung getreten sind. Und
229
00:20:18,600 --> 00:20:23,800
trotzdem bekommen diese Domains massenhaft Besucher von Bots. Und deswegen nutze ich diese
230
00:20:23,800 --> 00:20:28,000
Webseite so ein bisschen als meinen kleinen Honeypot und kann darüber sehr schön halt eben
231
00:20:28,000 --> 00:20:33,000
IP-Adress-Segmente identifizieren, die ich halt eben dann zum Beispiel über WhoIs-Analysen und
232
00:20:33,000 --> 00:20:38,320
Ähnlichem herausfinde, ob diese Daten-Segmente oder diese IP-Adress-Segmente halt eben zu eher
233
00:20:38,320 --> 00:20:45,600
Netzwerkbetreibern dient oder nicht. Thema Erkennung der Bots allgemein. User-Agent ist halt eben eine
234
00:20:45,600 --> 00:20:49,920
freiwillige Angabe, das heißt, die kann definitiv gefälscht sein, darauf sollte ich mich nicht
235
00:20:49,920 --> 00:20:56,400
verlassen. Die Akzeptanz als Session-Cookies zu nutzen ist schwierig, weil erst beim zweiten
236
00:20:56,400 --> 00:21:01,960
Zugriff kann diese Variante halt eben geträgt werden, aber auch Bad-Bots akzeptieren wie gesagt
237
00:21:01,960 --> 00:21:06,520
diese Cookies und scheren die Cookies, verteilen diese Cookies über ihr gesamtes Netzwerk-Segment
238
00:21:06,520 --> 00:21:12,000
und schlussendlich bleibt uns nur die IP-Adresse und da müssen wir halt eben gucken, dass wir dort
239
00:21:12,000 --> 00:21:16,400
eigenständige Filter aufbauen. Problem an der Stelle ist, wir können halt eben die innen und
240
00:21:16,400 --> 00:21:21,080
statische IP-Adress-Segmente nicht so wirklich identifizieren und alles läuft im Endeffekt
241
00:21:21,080 --> 00:21:25,400
darauf hinaus, wenn ich so ein Background-Tracking machen will und die Daten sauber haben will. Ich
242
00:21:25,400 --> 00:21:30,440
muss immer wieder selber auf die Suche nach manuellen Mustererkennungen gehen, um das Ganze zu
243
00:21:30,440 --> 00:21:37,200
handhaben. An der Stelle möchte ich eine Erweiterung von Matomo ins Licht des Fokus richten, weil wenn
244
00:21:37,200 --> 00:21:43,020
ich mir die Downloads-Anzahl von der Tracking Spam Prevention angucke, die lediglich bei 1.828
245
00:21:43,020 --> 00:21:47,880
lag jüngst, als ich diesen Screenshot gemacht habe, dann ist das schon extrem wenig. Diese
246
00:21:47,880 --> 00:21:53,240
Erweiterung sollte eigentlich meiner Ansicht nach wirklich jeder in seiner Matomo Instanz installieren,
247
00:21:53,240 --> 00:21:58,800
weil ich habe hier nicht nur die Möglichkeit zu sagen, ich möchte IP-Adress-Segmente ausschließen,
248
00:21:58,800 --> 00:22:09,360
die beispielsweise von bekannten Cloud-Anbietern wie Oracle, Amazon, Azure Cloud und Ähnliches sind,
249
00:22:09,360 --> 00:22:14,960
da werden Listen automatisiert heruntergeladen. Die sind nicht vollständig, muss ich ganz klar
250
00:22:14,960 --> 00:22:19,720
dazu sagen, aber es ist erstmal schon mal ein sehr, sehr guter Ansatz. Und ich habe aber hier die
251
00:22:19,720 --> 00:22:26,200
Möglichkeit, über Exclude Countries etwas zu machen, um die Datenqualität zu erhöhen. Wenn ich
252
00:22:26,200 --> 00:22:30,120
zum Beispiel eine Webseite habe, wo es mich überhaupt nicht interessiert, ob die Nutzer
253
00:22:30,120 --> 00:22:37,000
aus China, aus den USA, aus Schweden oder Ähnlichem kommen, dann sollten wir aber gucken,
254
00:22:37,000 --> 00:22:43,120
dass diese Sache hier möglicherweise in die Exclude Countries eben mit aufgenommen wird.
255
00:22:43,120 --> 00:22:48,000
Alternativ die Variante, das Ganze umzudrehen, wenn ich sage, mich interessieren wirklich nur
256
00:22:48,000 --> 00:22:52,840
die Nutzer aus dem deutschsprachigen Raum, aus dem Dachraum, dann füge ich möglicherweise einfach
257
00:22:52,840 --> 00:22:59,320
nur hier in Deutschland, Österreich und Schweiz hinzu, möglicherweise noch Frankreich und England
258
00:22:59,320 --> 00:23:03,000
und ähnliche Geschichten, die halt so ein bisschen mehr reinkommen. Aber das sind die Kunden, die
259
00:23:03,000 --> 00:23:07,760
mich interessieren in meinem Logging und ich kann damit schon mal enorm viele log-volle Einträge
260
00:23:07,760 --> 00:23:14,120
halt eben eliminieren, basierend darauf, dass halt eben diese Geo-IP-Datenbank verhältnismäßig
261
00:23:14,120 --> 00:23:18,280
aktuell ist und halt eben verhältnismäßig gut funktioniert. Man muss dazu sagen, diese
262
00:23:18,280 --> 00:23:23,480
kostenfreie Datenbank von der BWIP, die standardmäßig bei Matomo mitinstalliert wird,
263
00:23:23,480 --> 00:23:28,320
beziehungsweise halt angeboten wird, ist aufgrund der Tatsache, es ist eine kostenfreie Variante,
264
00:23:28,320 --> 00:23:32,840
nicht immer hundertprozentig aktuell. Es gibt eine kostenpflichtige Variante, die ist wesentlich
265
00:23:32,840 --> 00:23:37,360
aktueller. Es gibt auch den Dienst von MaxMind, die ist auch wesentlich aktueller. Für die
266
00:23:37,360 --> 00:23:42,000
Country-Erkennung ist meiner Ansicht nach diese kostenfreie Variante aber mehr als ausrangig.
267
00:23:42,000 --> 00:23:48,720
Und die zweite Variante ist halt eben die Liste der global ignorierten IP-Adressen halt wirklich
268
00:23:48,720 --> 00:23:54,000
selber zu pflegen. Ich habe hier an der Stelle wirklich mittlerweile eine Liste von über 1400
269
00:23:54,000 --> 00:23:59,400
IP-Adress-Segmenten, die ich identifiziert habe, die ich hier reinwerfe. Aber man muss dazu sagen,
270
00:23:59,400 --> 00:24:03,680
wenn ich so viele Daten hier drin habe, ist natürlich die Last von Matomo noch einen ganzen
271
00:24:03,680 --> 00:24:08,960
Ticken höher, weil bei jedem einzelnen Abruf muss ja geprüft werden, habe ich einen Blacklist-Ausschluss
272
00:24:08,960 --> 00:24:14,440
oder nicht. Schlussendlich, die manuelle Mustererkennung ist mit eines der wichtigsten
273
00:24:14,440 --> 00:24:19,520
Dingen. Wir müssen dann die IP-Adresse überprüfen und die Bereinigung der Log-Daten durchführen. Da
274
00:24:19,520 --> 00:24:26,400
hilft uns Matomo, indem wir halt eben diese DSGVO oder GDPR-Segmentbereinigung haben, wo ich dann
275
00:24:26,400 --> 00:24:31,960
sagen kann, ok, dieses IP-Adress-Segment möchte ich bitte löschen und dann werden diese gesamten
276
00:24:31,960 --> 00:24:37,200
Daten aus Matomo rausgenommen und ich kann damit halt entsprechend weitergehen. Dann sollte ich
277
00:24:37,200 --> 00:24:42,600
die Liste logischerweise aktualisieren und dieses IP-Segment dann entsprechend mit aufnehmen als
278
00:24:42,600 --> 00:24:48,800
Ausschlussvariante und in dem Zusammenhang möchte ich ganz kurz auf die Anonymisierung von IP-Adressen
279
00:24:48,800 --> 00:24:54,720
eingehen, denn wir müssen mal ganz kurz nachgucken, welche Einstellung hier für diesen Fall, dass ich
280
00:24:54,720 --> 00:24:59,120
so eine manuelle Mustererkennung machen möchte und die Daten auch bereinigen möchte, was ich
281
00:24:59,120 --> 00:25:04,800
für eine Einstellung nutzen wollte. Wenn ich ein Byte anonymisiere, dann packe ich im Endeffekt
282
00:25:04,800 --> 00:25:12,960
ein Cluster von 254 IP-Adressen zusammen und ich kann noch relativ genau sagen, ok, dieses IP-Adress-Segment
283
00:25:12,960 --> 00:25:18,240
liegt mit hoher Wahrscheinlichkeit nur im Einzugsbereich eines Dienstanbieters, eines
284
00:25:18,240 --> 00:25:24,040
Providers. Gerade bei Cloud-Anbietern, die haben meistens mindestens ein Class-C-Netz, also sprich
285
00:25:24,040 --> 00:25:30,960
254 IP-Adressen, die kann ich halt eben darüber relativ gut identifizieren, selbst wenn ich halt
286
00:25:30,960 --> 00:25:35,520
hinten die Variante mit der Null verwende, beziehungsweise ich gucke dann eben nach, wer
287
00:25:35,520 --> 00:25:39,720
gehörte in dieses gesamte IP-Adress-Segment und dann kann ich schon so ein bisschen darüber mehr
288
00:25:39,720 --> 00:25:44,600
Informationen bekommen. Wenn ich die Standardvariante, die empfohlen ist, bei Matomo belasse, das heißt
289
00:25:44,600 --> 00:25:52,360
diese 2-Byte-Variante, dann packe ich in dieses Cluster 65.000 IP-Adressen. Das ist definitiv zu
290
00:25:52,360 --> 00:25:57,840
viel. Also wenn ich diese Einstellung verwende in Matomo, kann ich es knicken, irgendwie versuchen
291
00:25:57,840 --> 00:26:05,720
zu wollen, zu identifizieren, ob dieser Zugriff aus einem IP-Adress-Segment gekommen ist,
292
00:26:05,720 --> 00:26:10,960
was zu einem Netzwerk-Providerdienst oder Ähnlichem, oder ob es ein Dial-In-Netzwerk ist, kann ich an
293
00:26:10,960 --> 00:26:14,680
der Stelle vollends vergessen. Und wenn wir auf 3-Byte gehen, da braucht man gar nicht drüber zu
294
00:26:14,680 --> 00:26:19,360
sprechen, das sind lieber 16 Millionen IP-Adressen, dann kann ich auch eigentlich diese
295
00:26:19,360 --> 00:26:25,240
Lockfall-Analytics-Geschichte bezogen auf die Besuchervarianten komplett integrieren.
296
00:26:25,240 --> 00:26:31,960
Die Datenschutzgeschichte hier unten, also in dem Fall jetzt für unsere Identifizierung für Bots
297
00:26:31,960 --> 00:26:37,320
und Ähnlichem, eher wenig interessant. Und worum geht es im Endeffekt? Im Endeffekt muss man halt
298
00:26:37,320 --> 00:26:42,080
in dieser manuellen Erkennung durch das Besucher-Lock durchgehen und schaut sich dann halt eben hier
299
00:26:42,080 --> 00:26:47,960
diese IP-Adress-Segmente an und nimmt die Würfte gegen die US-Datenbank und schaut sich das Ganze
300
00:26:47,960 --> 00:26:56,960
dann entsprechend an. Ja, damit komme ich eigentlich auch schon zum Resümee meines Vortrags. Wenn wir
301
00:26:56,960 --> 00:27:01,680
halt eben wirklich vollständige Besucher-Daten haben wollen, müssen wir auf das Background-Tracking
302
00:27:01,680 --> 00:27:07,040
setzen. Alternativ, mit einer geringeren Einstiegshürde, um erstmal zu gucken, was geht
303
00:27:07,040 --> 00:27:13,720
uns an Adblockern möglicherweise verloren, ist halt die Lockfall-Analytics. Problem an der Stelle,
304
00:27:13,720 --> 00:27:18,520
wenn ich die Lockfiles zu sehr anonymisiert habe von der IP-Adresse, das heißt also auch mehr als
305
00:27:18,520 --> 00:27:23,080
dieses Class-C-Segment, dann kann ich auch Matomo an der Stelle nicht die Chance überlassen,
306
00:27:23,080 --> 00:27:29,480
bestimmte Daten halt eben rauszufiltern anhand von dieser Tracking-Spam-Prevention-Variante oder halt
307
00:27:29,480 --> 00:27:34,880
eben auch der eigenen IP-Adress-Filtergeschichte. Wenn da halt eben ein Class-C-Netz oder ein
308
00:27:34,880 --> 00:27:40,160
Class-B-Netz halt eben nur anonymisiert ist, dann kann ich das mit den Lockfiles vergessen,
309
00:27:40,160 --> 00:27:45,560
um dann wirklich die Daten zu bereinigen. Ich werde Insights bekommen, ohne Frage,
310
00:27:45,560 --> 00:27:50,240
aber ich werde nicht wirklich identifizieren können, ob das halt eben normale User-Zugriffe
311
00:27:50,240 --> 00:27:57,480
waren, ohne halt eben eher Zugriffe aus Bordnetzwerken. Dadurch kann ich halt eben,
312
00:27:57,480 --> 00:28:00,680
wenn ich das mache, mit dem Background-Tracking oder Lockfile-Geschichten halt eben die Adblocker
313
00:28:00,680 --> 00:28:05,640
umgehen und muss aber gucken, wie sieht es dann halt eben mit den Anwendungsebenen aus, also sprich
314
00:28:05,640 --> 00:28:11,080
mit dem HTTP- und User-Caching, Anwendungscaching allgemein, das heißt, wo kann ich da halt überhaupt
315
00:28:11,080 --> 00:28:15,720
ansetzen, bringt mir das überhaupt was, dieses Background-Tracking zu entwickeln? Ich muss halt
316
00:28:15,720 --> 00:28:20,240
eben eine gute Strategie haben hinsichtlich der Borderkennung, die, wie ich schon gesagt habe,
317
00:28:20,240 --> 00:28:26,240
zum Großteil halt über IP-Adress-Filter läuft und meine Empfehlung an der Stelle immer paralleles
318
00:28:26,240 --> 00:28:31,680
Tracking von vorne, also sprich normales Tracking per JavaScript und das Tracking von hinten parallel
319
00:28:31,680 --> 00:28:36,720
durchführen, weil von vorne bekomme ich Insights, die ich nur mit erheblichem Aufwand durch das
320
00:28:36,720 --> 00:28:41,280
Background-Tracking bekomme. Es geht mir hier im Background-Tracking wirklich darüber oder
321
00:28:41,280 --> 00:28:47,080
vorrangig darum, mal für die jeweilige Webseite herauszufinden, was haben wir denn für einen
322
00:28:47,080 --> 00:28:52,200
Verlust in dem normalen Tracking, um gegebenenfalls das normale Tracking halt eben einfach mit dem
323
00:28:52,200 --> 00:28:58,120
entsprechenden Faktor x uns ein bisschen schön zu rechnen und dadurch trotzdem halt eben bessere
324
00:28:58,120 --> 00:29:02,040
Insights an der Stelle zu bekommen. Wir müssen auch wieder sagen, wenn ich die Sache von OMT
325
00:29:02,040 --> 00:29:08,600
mir angeguckt habe, dort ist keine Möglichkeit zu sagen, ich nehme jetzt einfach den Faktor 1,5,
326
00:29:08,600 --> 00:29:15,400
um halt eben dann zu berechnen, was ich an Nutzern hätte. Mir gehen wirklich viel,
327
00:29:15,400 --> 00:29:21,200
viele Fakten verloren, die gerade im Bereich des Conversions oder auch des Performance-Marketings
328
00:29:21,200 --> 00:29:27,440
relevant sind, weil wenn ich wirklich den Benutzer verliere, der sehr viel mehr Page-Fuse generiert,
329
00:29:27,440 --> 00:29:32,160
der halt eben Umsatz generiert, der halt eben die Käufe macht, wenn ich den im Standard-Tracking
330
00:29:32,160 --> 00:29:37,200
nicht drin habe, aber ich kann den im Background-Tracking erfassen, dann ist das eine ganz andere
331
00:29:37,200 --> 00:29:42,720
Thematik, auf der ich dann halt eben auch meine Google-Ads-Investitionen halt eben anders
332
00:29:42,720 --> 00:29:48,440
steuern könnte, weil ich vielleicht wirklich sehe, dass die Anzeige A gänzlich besser performt,
333
00:29:48,440 --> 00:29:53,240
als die Anzeige B, wie ich es normal aus dem Standard-Tracking herausnehmen könnte. Also von
334
00:29:53,240 --> 00:29:59,480
daher gucken, wie sieht es aus. Dann halt ganz klar das Thema Privacy by Design durchführen,
335
00:29:59,480 --> 00:30:03,680
wie sieht es mit dem User-Consent aus, dass wir halt eben die Daten wirklich vollständig
336
00:30:03,680 --> 00:30:08,160
anonymisieren und natürlich klar unseren Matomo-Instance auf einem eigenen Server
337
00:30:08,160 --> 00:30:12,560
betreiben und dann könnte das Ganze, je nachdem, wie wir es halt eben mit unserem
338
00:30:12,560 --> 00:30:18,520
Datenschutzbeauftragten besprechen, dann halt auch gut funktionieren. Ja, ich würde mal sagen,
339
00:30:18,520 --> 00:30:22,800
halbe Stunde Talk, halbe Stunde Punktlandung und von daher sage ich an der Stelle schon mal,
340
00:30:22,800 --> 00:30:27,560
meinen herzlichen Dank und ja, freue mich jetzt auf Fragen, die reinkommen würden.
341
00:30:27,560 --> 00:30:32,840
Genau, jetzt wäre der Zeitpunkt für alle, falls ihr irgendwelche Fragen, Kommentare,
342
00:30:32,840 --> 00:30:37,240
sonstige Dinge zu dem Thema habt. Eine Frage-Diskussion hat es schon gegeben,
343
00:30:37,240 --> 00:30:41,480
die hätte ich ja auch gestellt, ansonsten, damit könnte man vielleicht gleich mal anfangen,
344
00:30:41,480 --> 00:30:47,080
ist ein bisschen das Thema Datenschutz, Opt-out und so weiter. Das Problem ist ja,
345
00:30:47,080 --> 00:30:51,840
mit der normalen JavaScript-Rap-King ist es relativ simpel, ein Opt-out zu machen,
346
00:30:51,840 --> 00:30:57,400
weil man setzt ein Cookie, das funktioniert einfach mit der Matomo-Funktion und damit ist es
347
00:30:57,400 --> 00:31:01,960
relativ straight forward. Beim Background-Tracking muss man das ja mehr oder weniger selber
348
00:31:01,960 --> 00:31:06,680
implementieren, wie wir das uns dann vorstellen. Im Background-Tracking muss so oder so alles
349
00:31:06,680 --> 00:31:10,600
selber integriert werden, aber genau dort kann ich natürlich auch selbst auf den JavaScript
350
00:31:10,600 --> 00:31:15,560
gesetzten Cookie halt eben zurückgreifen und interpretieren, ob ich das halt eben nutzen darf,
351
00:31:15,560 --> 00:31:21,320
nutzen will. An der Stelle muss man aber natürlich auch sagen, dass das Background-Tracking ist eine
352
00:31:21,320 --> 00:31:28,760
rein technische Ansatz, der prinzipiell die Daten erst mal zur Verfügung stellt. Wie wir das Ganze
353
00:31:28,760 --> 00:31:32,720
hinsichtlich des Datenschutzes dann handhaben, das ist immer noch eine zweite Frage. Ich wollte
354
00:31:32,720 --> 00:31:36,880
jetzt erst mal nur die grundsätzliche Idee, dass das Background-Tracking halt eben der
355
00:31:36,880 --> 00:31:41,720
Möglichkeit an Daten herankommen präsentieren. Aber ja, wenn wir wirklich über ein Opt-out
356
00:31:41,720 --> 00:31:47,960
sprechen und halt eben diese Daten wirklich benötigen oder das nötigerweise umsetzen müssen,
357
00:31:47,960 --> 00:31:51,160
dann ist es richtig, dann kann man das über ein Cookie machen und den kann ich in der
358
00:31:51,160 --> 00:32:02,520
Anwendung dann auch beliebig auswählen. Okay. Ja, wenn es keine weiteren Fragen gibt...
359
00:32:02,520 --> 00:32:07,480
Wir lassen den Leuten mal ein bisschen Zeit, das ist ein bisschen Verzögerung zwischen dem,
360
00:32:07,480 --> 00:32:16,280
was wir hier reden, bis die Leute das sehen. Ja. Entweder habe ich alles so wunderschön
361
00:32:16,280 --> 00:32:21,360
erklärt oder keiner traut sich. Ach doch, da tippt jemand. Ah ja, perfekt.
362
00:32:21,360 --> 00:32:31,000
Auch ansonsten, ihr könnt mich gerne bei LinkedIn und Facebook kontaktieren und da auch jederzeit
363
00:32:31,000 --> 00:32:37,160
gerne Fragen stellen. Ich stehe da gerne mit Rat und Tat zur Verfügung. Genau. Und falls ihr in den
364
00:32:37,160 --> 00:32:41,120
nächsten Stunden auf irgendwas draufkommt, der Chatraum bleibt da offen, da ist nur für den einen
365
00:32:41,120 --> 00:32:49,760
Talk, da kann man während des ganzen Matomo-Camps einfach weiter reden. Genau. Eine Frage aus dem
366
00:32:49,760 --> 00:32:56,800
Chatraum. Gerade hast du Erfahrungen mit Hybridansätzen? Ja, ich habe zwei Ansätze
367
00:32:56,800 --> 00:33:03,160
jetzt momentan gerade in der Vorplanung, wo wir halt eben das normale Tracking ohne User-Consent
368
00:33:03,160 --> 00:33:08,040
umsetzen wollen und zusätzlich dann halt eben den entsprechenden User-Cookie setzen wollen,
369
00:33:08,040 --> 00:33:12,000
wenn der User-Consent vorhanden ist, ist in der Planung, aber ich habe da noch keine Erfahrungswerte.
370
00:33:12,000 --> 00:33:19,160
Tracking für die MP3-Abrufe. Das wird mehr oder weniger wahrscheinlich eher nur eine Variante
371
00:33:19,160 --> 00:33:27,480
sein, das entweder über Lockfall Analytics zu lösen oder aber du schaltest die Analyse oder
372
00:33:27,480 --> 00:33:32,680
besser die Bereitstellung der MP3-Geschichten, zum Beispiel über einen PHP-Redirector, der halt
373
00:33:32,680 --> 00:33:38,760
eben an sich als virtuelles Verzeichnis quasi funktioniert und dann die Daten halt eben in
374
00:33:38,760 --> 00:33:43,440
Empfang nimmt, die Abrufe in Empfang nimmt, die Requests und das dann halt eben auch dann genauso
375
00:33:43,440 --> 00:33:48,400
an die Matomo-RPI schickt als entsprechenden Request. Das lässt sich also problemlos lösen.
376
00:33:48,400 --> 00:33:56,800
Können wir gerne mal drüber sprechen. Genau, ein Proxy-Script. Genau. Genau, so etwas hätte ich auch
377
00:33:56,800 --> 00:34:03,120
vorgeschlagen. Eine Frage ist mir auch noch gekommen, die jetzt nicht im Chat gestellt wurde und zwar
378
00:34:03,120 --> 00:34:08,960
der ein Problem, was ich bei Background-Tracking ein bisschen sehe, ist, wenn wir zum Beispiel eine
379
00:34:08,960 --> 00:34:14,120
ganz normale, ganz simple PHP-Seite haben, dann würde das heißen, jedes Mal, wenn diese PHP-Seite
380
00:34:14,120 --> 00:34:21,480
aufgerufen wird, wird eine Anfrage an Matomo-Server geschickt und das Problem ist, im Gegensatz zum
381
00:34:21,480 --> 00:34:27,400
JavaScript-Tracking heißt es, wenn man das jetzt falsch programmiert, dass der Background-Server wartet,
382
00:34:27,400 --> 00:34:32,960
bis er die Antwort von Matomo bekommt und erst dann die Anfrage an den Benutzer fertig schickt und
383
00:34:32,960 --> 00:34:39,040
somit eigentlich der Seitenaufruf etwas langsamer wird. Ja, das ist die Standard-Fehlerproblematik an dem
384
00:34:39,040 --> 00:34:44,360
Thema, aber man kann das Ganze insofern umgehen. Das mache ich zumindest so, dass ich die
385
00:34:44,360 --> 00:34:50,480
Datensammlung innerhalb des Standard-Prozesses für die Seitengenerierung mache, aber erst nachdem im
386
00:34:50,480 --> 00:34:56,400
Endeffekt der, ja, ob Flash funktioniert, das heißt also die gesamte HTML-Ausgabe an den Kunden
387
00:34:56,400 --> 00:35:04,280
ausgeliefert wurde, kommt dann im Endeffekt als letzter Task der API Connect zum Matomo. Variante 1,
388
00:35:04,280 --> 00:35:08,160
dann habe ich im Endeffekt die Situation, dass zwar der Prozess noch ein tippen länger läuft,
389
00:35:08,160 --> 00:35:13,080
aber die Session zum Browser ist bereits eben geschlossen und dementsprechend bekommt der
390
00:35:13,080 --> 00:35:17,800
Nutzer von diesem Request nicht mehr mit. Die zweite Variante ist es, diese gesamten Daten,
391
00:35:17,800 --> 00:35:22,400
also die gesamten Tracking-Informationen selber sich in eine Datenbank zu schreiben. Da bin ich
392
00:35:22,400 --> 00:35:29,440
gerade dabei, das mal durchzuspielen und dann mit einem separaten Prozess die Daten aus der
393
00:35:29,440 --> 00:35:33,480
Datenbank zu nehmen und dann gegen Matomo zu werfen. Dadurch, dass ich sowieso mit einem
394
00:35:33,480 --> 00:35:38,360
Schreibzugriff arbeiten muss, mit dem API-Key, kann ich ja auch die Uhrzeit des Zugriffes
395
00:35:38,360 --> 00:35:43,000
nachträglich setzen, habe dann zwar einen griffelsten zeitlichen Verzug, habe keine Echtzeitanalyse an
396
00:35:43,000 --> 00:35:48,280
der Stelle in Matomo, sondern halt eben ein, zwei Minuten verzögert, aber das scheint mir gerade
397
00:35:48,280 --> 00:35:53,520
für High-Traffic-Seiten die elegantere Variante, dass ich wirklich mein Logging im Endeffekt nur
398
00:35:53,520 --> 00:35:59,560
in eine lokale MySQL-Datenbank oder wie auch immer Datenbank halt eben speichere und von dort aus das
399
00:35:59,560 --> 00:36:06,320
Ganze wieder raushole und gegen Matomo werfe. Eine Lösung, die ich dann auch noch hätte,
400
00:36:06,320 --> 00:36:10,800
das geht in PHP leider relativ schlecht, aber in anderen Programmiersprachen wäre es zum
401
00:36:10,800 --> 00:36:16,440
Beispiel auch eine Möglichkeit, einfach wirklich, dass das Server mehrere Prozesse hat und dann
402
00:36:16,440 --> 00:36:21,480
einfach das Abschicken der Daten an Matomo in einem separaten Thread auslagert und dann halt
403
00:36:21,480 --> 00:36:25,720
wirklich komplett unabhängig von der Anfrage an den Benutzern ist. Weil der muss ja nicht warten,
404
00:36:25,720 --> 00:36:30,440
weil man braucht die Informationen davon ja nicht, um den Benutzern seine Daten schicken zu können.
405
00:36:30,440 --> 00:36:34,120
Genau, aber das kann man in PHP genauso machen, da kann ich auch ein Thread einfach auslagern.
406
00:36:34,120 --> 00:36:37,120
Genau.
407
00:36:37,120 --> 00:36:44,960
Ja, wie gesagt, wenn noch weitere Fragen sind, gerne jederzeit Kontakt aufnehmen bei LinkedIn,
408
00:36:44,960 --> 00:36:49,200
Facebook oder über meine Webseite selber. Gerne auch auf meiner Webseite einen Termin
409
00:36:49,200 --> 00:36:54,320
buchen für eine Besprechung, dann können wir uns halt eben individuell euren Bedarf auch gerne ansehen.
410
00:36:54,320 --> 00:37:03,800
Ansonsten, falls es keine Fragen mehr gibt und es zu Ende kommt, kann ich mal kurz ankündigen,
411
00:37:03,800 --> 00:37:09,760
was es um 11 Uhr gibt. Um 11 Uhr haben wir wieder zwei Events. Einerseits könnt ihr
412
00:37:09,760 --> 00:37:17,200
in Livestream Raum 1 wechseln, wo Jörg Paul das darüber reden wird, wie man sehr,
413
00:37:17,200 --> 00:37:21,400
sehr große Matomo-Instanzen, also wirklich aus der Sicht von Schweden,
414
00:37:21,400 --> 00:37:26,400
schwedische Steuerbehörde oder solche, also wirklich Matomo-Instanzen, die viele Millionen
415
00:37:26,400 --> 00:37:32,040
Seitenaufrufe im Monat bekommen, wie man das selberseitig trotzdem noch händeln kann,
416
00:37:32,040 --> 00:37:39,560
dass man die Last schafft. Oder ihr wechselt zu dem interaktiven Workshop von Thomas Zeithammel
417
00:37:39,560 --> 00:37:44,280
im Workshop Raum. Da geht es auf Deutsch weiter und ihr könnt darüber reden,
418
00:37:44,280 --> 00:37:49,920
wie man Matomo richtig für Search Engine Optimization nutzt. Das wären jetzt um 11 Uhr
419
00:37:49,920 --> 00:37:55,080
die zwei Möglichkeiten. Ansonsten, danke, Jachim, für den netten Vortrag.
420
00:37:55,080 --> 00:38:02,080
Gerne. Und ja, noch viel Spaß bei Matologen.