WebCare Roboter untersucht mit Lupe die Website auf einem Bildschirm, wie es der Webcrawler macht

Webcrawler » Voll­automatisiertes Consent Management

Webcrawler

Laut Wikipedia: Ein Webcrawler (auch Spider, Searchbot oder Robot) ist ein Computerprogramm,
das automatisch das World Wide Web durchsucht und Webseiten analysiert.

Der Crawler von WebCare kann sogar noch mehr.

Crawler: Untersuchung

WebCare durchleuchtet deine Website

Unsere Technologie verwendet einen mehrstufigen Prozess um deine Website komplett zu scannen. Dabei können wir sogar geschützte Bereiche untersuchen – natürlich unter strengster Beachtung aller Datenschutzauflagen.

Normale Crawler benötigen mehrere Wochen, um alle Unterseiten einer komplexen Website (wie zum Beispiel die Artikel eines Webshops) zu untersuchen. Durch unsere innovative Technologie erledigen wir das in ein paar Stunden – und bleiben dadurch automatisch immer aktuell.

Während Konkurrenzprodukte die Performance deiner Website belasten können, bleiben deine Server völlig unbehelligt von WebCare und können ausschließlich für deine Kunden arbeiten.

Flowchart über die Wege des Webcrawlers dargestellt mit kleinen Symbolen und bunten Pfeilen

Crawler: Datenbank

Aktualisierung: Cookie Policy & Datenschutz­erklärung

Die Privacy Compliance Datenbank von DataReporter ist die Quelle für deine Datenschutzerklärung und/oder deine Cookie Policy. Sie umfasst mehr als 40.000 kategorisierte Cookies über 2.500 Regeln zur Kategorisierung, über 500 datenschutzrelevante Module (beschriebene Plugins, Tools, …) sowie weit über 500 Hersteller weltweit. Und sie wächst immer noch weiter.

Die Beschreibungen zu den Modulen werden periodisch juristisch geprüft und überarbeitet, damit deine Datenschutzerklärung immer auf dem neuesten Stand ist.

 

Crawler: Auswertung Cookies

Cookies » kategorisiert & beschrieben

Der Scan der Website liefert alle benötigten Daten – und mit unserer Datenbank sind wir in der Lage diese auszuwerten.

Alle gefundenen Cookies werden automatisch kategorisiert und nach Zweck sortiert. Das Ergebnis fügen wir dann in den Banner und in die Cookie-Erklärung ein. Unsere Cookie-Datenbank umfasst bereits mehr als 40.000 verschiedene Cookies und 2.500 Regeln zur Kategorisierung. Außerdem unterstützt uns eine Künstliche Intelligenz bei der Kategorisierung von Cookies, die wir noch nie gesehen haben.

Crawler: Auswertung Module

Plugins von Drittherstellern

Eine moderne Website kommt kaum ohne Drittanbieter-Plugins aus. Statistische Auswertungen mittels Google Analytics oder Videos über Youtube einbinden – all das findet man auf beinahe jeder Website.

Wir untersuchen alle eingebundenen Skripte, Styles, iFrames und Sourcecodes auf deiner Seite und ermitteln mit einem ausgeklügelten Algorithmus welche Module aktiv sind. Für jedes dieser Module haben unsere Juristen eine Modulbeschreibung in deutsch und englisch geschrieben, die dann automatisch in die Datenschutzerklärung eingefügt wird.

So entsteht eine Datenschutzerklärung, die genau auf deine Website zugeschnitten ist und immer auf aktuellem Stand ist. So wie es sein muss.