Wer eine Webseite (und damit schließe ich natürlich auch Blogs, Portale und Shops ein) betreibt, der ist in den meisten Fällen auch daran interessiert, dass diese besucht wird. Die Maxime dabei lautet normalerweise: “Je mehr Besucher, umso besser!”
Um bessere Suchmaschinen-Rankings, zufriedenere Nutzer und bessere Klickraten zu erreichen, gibt es einige Faktoren, die man messen kann und auf dessen Ergebnissen man Optimierungspotenzial erkennen kann. Wer nicht gleich einen Haufen an Geld an einen SEO überweisen möchte, sondern erst einmal selbst Hand anlegen möchte, der kann sich einiger Tools im Netz bedienen, die einem (Teile) dieses Optimierungspotenzials aufzeigen. Eines davon ist der Service von www.urlauskunft.de.
Bevor es mit der Vorstellung weiter geht, möchte ich noch schnell ein paar Worte zu obigem SEO-Satz verlieren. Ja er ist bissig, aber nein, ich habe nichts gegen professionelle SEOs und das soll sicherlich auch kein Rant gegen SEOs werden. Je nach Motivation stehen die Ausgaben für einen echten SEO jedoch in keinem Verhältnis zu den persönlichen Zielen, sodass selber optimieren zielführender sein kann, als eine teure, professionelle Optimierung.
Wie funktioniert urlauskunft.de?
Doch kommen wir wieder zurück zum eigentlichen Thema. Im Gegenteil zu anderen mir bekannten Analysetools geht urlauskunft.de einen abweichenden Weg. So analysiert urlauskunft.de nicht auf Anfrage/Bedarf, also in Echtzeit, sondern kontinuierlich im Hintergrund. Dafür nutzt der Dienst einen eigenen Crawler, der eine Webseite alle 3 Monate analysiert und wenn er auf der Seite Verweise zu anderen deutschen Webseiten findet, diese dann auch mit in den Analysejob aufnimmt.
Was können wir dem letzten Satz also entnehmen?
- urlauskunft crawlt und analysiert nur deutsche Seiten
- urlauskunft crawlt periodisch (3-Monatstakt)
- Da keine Chance besteht, eine bestimmte Seite ad-hoc crawlen und anlysieren zu lassen, muss die eigene Seite entweder schon vom Crawler erfasst worden sein oder man hat halt auf gut Deutsch “Pech gehabt”
Mein zweiter Blog, DerWirtschaftsinformatiker.de, ist bereits vom Crawler erwischt worden, sodass ich mich im Folgenden auf dessen Analyseergebnisse beziehen kann.
Doch bevor es losgeht, klären wir noch schnell die Frage, wo eigentlich die Daten herkommen. Nach eigenen Aussagen von Herrn Haack, der die Seite als “Freizeit-Projekt” betreibt, nutzt urlauskunft eine Mischung aus selbst gecrawlten Daten und Informationen, die über die API des Manhatten-Tools kommen.
Was und wie wird analysiert?
Wie eben schon angedeutet, möchte ich die Analyse-Ergebnisse anhand meines zweiten Blogs besprechen, der bereits vom urlauskunft Crawler erfasst wurde. Den kompletten Analyse-Bericht könnt ihr an dieser Stelle einsehen.
Insgesamt führt der Crawler derzeit 20 Prüfungen durch, die bestanden werden können. Dabei werden die einzelnen Ergebnisse mit farbigen Herzen(?!) markiert. Ein graues Herz bedeutet ein neutrales Ergebnis. Also eine Feststellung die nach Auffassung von urlauskunft weder positiven noch negativen Einfluss hat. Ein rotes Herz bedeutet, dass etwas gut umgesetzt ist und ein schwarzes Herz bedeutet, dass an dieser Stelle noch Optimierungspotenzial ist.
Analysiert werden folgende Themengebiete, die dann wiederum einzelne Prüfungen enthalten:
- Selbstdarstellung
- Erkannte Betreiberinformationen
- Auffindbarkeit für potenzielle Besucher
- Eigene Werbeaktivitäten
- Social Media Aktivitäten
- Struktur der Inhalte
- Technik Schnell-Check
- Aufbau der Webseite
- Verbindung
- Domain und Nameserver
- Themen-Analyse
- Liste der häufigsten Worte
Da dies eine ganze Menge ist, werde ich an dieser Stelle jetzt nicht auf jeden einzelnen Unterpunkt eingehen. Für ganz neugierige habe ich den kompletten Bericht für den getesteten Blog ja oben verlinkt.
Erfüllt die Seite ihren Zweck?
Nun stellt sich die Frage, kann ich mit den Informationen etwas anfangen oder ist das alles nicht zugebrauchen? Anhand der obigen Analyse meines Wirtschaftsinformatik Blogs lassen sich einige Verbesserungspotenziale erkennen, die ich auch aktiv angehen und verbessern kann (und werde).
Da wäre zum Beispiel die Tatsache, dass die Meta-Keywords sich nicht mit den passenden/häufigen/gewünschten Suchworten decken. Oder dass sich im Quelltext noch etliche HTML-Kommentare befinden, die im Endeffekt in einer Produktivumgebung nichts zu suchen haben, da sie, wenn auch nur minimal, die Ladezeiten beeinflussen und im Produktivumfeld einfach nicht benötigt werden.
Ein weiterer Punkt, den urlauskunft vorschlägt, ist die Verwendung von OpenGraph. Ok, das kann man meiner Meinung nach machen, muss man aber nicht. Derzeit kommt Facebook sehr gut klar und erkennt die passenden Inhalte meiner Seite. An diesem Punkt würde ich sagen, ist zwar ein gut gemeinter Rat, aber nicht 100% entscheidend.
Alles in allem, finde ich die Analyseergebnisse jedoch recht praktisch und aussagekräftig.
Was könnte an dem Angebot noch verbessert werden?
Trotz der warmen Worte gibt es dennoch ein paar Dinge, die meiner Meinung noch Verbesserungspotenial aufweisen und den Service von urlauskunft.de wesentlich verbessern würden.
- Die Seiten in Form eines regelmäßigen Crawlings zu analysieren, war bestimmt eine bewusste Entscheidung des Betreibers. Um jedoch mit den Werten effektiv arbeiten zu können und zu sehen, ob sich meine Anpassungen zur Verbesserung gelohnt haben, müssten die Statistiken eigentlich mehr als 4-mal im Jahr aktualisiert werden.
- Derzeit wird nur die Startseite gecrawlt. Es wäre jedoch schön, wenn mindestens eine Unterseite ebenfalls betrachtet werden würde. Ich habe auf meinem Blog auf der Startseite zum Beispiel nur Anreißer(-texte), die zum Weiterlesen animieren sollen. Die Medieneinbindung findet erst in der Artikel-Unterseite statt. Das bekommt der Crawler leider derzeit nicht mit und “wertet ab”, weil er keine Medien auf der Startseite gefunden hat.
- Es kann nur betrachtet werden, was der Crawler bereits kennt und erfasst hat. Es wäre schön, wenn man wenigstens die Url seiner Seiten einreichen könnte, sodass der Crawler diese dann bei Zeiten bearbeiten würden. Ansonsten kann es ja noch Wochen bis Monate dauern, bis der Crawler die eigene Seite irgendwann per Zufall erfasst.
Fazit
Alles in allem ist die urlauskunft ein solider Service, der im Gegensatz zu Konkurrenten wie woorank oder seitwert kostenlos ist und dies für eine beliebig große Anzahl an Analyseberichten. Vergleichbar mit einem Echtzeit-Analyse-Tool ist der Service zwar nicht, was ihn nicht unbedingt schlechter macht. Ich werde ihn mir auf jeden Fall als Alternative merken. Und sei es nur, um meine Webprojekte aus einer weiteren/anderen Perspektive zu betrachten. Jeder Crawler hat schließlich seine eigenen Algorithmen, Sichten und Techniken und ein Blick aus verschiedenen und vor allem vielen Perspektiven kann nie schaden.
Kann man selber nicht Webseiten analysieren lassen? Wonach werden die Webseiten denn überhaupt ausgesucht?
Ich fänd es schön, wenn man selber die eigene Homepage etc. überprüfen könnte….
LG
Die Frage habe ich mir (und auch in obigem Artikel indirekt) ja auch schon gestellt. Soweit ich das durchblicke, werden nur .de-Domains gecrawlt. Alle extern verlinkten .de-Domains auf einer Seite werden ebenfalls mit in den Crawler aufgenommen. Das ganze scheint mir etwas träge und willkürlich. :(
Nicht wirklich uninteressant, ich bleibe aber lieber bei http://smart.sistrix.com
Super Empfehlung, kaum zu glauben, dass es komplett kosteinfrei ist.
Ich war bei Woorank und war absolut nicht überzeugt von deren Leistung.
Daher fällt es mir schwer das alles zu Glauben.
Dennoch klingt es echt so gut, das ich schonwieder am überlegen bin, mich darauf einfach mal einzulassen :P
Grüße Tom