7

Der OnpageDoc im Test – gesunde SEO?

onpagedoc logoVor Kurzem las ich in einer der Facebookgruppen, in denen ich regelmäßig vorbeischaue, folgende Frage: “Welches SEO-Tool passt denn zu einem kleinen Unternehmen? [...]”

Wie in nebenstehendem Foto zu sehen ist, wollte der Fragesteller nur ungern mehr als 50€ pro Monat ausgeben, womit viele der etablierten Tools wie Sistrix, OnPage.org oder XOVI wegfallen.

facebook onpagedoc frage

In den Antworten auf die Frage wurde jedoch mehrmals der Service von OnpageDoc genannt, der in der Einsteigervariante mit gut 29,99€ zu Buche schlägt und damit um einiges günstiger als die Konkurrenz ist.

Da ich den Service bisher nicht kannte, der Website jedoch entnehmen konnte, dass die Möglichkeit besteht, einen kostenlosen Testaccount zu erstellen, habe ich dies zum Anlass für diesen Artikel hier genommen, um das Angebot von OnpageDoc für euch einmal unter die Lupe zu nehmen.

Wer ist der OnpageDoc und welche Krankheiten heilt er?

OnpageDoc.com ist noch ein relativ junges Produkt der Kölner SAC Solutions GmbH. Der Webseite zu folge befindet sich der Service derzeit noch in der Betaphase, was jedoch nicht heißt, dass das Produkt noch nicht verkauft und vermarktet wird.

Mittels des OnpageDoc (Doc im Sinne von Doktor), soll man seine eigenen Webseiten nach allen Regeln der SEO-Kunst überprüfen und analysieren lassen können. Aus den Analyseergebnissen wiederum leitet OnpageDoc dann konkrete Handlungsanweisungen ab, mittels derer man die Performance seines Webprojekts dann verbessern können soll.

Selbst sieht sich der OnpageDoc wohl als Konkurrent des etablierten Service OnPage.org, dessen Produkte bei 99,90€ liegen und somit rund 70€ weiter oben an der preislichen Fahnenstange platziert sind. Zumindest interpretiere ich das aus dem Werbeclip von OnpageDoc, in dem zum Ende hin ein “Superheld” vom Krankenwagen des OnpageDocs gerammt wird. Denn zufälligerweise hat OnPage.org auch einen Superhelden als Logo.

Willkommen in der Praxis OnpageDoc

Nachdem Anlegen des Testaccounts (oder der regulären Anmeldung) muss man als erstes eine Webseite anlegen, die man mit dem OnpageDoc bearbeiten will. (Später lassen sich, je nach Mitgliedschaft, weitere Seiten hinzufügen.) Das Anlegen der Webseite geschieht in vier einfachen Schritten.

onpagedoc projekt anlegen schritt 1Im ersten Schritt müssen der Projektname, der beliebig gewählt werden kann, und die Domain des Webprojekts angegeben werden. Zusätzlich, aber nicht verpflichtend, können die Start-URL, sprich die Seite, von wo aus der OnpageDoc seine Analyse starten soll, eine Sitemap sowie Benutzername und Passwort, falls die Seite durch .htaccess geschützt ist, angegeben werden. Das macht Sinn, falls man die Seite noch nicht Live geschaltet hat, aber schon einmal analysieren will, um später bestmöglich positioniert an den Start zu gehen.

onpagedoc projekt anlegen schritt 2Im zweiten Schritt müssen der Crawlumfang und die Robot-Einstellungen angegeben werden. Klingt erstmal kompliziert, ist aber eigentlich auch ganz einfach. Der Crawlumfang gibt an, wie und welche Seiten einer Domain analysiert werden sollen. Also z.B. nur die Hauptdomain (code-bude.net) oder nur ein Verzeichnis (code-bude.net/mein-unterprojekt) oder auch alle Subdomains (code-bude.net, xiverse.code-bude.net, en.code-bude.net, etc.).

Die Roboteinstellungen geben an, ob der OnpageDoc sich bei der Analyse an die Regeln und Einschränkungen der robots.txt halten soll. Diese regelt im Normalfall wie Crawler/Suchmaschinen die Seite indexieren darf. Für einen vollständigen Scan empfiehlt es sich jedoch die Einstellungen auf Standard zu lassen, wobei alle Seiten analysiert werden.

onpagedoc projekt anlegen schritt 3Im dritten Schritt können noch zusätzliche Robot-Regeln erfasst werden, die in der robots.txt nicht geführt sind. Weiter können bestimmte, einzelne Urls manuell ausgeschlossen werden.

Auch lässt sich einstellen, ob der OnpageDoc-Crawler Cookies akzeptieren oder ablehnen soll. So ließe sich analysieren, wie gut die Seite für Nutzer mit und Nutzer ohne Cookie Akzeptanz performt.

Im vierten und letzten Schritt erhält man eine Übersicht der in den vorherigen drei Schritten angelegten Informationen. Mittels eines Klicks auf den “Projekt anlegen”-Button wird das Projekt endgültig angelegt und der Crawler beginnt seine Arbeit. Dies kann je nach Auslastung und Uhrzeit wenige Stunden bis zu einem Tag dauern. Bei meinem Test dauerte der Initial-Scan rund 10 Stunden.

onpagedoc projekt anlegen schritt 4   onpagedoc projekt anlegen schritt 5   onpagedoc dashboard crawling

Was wird ausgewertet?

Ist der Scan abgeschlossen, findet man im Dashboard eine Übersicht aller Informationen, die der OnpageDoc gesammelt hat.

ONPAGEDOC DashboardDas Dashboard zeigt für jede Analysekategorie den aktuellen Status an. Die Visualisierungen sind nett anzusehen und geben einen klaren und verständlichen Überblick über die aktuelle Lage der Webseite.

Über die Menüleiste am oberen Seitenrand lassen sich alle Analyse-Punkte einzeln ansteuern und weiter auswerten. Zu den analysierten Punkten zählen:

  • Keyword-Analyse
  • Serverdaten
  • Meta-Analyse
  • Inhaltsanalyse
  • Backlinks
  • Interne Links
  • Bilder
  • Places
  • Struktur
  • Performance

Jeder dieser Punkte wartet wiederum mit einem weiteren Dashboard auf, über das dann die endgültigen Analyseergebnisse erreicht werden können. Klingt wieder kompliziert, ist aber in der Praxis eine wunderbare Möglichkeit von einem schnellen Überblick immer mehr und mehr ins Detail zu gehen.

Ebene 1 -> Haupt-Dashboard (Dashboard der Dashboards)

Ebene 2 -> Themen-Dashboard (z.B. Performance-Dashboard

Ebene 3 -> Einzelne Analysebereiche (Unterbereich/-Analysen zum Thema Performance.)

Ich werde in diesem Artikel nur vereinzelt auf die ganzen Unterkategorien eingehen, da dies sonst den Rahmen dieses Artikels hier sprengen würde. Exemplarisch möchte ich einmal den Punkt “Meta” eingehen.

Ein Blick ins Detail

ONPAGEDOC   Meta   DashboardIm Meta-Dashboard bekommt man einen Überblick über alle Unterpunkte der Metaanalyse. Wie man nebenstehendem Screenshot entnehmen kann, kam der OnpageDoc auf einen Status von 86% für die Titel, 74% für Beschreibung, 100% für Robots Tag und 7% für Canonical, wobei 100% dem Idealzustand entspricht.

Unter dem Überblick bietet das Dashboard noch einen Graphen, der den Verlauf der eben genannten Punkte darstellt. Da einmal täglich gecrawlt wird, kann man hier ab dem zweiten Tag dann den Fortschritt und ggf. Verbesserungen feststellen.

Durch das Anklicken der einzelnen Elemente im Dashboard kommt man zu den Detailanalysen. Diese können auf Wunsch aber auch direkt über die Menüleiste angesteuert werden.

ONPAGEDOC   Meta   TitelDa der OnpageDoc nur 86% im Unterpunkt “Titel” anzeigt, wollen wir uns doch einfach mal diese Unteranalyse anschauen.

Im Titel-Dashboard selber finden wir zwei Diagramme, die uns anzeigen, wie viele Seiten gecrawlt wurden und wie viele davon keinen (=nicht gesetzt), einen zu kurzen oder einen zu langen Titel haben. Im zweiten Diagramm werden alle Seiten gelistet, die einen identischen Titel mit einer anderen Seite des Projekts haben.

ONPAGEDOC   Meta   Title TableUnter und über den Diagrammen befindet sich jeweils eine blaue Infobox, in der einem der OnpageDoc mit Ratschlägen zur Seite steht. Detaillierte Infos finden sich eigentlich bei jedem Analysepunkt ganz unten am Ende der Seite. Dort ist immer eine Box mit Links zu fundierten Fachartikeln, die beschreiben, wie man das jeweilige Thema am besten angeht.

Klickt man in den Diagrammen auf einen der Datenbalken, so kommt man zu einer Liste der Urls mit der entsprechenden Eigenschaft. Ein Klick auf den “zu kurz”-Balken bringt uns zum Beispiel zu folgender Tabelle. (Siehe nebenstehenden Screenshot.) Diese Tabelle kann man nun Seite für Seite abarbeiten und jeweils längere bzw. bessere Titel vergeben.

Fazit

Der OnpageDoc erweist sich als sehr umfangreiches Tool. Entgegen meiner Erwartung leidet die Übersichtlichkeit dabei jedoch kein Stück. Das Backend ist logisch aufgebaut und die einzelnen Analysen sind gut dokumentiert und erklärt.

Ich denke, dass auch SEO Einsteiger damit klarkommen dürften. Der Preis ist im Vergleich zu den Konkurrenz-Produkten wirklich günstig und meiner Meinung nach auch angemessen.

Das Einzige, was ich noch als etwas störend empfand, war die Tatsache, dass die Seite leider ab und zu sehr lange Ladezeiten hatte bzw. sich ab und zu verschluckt hat. Aber deshalb steht wohl auch das “Beta” noch dick und fett im Header.

Was sagt ihr zum OnpageDoc? Nutzt ihr selbst den Service, kanntet ihr ihn schon? Oder verwendet ihr ein ganz anderes Tool? Und wenn ja, warum?

8

Vielen Dank – Das Gewinnspiel ist vorbei

GeburtstagsgewinnspielVielen, vielen Dank! Wofür? Na für eure zahlreiche Teilnahme an meinem Geburtstagsgewinnspiel hier im Blog. Das Gewinnspiel war das allererste Gewinnspiel, welches ich in dem Stil hochgezogen habe und ich kann nur sagen: “Puh, da steckt ganz schön Arbeit drin!”

Als ich vor 2,5 Monaten mit der Planung für das Gewinnspiel begonnen habe, hätte ich nicht gedacht, dass sich das ganze als so zeitintensiv entwickelt. Planen, Kontakte knüpfen, Sponsoren suchen, Bloggen, Werbung gestalten, Werben, Auslosen, Kommunikation mit den Gewinnern – und jetzt – Gewinne verschicken. Und trotzdem würde ich das Ganze jederzeit wieder tun. Ich habe mich über euer Feedback gefreut, welches ich als Kommentare, auf Facebook aber auch ausführlich per Mail bekommen habe. Das zeigt einem, dass die Arbeit nicht umsonst war.

An dieser Stelle möchte ich nun auch noch einmal kurz allen Sponsoren danken, die das ganze Gewinnspiel maßgeblich erst ermöglicht haben. Danke dafür!

Und wie geht es jetzt weiter?

Solange die Gewinner auf Ihre Gewinne bzw. die Post warten, gibt es nun noch einmal die Einsendungen aus der Kreativaufgabe, unter denen sich die ein oder andere “Perle” dabei versteckt hat. (Um in den vollen “Genuss” zu kommen, klickt bitte jeweils auf das kleine Vorschaubildchen…)

code-bode_logo  UBgu9M4  code-bude-geburtstag  unbenannt1  Screenshot on 2014-03-17 at 21-27-03  code_bude

Gewinn erhalten?

Sobald ihr eure Preise erhalten habt, dürft ich dies auch gerne als Kommentar unter diesem Artikel kundtun, damit ich weiß, dass alles gut gelaufen ist. (Wer ganz jeck ist, der kann auch gerne ein Foto in “Ich bin ein glücklicher Gewinner”-Pose einsenden. Alles kann, nichts muss…)

Viele Grüße,
Raffael

5

Webseiten kostenlos analysieren und optimieren

urlauskunft startseiteWer eine Webseite (und damit schließe ich natürlich auch Blogs, Portale und Shops ein) betreibt, der ist in den meisten Fällen auch daran interessiert, dass diese besucht wird. Die Maxime dabei lautet normalerweise: “Je mehr Besucher, umso besser!”

Um bessere Suchmaschinen-Rankings, zufriedenere Nutzer und bessere Klickraten zu erreichen, gibt es einige Faktoren, die man messen kann und auf dessen Ergebnissen man Optimierungspotenzial erkennen kann. Wer nicht gleich einen Haufen an Geld an einen SEO überweisen möchte, sondern erst einmal selbst Hand anlegen möchte, der kann sich einiger Tools im Netz bedienen, die einem (Teile) dieses Optimierungspotenzials aufzeigen. Eines davon ist der Service von www.urlauskunft.de.

Bevor es mit der Vorstellung weiter geht, möchte ich noch schnell ein paar Worte zu obigem SEO-Satz verlieren. Ja er ist bissig, aber nein, ich habe nichts gegen professionelle SEOs und das soll sicherlich auch kein Rant gegen SEOs werden. Je nach Motivation stehen die Ausgaben für einen echten SEO jedoch in keinem Verhältnis zu den persönlichen Zielen, sodass selber optimieren zielführender sein kann, als eine teure, professionelle Optimierung.

Wie funktioniert urlauskunft.de?

Doch kommen wir wieder zurück zum eigentlichen Thema. Im Gegenteil zu anderen mir bekannten Analysetools geht urlauskunft.de einen abweichenden Weg. So analysiert urlauskunft.de nicht auf Anfrage/Bedarf, also in Echtzeit, sondern kontinuierlich im Hintergrund. Dafür nutzt der Dienst einen eigenen Crawler, der eine Webseite alle 3 Monate analysiert und wenn er auf der Seite Verweise zu anderen deutschen Webseiten findet, diese dann auch mit in den Analysejob aufnimmt.

Was können wir dem letzten Satz also entnehmen?

  1. urlauskunft crawlt und analysiert nur deutsche Seiten
  2. urlauskunft crawlt periodisch (3-Monatstakt)
  3. Da keine Chance besteht, eine bestimmte Seite ad-hoc crawlen und anlysieren zu lassen, muss die eigene Seite entweder schon vom Crawler erfasst worden sein oder man hat halt auf gut Deutsch “Pech gehabt”

Mein zweiter Blog, DerWirtschaftsinformatiker.de, ist bereits vom Crawler erwischt worden, sodass ich mich im Folgenden auf dessen Analyseergebnisse beziehen kann.

Doch bevor es losgeht, klären wir noch schnell die Frage, wo eigentlich die Daten herkommen. Nach eigenen Aussagen von Herrn Haack, der die Seite als “Freizeit-Projekt” betreibt, nutzt urlauskunft eine Mischung aus selbst gecrawlten Daten und Informationen, die über die API des Manhatten-Tools kommen.

Was und wie wird analysiert?

urlauskunft derwirtschaftsinformatiker.deWie eben schon angedeutet, möchte ich die Analyse-Ergebnisse anhand meines zweiten Blogs besprechen, der bereits vom urlauskunft Crawler erfasst wurde. Den kompletten Analyse-Bericht könnt ihr an dieser Stelle einsehen.

Insgesamt führt der Crawler derzeit 20 Prüfungen durch, die bestanden werden können. Dabei werden die einzelnen Ergebnisse mit farbigen Herzen(?!) markiert. Ein graues Herz bedeutet ein neutrales Ergebnis. Also eine Feststellung die nach Auffassung von urlauskunft weder positiven noch negativen Einfluss hat. Ein rotes Herz bedeutet, dass etwas gut umgesetzt ist und ein schwarzes Herz bedeutet, dass an dieser Stelle noch Optimierungspotenzial ist.

Analysiert werden folgende Themengebiete, die dann wiederum einzelne Prüfungen enthalten:

  • Selbstdarstellung
  • Erkannte Betreiberinformationen
  • Auffindbarkeit für potenzielle Besucher
  • Eigene Werbeaktivitäten
  • Social Media Aktivitäten
  • Struktur der Inhalte
  • Technik Schnell-Check
  • Aufbau der Webseite
  • Verbindung
  • Domain und Nameserver
  • Themen-Analyse
  • Liste der häufigsten Worte

Da dies eine ganze Menge ist, werde ich an dieser Stelle jetzt nicht auf jeden einzelnen Unterpunkt eingehen. Für ganz neugierige habe ich den kompletten Bericht für den getesteten Blog ja oben verlinkt.

Erfüllt die Seite ihren Zweck?

Nun stellt sich die Frage, kann ich mit den Informationen etwas anfangen oder ist das alles nicht zugebrauchen? Anhand der obigen Analyse meines Wirtschaftsinformatik Blogs lassen sich einige Verbesserungspotenziale erkennen, die ich auch aktiv angehen und verbessern kann (und werde).

Da wäre zum Beispiel die Tatsache, dass die Meta-Keywords sich nicht mit den passenden/häufigen/gewünschten Suchworten decken. Oder dass sich im Quelltext noch etliche HTML-Kommentare befinden, die im Endeffekt in einer Produktivumgebung nichts zu suchen haben, da sie, wenn auch nur minimal, die Ladezeiten beeinflussen und im Produktivumfeld einfach nicht benötigt werden.

Ein weiterer Punkt, den urlauskunft vorschlägt, ist die Verwendung von OpenGraph. Ok, das kann man meiner Meinung nach machen, muss man aber nicht. Derzeit kommt Facebook sehr gut klar und erkennt die passenden Inhalte meiner Seite. An diesem Punkt würde ich sagen, ist zwar ein gut gemeinter Rat, aber nicht 100% entscheidend.

Alles in allem, finde ich die Analyseergebnisse jedoch recht praktisch und aussagekräftig.

Was könnte an dem Angebot noch verbessert werden?

Trotz der warmen Worte gibt es dennoch ein paar Dinge, die meiner Meinung noch Verbesserungspotenial aufweisen und den Service von urlauskunft.de wesentlich verbessern würden.

  • Die Seiten in Form eines regelmäßigen Crawlings zu analysieren, war bestimmt eine bewusste Entscheidung des Betreibers. Um jedoch mit den Werten effektiv arbeiten zu können und zu sehen, ob sich meine Anpassungen zur Verbesserung gelohnt haben, müssten die Statistiken eigentlich mehr als 4-mal im Jahr aktualisiert werden.
  • Derzeit wird nur die Startseite gecrawlt. Es wäre jedoch schön, wenn mindestens eine Unterseite ebenfalls betrachtet werden würde. Ich habe auf meinem Blog auf der Startseite zum Beispiel nur Anreißer(-texte), die zum Weiterlesen animieren sollen. Die Medieneinbindung findet erst in der Artikel-Unterseite statt. Das bekommt der Crawler leider derzeit nicht mit und “wertet ab”, weil er keine Medien auf der Startseite gefunden hat.
  • Es kann nur betrachtet werden, was der Crawler bereits kennt und erfasst hat. Es wäre schön, wenn man wenigstens die Url seiner Seiten einreichen könnte, sodass der Crawler diese dann bei Zeiten bearbeiten würden. Ansonsten kann es ja noch Wochen bis Monate dauern, bis der Crawler die eigene Seite irgendwann per Zufall erfasst.

Fazit

Alles in allem ist die urlauskunft ein solider Service, der im Gegensatz zu Konkurrenten wie woorank oder seitwert kostenlos ist und dies für eine beliebig große Anzahl an Analyseberichten. Vergleichbar mit einem Echtzeit-Analyse-Tool ist der Service zwar nicht, was ihn nicht unbedingt schlechter macht. Ich werde ihn mir auf jeden Fall als Alternative merken. Und sei es nur, um meine Webprojekte aus einer weiteren/anderen Perspektive zu betrachten. Jeder Crawler hat schließlich seine eigenen Algorithmen, Sichten und Techniken und ein Blick aus verschiedenen und vor allem vielen Perspektiven kann nie schaden.

2

2048 – ein Pausenfüller mit Suchtpotential

2048 HighscoreWas wie ein Science-Fiction Roman klingt, ist in Wahrheit ein recht simples, aber nicht weniger kniffliges Spiel, über welches ich die Tage in meiner Facebook Timeline gestolpert bin.

Auf den ersten Blick wird nicht sofort klar, worum es bei 2048 geht, doch das Spielprinzip ist eigentlich ganz schnell erklärt.

 

 

  • Gespielt wird auf einem 4×4 Kacheln großen Spielfeld
  • Am Anfang liegen zwei Spielsteine mit dem Wert 2 auf dem Feld
  • Der Spieler kann nun mit den Pfeiltasten die Steine nach links, rechts, oben oder unten bewegen, wobei die Steine soweit wie möglich über das Feld gleiten
  • Treffen sich zwei Steine mit gleichem Wert, entsteht aus ihnen ein Stein mit dem Gesamtwert beider Steine
  • Pro Zug/Runde wird ein neuer Stein auf das Spielfeld gelegt

Ziel ist es, mindestens einen Stein mit dem Wert 2048 zu erstellen. Klingt jetzt vielleicht erst mal kompliziert, aber in Wahrheit ist das Spielprinzip schnell verinnerlicht. (Eine Vorschau gibt auch das animierte Bild am rechten Rand dieses Artikels.) Am Ende geht aber nichts über eine echte Partie 2048, die ihr direkt über die GitHub Seite von Gabriele Cirulli spielen könnt.

Wer sich für die Technik dahinter interessiert, findet in dem GitHub Repository auch den Quellcode des Spiels.

Ein Klon, aber ein Guter

2048 GameplayOk, zugegebenermaßen handelt es sich bei der oben verlinkten 2048 Version um einen Klon der 2048 Version von Saming. Aber dieser hat das Spiel ja auch nur dem Spiel 1024 von Veewo Studio entlehnt.

Nun kann man sich streiten, wem die Ehre gebührt und ob Veewo Studio wirklich die Ersten waren, die das Spielprinzip umgesetzt haben, steht wieder auf einem anderen Blatt. Was hingegen definitiv feststeht, ist die Tatsache, dass 2048 einfach Bock macht und meine klare Empfehlung erhält.

Was haltet ihr von dem Spielprinzip? Kanntet ihr es schon oder konnte ich euch dafür begeistern?

2

Android: Ende-zu-Ende-Verschlüsselung für Telefongespräche

redphone gesprächWenn man derzeit die Nachrichten liest, bevorzugt im IT-Sektor, so kann man fast täglich eine neue NSA-Skandal-Nachricht auffinden. Egal wie dick es schon kam, irgendwas kommt immer noch drauf.

Gerade vorgestern (18.03.14) las ich erst wieder auf Heise, dass die NSA offenbar sämtliche Telefongespräche “eines Landes” für 30 Tage speichert. Um welches Land es sich dabei handelt, ist bisher noch nicht bekannt. Da jedoch auch kein Land ausgeschlossen wird, ist es genauso wahrscheinlich, dass es sich um Deutschland handeln könnte wie um jedes andere Land auch.

Doch damit nicht genug. Ein Blick in den NSA-Haushaltsplan offenbarte das wahre Ausmaß. So war 2013 geplant noch weitere 5 Ländern dem Programm, welches übrigens auf den Namen “Mystic” hört, hinzuzufügen.

Dass dieser Tage nur noch die wenigstens Daten vor Geheimdiensten sicher sind, sollte mittlerweile jedem klar sein. Dass es zum Beispiel im Messenger-Bereich aber auch schon einige Lösungsansätze gibt, die Abhilfe schaffen sollen, ist ebenso bekannt. Ich hatte auch an dieser Stelle schon darüber berichtet.

Sind die eigenen Daten in Gefahr oder gibt es ein Leck nach außen, so ist vor allem im geschäftlichen Umfeld professionelle und schnelle Hilfe zur Aufdeckung und Eliminierung des Lecks von Nöten. Noch besser ist es aber, sich von Anfang an abzusichern. Und so wie es sichere Chat-Applikationen mit Ende-zu-Ende-Verschlüsselung gibt, gibt es auch Lösungen für sichere Telefonie. Denn wenn ich morgens auf Heise lesen darf, dass die NSA auch fleißig Telefonate speichert, dann kann es nicht schaden, die eigene Privatsphäre auch für dieses Medium wieder sicherzustellen.

Verschlüsselte Telefonate mit Androidgeräten

So wie Telegram und Threema sichere Chats ermöglichen (sollen), so steht die App RedPhone für sichere Telefonate und das bei möglichst einfacher Handhabung. Die App ist kostenlos über den GooglePlay Store zu bekommen.

Nach der Installation der App muss man sich einmalig mit seiner Telefonnummer registrieren, was ebenfalls kostenlos ist. Von nun an prüft RedPhone bei ausgehenden Telefonaten, ob der angerufene Kontakt ebenfalls RedPhone-Nutzer ist. Wenn dem so ist, fragt RedPhone ob das Telefongespräch verschlüsselt über RedPhone stattfinden soll. Dabei wird eine mit AES verschlüsselte RTP-Verbindung aufgebaut. Das heißt jedoch auch, dass eine Internetverbindung für die Telefongespräche benötigt wird.

redphone verbindungIm Gegenteil zu einigen anderen VoIP-Apps funktioniert RedPhone jedoch auch über das 3G- bzw. 4G-Netz, sodass man sich nicht zwingend in einem WLAN befinden muss.

Während des Gesprächs wird beiden Gesprächsteilnehmern eine, für das jeweilige Gespräch einzigartige, Phrase auf dem Display angezeigt. Diese sollten die beiden Gesprächsteilnehmer zu Beginn des Gesprächs miteinander abgleichen. Ist sie identisch, so kann davon ausgegangen werden, dass für das aktuelle Gespräch keine Man-in-the-middle-Attacke vorgenommen wird.

Der Quellcode von RedPhone ist zudem OpenSource und kann über den GitHub Account des Anbieters eingesehen und kopiert werden.

Alles steht und fällt mit der Akzeptanz

Wie aber auch schon bei den sicheren Messengern, steht und fällt RedPhone mit der Akzeptanz und der Verbreitung des Systems. Wenn keiner mitmacht, dann ist das ganze Prinzip wertlos. Neuankömmlinge werden die App nach kurzer Zeit wieder deinstallieren, weil keiner Ihrer Kontakte mitmacht.

Was haltet ihr von RedPhone? Könntet ihr euch vorstellen die App (regelmäßig) einzusetzen?

Seite 1 von 47