Tag-Archive for » Website «

Firefox-Browser trackt seine User mit Google Analytics

Ausgerechnet Mozilla mit seinen erklärten hohen Ansprüchen zum Datenschutz seiner User schlampte laut dem Mozilla-Manifest.

In diesem Paper heißt es in Punkt 4: „Die Sicherheit und der Schutz der Daten einer Person im Internet sind von grundlegender Bedeutung und dürfen nicht als optional betrachtet werden.“

Dummerweise nutzte der Mozilla-Browser Firefox aber offenbar Google Analytics, und zwar ohne seine Nutzer darüber zu informieren.

Das brachte kürzlich unter anderem der Nutzer Nicolas Petton per Twitter ans Licht, berichtet unter anderem Ghacks. Zum Tracking mit Analytics kommt es allerdings nur dann, wenn in den Add-ons des Browsers die Registerkarte Add-ons entdecken angeklickt wird.

Mozilla gibt den Fehler zu und verspricht Besserung

Inzwischen bestätigte Mozilla-Mitarbeiter Matthew Riley MacPherson, dass die Add-on-Verwaltung in der Tat einen iFrame mit Inhalten lade, die auf einer Mozilla-Internetpräsenz gehostet seien, in welcher das Google-Analytics-Skript enthalten sei.

Gemäß einer speziellen Vereinbarung mit Google sollen diese Daten allerdings nur anonymisiert an Mozilla weitergegeben worden. Den Nutzern geht es aber weniger um die unberechtigte Nutzung dieser Daten, sondern mehr um den Bruch des Versprechens von Mozilla auf Datensicherheit.

Problem zum Wochenende beseitigt

Firefox bietet zwar eine Option, die Google Analytics deaktivieren soll – den Tracking-Schutz Do Not Track. MacPherson gibt aber in einem Beitrag auf Github zu, dass die Add-ons-Website bisher die Do-Not-Track-Anforderung des Browsers schlichtweg ignoriert habe. „Wir haben heute einen Hotfix für die Add-ons-Website ausgeliefert, der Do Not Track respektiert“, ergänzte Mozilla-Mitarbeiter MacPherson (GitHub-Nick „tofumatt“).

Chrome 53 ohne Flash-Tracking

Chrome-LogoWer immer noch auf Flash baut, ist gut beraten, endlich auf HTML5 umzusteigen. Google hat jetzt mit den automatischen Updates auf Chrome 53 für  Linux, Mac OS X und Windows begonnen. Das Update schließt 33 Sicherheitslücken und verhindert wie angekündigt die Ausführung von Flash-Programmen im Hintergrund, die dem Tracking der Anwender dienen.

Nach Googles Ankündigung vom August sind heute ca. 90 Prozent aller Flash-Elemente für den Endanwender gar nicht sichtbar. Sie haben absolut keinen Nutzen für Besucher der Website und sorgen auch noch dafür, dass die Seite langsamer geladen wird.

Hauptsächlich rufen sie die Flash-APIs enumerateFonts und ExternalInterface auf, um so eine Liste der auf dem Rechner installierten Schriftarten und damit ein weiteres Merkmal zur Identifikation auch nicht eingeloggter Anwender zu bekommen – also für das sogenannte Fingerprinting.

Die neue Browser-Version Chrome 53.0.2785.89 steht ab sofort für Windows, Mac OS X und Linux zum Download bereit. Nutzer, die den Browser schon installiert haben, bekommen das Update automatisch, aber es kann auch von Googles Website geladen werden.

Neue EU-Richtline zu Cookies wurde gestern wirksam

Für deutsche Betreiber von Internetseiten wirft die neue EU-Richtlinie zu Cookies, die seit gestern wirksam sein soll, mehr Fragen auf, als sie beantwortet. Bei Golem kann man beispielsweise lesen: “Am 26. Mai 2012 treten neue Datenschutzregeln der EU in Kraft. Websitebetreiber und Werbenetzwerke müssen Nutzer um Erlaubnis fragen, wenn sie Cookies setzen. ”

Deutschlands oberster Datenschützer Peter Schaar sagte dazu auf dem 13. Datenschutzkongress am 9.  Mai 2012, dass die neue EU-Richtlinie in Deutschland direkt angewendet werden könne.

Allerdings ist es eine EU-Richtlinie, und keine EU-Verordnung, weshalb sie zunächst als nationales Gesetz umgesetzt sein muss, bevor sie in einem Land Gesetzeskraft hat. Für diese Umsetzung gab es eine Frist bis gestern, die nun abgelaufen ist, ohne dass Deutschland den Vorgaben der EU folgte (wie bei vielen anderen Regelungen ja auch).

Unter bestimmten Voraussetzungen werden dann solche nicht in nationales Recht umgesetzte EU-Richtlinien nach EU-Recht trotzdem für ein Land wirksam. Im konkreten Fall der Cookie-Richtlinie kann man aber keine eindeutige Rechtslage erkennen.

Von daher ist kaum zu erwarten, dass man nun mit seiner Website in Angst vor restriktiven  Aktionen der Behörden leben muss.

Allerdings sollte man sich als Betreiber von Internetseiten, die Cookies benutzen, jetzt schon einmal Gedanken machen, wie man auf die Cookie-Nutzung hinweisen kann.

Die EU-Richtlinie wäre in Deutschland wohl ausreichend berücksichtigt, wenn ein entsprechender Warnhinweis wie „Für die vollständige und korrekte Funktion dieser Internetseite werden Cookies benutzt. Wenn Sie damit nicht einverstanden sind, verlassen Sie bitte diese Internetseite.“ auf der Startseite zu finden ist.

Ob das für einen Online-Shop oder eine Community eine sinnvolle Lösung ist, bleibt schon fraglich…

Warum sollte man (k)eine Website erstellen?

Das Wie der Erstellung einer Website ist hier schon öfter beleuchtet worden, aber das Warum ist bisher etwas zu kurz gekommen.

Es gibt da eine genauso nette wie falsche Antwort auf die Frage, warum man auf einen Berg steigt: Weil er da ist. Bitte nicht missverstehen – ich bezweifle nicht, dass es Menschen gibt, die auf einen Berg steigen, weil er da ist. Allerdings ist das ein ziemlich oberflächlicher Grund, der die tieferliegenden Beweggründe überdecken soll.

Ähnlich ist es bei Webseiten. Die Tatsache alleine, dass man Internetseiten erstellen kann, ist sicher kein ausreichender Grund dafür, auch eine Website zu machen. Denn wer kann das eigentlich nicht im Zeitalter von Seitenbaukästen und CMS?

Solche Schnellschüsse führten früher sehr schnell zu sogenannten „Me Too“-Seiten, die aber zum Glück in Zeiten von Facebook und anderen Sozialen Netzwerken merklich seltener geworden sind. Diese Seiten verkünden dem geneigten Leser nichts Anderes, als dass man „auch im Internet“ ist – das wollte die Welt schon immer mal wissen…

Man braucht schon eine inhaltliche Grundlage, ein Thema, mit dem sich die Webseite beschäftigt. Und das sollte auch eine Anzahl Menschen interessieren – oder aber für eine ausreichende Anzahl von Menschen interessant gemacht werden.

Dazu gibt es die Suchmaschinenoptimierung (Search Engine Optimization oder kurz SEO), die hilft, passende Schlüsselwörter und Kombinationen davon zu finden, mit denen man seine Inhalte bei den alles entscheidenden Suchmaschinen nach vorne auf die ersten Ergebnisseiten bringen kann.

Die Optimierung der Website für diese Suchbegriffe ist sicher nicht banal – ein gutes Sprachgefühl zählt genauso zu den für eine gut besuchte Website notwendigen Voraussetzung wie das interessante Thema der Internetseite selbst.

HTML 5: Optimales Einbinden von Videos in HTML 5

Wenn ein Video auf Ihrer HTML 5-Website möglichst in allen Browsern, die HTML 5 unterstützen, ablaufen soll, brauchen Sie die Video-Datei in drei verschiedenen Formaten: MPEG4, OGV und WEBM. Zur Umwandlung Ihres Videos in die entsprechenden Formate können Sie Freeware-Tools wie zum Beispiel  XMedia Recode verwenden.

Die Einbindung des Videos in die Internetseite wird mit dem <video> – Tag realisiert:

<video preload controls width=300 height=177 poster= suleitec.jpg>
<source src=suleitec.mp4 type=’video/mp4; codecs=“avc1.42E01E, mp4a.40.2″‚>
<source src= suleitec.ogv type=’video/ogg; codecs=“theora, vorbis“‚>
<source src= suleitec.webm type=’video/webm; codecs=“vp8, vorbis“‚>
Leider kann Ihr Browser das Video nicht zeigen.
</video>

Mit der preload-Option wird die Videodatei vorgeladen und die controls-Option sorgt für die Darstellung der Steuerelemente (Start, Pause, Stopp usw.). Mit der poster-Option kann man ein Vorschaubild des Videos anzeigen.

Category: Allgemein  Tags: , , , ,  Comments off

Formularspam mit einem Topf Honig abwehren Teil 2

Wie schon im ersten Teil dieses Artikels beschrieben, wird bei der Honeypot-Methode zur Abwehr von Formularspam ein zusätzliches Formularfeld erzeugt, das für Menschen nicht sichtbar ist.

Das style-Attribut wurde wegen der Verständlichkeit ins span-Element gesetzt. Besser ist es, hier eine Klasse einzutragen und das style-Attribut in der CSS-Datei des Formulars anzugeben. Das hilft dann auch gegen intelligenter programmierte Spambots.

<!—Der Honeypot gegen Formularspam  –>
<span style=“display:none“>
<label for=“mail“>Das folgende Feld muss leer bleiben:</label>
<input type=“text“ name=“mail“ id=“mail“ title=“Dieses Feld muss leer bleiben “ />
</span>

Die Auswertung des Honeypots wird in die meist schon vorhandene PHP-Fallverzweigung mit den Plausibilitäts-Prüfungen eingesetzt. Hat ein Spambot das Honeypot-Feld ausgefüllt, verzweigt das Programm per Header-Befehl zurück zur Formulareingabe.

foreach($_POST as $key => $value) {
switch ($key) {

// Hier stehen alle Plausibilitätskontrollen

case „mail“:                           // Honeypot-Feld gegen Formularspam muss leer sein
If ($value != „“) {
$go=“n“;
$location=“formular.php „;
header(„Location: $location“);
}
break;
}
}

Denken Sie bitte daran, dass der Header-Befehl nur dann funktioniert, wenn vorher noch keine Ausgaben durch das Programm erzeugt wurden.

Category: Allgemein  Tags: , , , , , , , ,  Comments off

Formularspam mit einem Topf Honig abwehren Teil 1

Sie kennen sicher den lästigen Formularspam. Spambots tragen ihre zweifelhaften Werbebotschaften in jedes erreichbare Formular ein, selbst Suchformulare mit nur einem Eingabefeld ohne Chance auf Sichtbarkeit der Werbung bleiben nicht verschont.

Es sieht natürlich nicht gut aus, wenn im Gästebuch einer Website Werbung für Viagra und Suchanzeigen für Cash-Manager erscheinen. Aber auch in Formularen, die keine öffentlich sichtbaren Resultate produzieren oder deren Resultate vor Veröffentlichung von Menschen gesichtet werden, kann Formularspam die Listen ziemlich unübersichtlich machen. Der erste Gedanke eines Spamgeplagten Webmasters ist häufig die Einführung von Captchas, also verzerrten Bildchen mit Zahlen oder Buchstaben darin, die der Benutzer erkennen und in ein Formularfeld eingeben muss. Wenn die aber so gut sind, dass Roboter damit Probleme haben, haben Menschen auch Probleme damit und müssen häufig mehrere Versuche machen, bis das Formular abgeschickt wird.

Es gibt verschiedene bessere Ansätze, die alle mehr oder weniger darauf beruhen, dass es sich bei diesen „Spammern“ um Robots handelt, also Programme, die sich so verhalten, wie sie programmiert sind. Man nutzt zum Beispiel die Messung der Zeit zwischen Laden und Absenden des Formulars, um Roboter zu erkennen, die das in Bruchteilen einer Sekunde machen können. Es gibt aber schon Robots, die diese Zeit per Algorithmus erhöhen. Andere Ansätze prüfen alle Inhalte auf Plausibilität – das ist aber extrem aufwändig.

Eine der effizientesten Methoden ist der Honeypot. Dabei handelt es sich um ein für den menschlichen Benutzer per CSS unsichtbar gemachtes Formularfeld, das von den Spam-Robots ausgefüllt wird. Wenn etwas im Honeypot-Feld eingetragen ist, wird der Eintrag verworfen. Ein Beispiel dazu zeigen wir im nächsten Artikel.

Category: Allgemein  Tags: , , , , , , , ,  Comments off

Keywords für die Website recherchieren

Eine Recherche der optimalen Keywords, also der Suchbegriffe, mit denen potentielle Besucher wirklich versuchen, Ihr Webangebot zu finden, gehört zu den wichtigsten Grundlagen der Suchmaschinen-Optimierung. So ein Keyword kann auch aus mehreren Begriffen bestehen.

Viele Betreiber von Webseiten übergehen die Keyword-Recherche einfach, weil sie glauben, Ihre Angebote und die Suchbegriffe der potentiellen Kunden zu kennen. Das führt in aller Regel dazu, dass das Potential ihnen unbekannter Keywords ungenutzt bleibt.

Starten kann man am besten mit einigen schon bekannten relevanten Keywords, die man zum Beispiel aus der Traffic-Analyse der Webseiten entnehmen kann. Google bietet ein Keyword-Tool an, mit dem die Recherche gerne durchgeführt wird.

Mit diesem und anderen Tools erhalten Sie im Wesentlichen Informationen zum Suchvolumen mit einem Begriff und können damit Rückschlüsse auf seine Relevanz für einen potentiellen Besucher Ihrer Seite ziehen.

Category: Allgemein  Tags: , , , , ,  Comments off

Google schaut immer mehr auf die Ladezeiten

Schon im April letzten Jahres kündigte Google an, dass die Leistung einer Website immer stärker in das Ranking eingehen wird. Zu Beginn hatte das nur einen kleinen Einfluß. Google selbst gab an, dass nur ca. 1% der Suchanfrage dadurch eine andere Ergebnisreihenfolge bekommen. Inzwischen sind neun Monate vergangen, und der Einfluss der Leistung einer Website bezüglich der Platzierung in den Suchergebnissen wird immer größer.

Das spiegelt ja auch das Verhalten der Surfer wieder. Vor einem Jahr war eine Aufbauzeit von sechs bis zehn Sekunden noch sehr akzeptabel, aber heute klicken viele Surfer schon wieder weg, wenn die Internetseite nicht nach spätestens zwei Sekunden aufgebaut ist.

Kontrollieren kann man die Ladezeiten als Entwickler gut mit den Webmaster-Tools von Google. Die Site Performance-Option gibt einen guten Überblick über die Zeit bis zum vollständigen Laden der Seite in „seconds to lead“. Nur Ladezeiten unter 1,5 Sekunden werden aktuell mit „gut“ bewertet.

Es gibt viele Ansätze, die Ladezeit einer Seite zu verkürzen. Im Wesentlichen muss man versuchen, die Anfragen an den Server zu reduzieren, die ja für jedes Bild, jedes Flash, Stylesheet und Javascript usw. gestellt und beantwortet werden müssen, bevor die Seite komplett gerendert werden kann.

Da hilft schon die Zusammenfassung vieler Stylesheet-Dateien in einer einzigen, das nützt natürlich auch bei Javascript-Routinen. Viel Performance kann man auch bei den Datenbanken gewinnen. Indizes helfen beim schnelleren Ablauf einer Datenbankabfrage merklich.

Wer professionelle Webseiten mit einem guten Ranking bei Google erstellen möchte, kommt an diesen Notwendigkeiten einfach nicht mehr vorbei!

Category: Allgemein  Tags: , , , , , , ,  Comments off

Fotos für die Website

Hier im Forum wurde schon mehrfach darauf hingewiesen, dass man auf keinen Fall Bilder aus dem Internet für seine Website benutzen soll, ohne eine Erlaubnis des Rechte-Inhabers zu besitzen. Das ist nicht fair gegenüber den Inhabern der Rechte und kann auch zu sehr teuren Abmahnungen durch Rechtsanwälte führen.

Die Drittel-Regel (Goldener Schnitt)

Die Drittel-Regel (Goldener Schnitt)

Eine Lösung für dies Problem ist der Ankauf von Bildern von den großen Anbietern, zum Beispiel Fotolia. Der günstigste Weg, zu seinen Bildern zu kommen, ist aber immer noch, die Fotos selbst zu machen. Wer gewerblich Webseiten für Dritte erstellt, wird sowieso nicht daran vorbei kommen, Fotos für die Internetpräsenz direkt bei seinem Kunden zu machen. Der Internet-Dienstleister möchte ja nicht irgendein Geschäft, sondern das seines Kunden auf den Internetseiten zeigen.

Deshalb wollen wir hier die wichtigsten Tipps für brauchbare Fotos zusammenfassen:

  • Prüfen Sie die Funktion der Kamera und den Ladestand der Akkus, bevor Sie zum Kunden fahren. Nehmen Sie auch einen zweiten Akkusatz mit.
  • Achten Sie darauf, dass das Licht von der Seite oder von vorne auf die Szene fällt. Fotografieren Sie nicht gegen das Licht. Lassen Sie Personen nicht in die Sonne schauen, mit zusammengekniffenen Augen sehen die auf den Fotos nicht mehr natürlich aus.
  • Setzen Sie das Hauptmotiv nicht in die Mitte des Bildes. Am besten denken Sie sich Linien in das Foto, die das Bild horizontal und vertikal dritteln und legen das Kernmotiv auf einen der sich ergebenden Schnittpunkte. Diese Aufteilung hat eine deutlich höhere Dynamik.
  • Versuchen Sie, eine Komposition für Ihr Bild zu finden. Es sollten nicht zu viele Objekte und auch nicht zu viele Farben im Bild sein. Der richtige Ausschnitt ist nicht nur ein Fall fürs Teleobjektiv, die Veränderung des eigenen Standortes hat oft einen deutlich größeren Effekt.
  • Diskutieren Sie mit Kollegen oder Freunden über Ihre Fotos. Daraus lernt man, immer bessere Aufnahmen zu machen und schlechte Fotos zu vermeiden.
Category: Allgemein  Tags: , ,  One Comment